Die Neigung, falschen Informationen Glauben zu schenken und nach diesen zu handeln, ist nichts Neues. Mit dem Aufkommen der sozialen Medien und ihren Auswirkungen auf die Polarisierung der öffentlichen Meinung ist es jedoch dringender denn je, zu verstehen, wie und warum dies geschieht.
Mit Unterstützung des Ministeriums für Wissenschaft, Forschung und Kunst Baden-Württemberg erforscht die Abteilung Philosophy of Computational Sciences des HLRS, wie man die Vertrauenswürdigkeit von Informationen sowohl in den Computerwissenschaften als auch in der Gesellschaft bewerten und verbessern kann.
24. Okt 2022
Events
HLRS-Projekte
Sozialwissenschaften
Philosophie & Ethik
Alle Nachrichten
Das HLRS lud kürzlich Forscher:innen aus unterschiedlichen Fächern zu einer dreitägigen internationalen Konferenz mit dem Titel "Trust & Disinformation" nach Stuttgart ein. Die Vortragenden untersuchten, wie Desinformationen – zusammen mit den anderen technologischen, soziologischen, institutionellen und politischen Faktoren – zum irrtümlichen Vertrauen in Fehlinformationen führt, das das für eine funktionierende Gesellschaft notwendige Vertrauensverhältnis beschädigen kann.
Ein angemessenes Vertrauen in vertrauenswürdige Informationen ist für einen gesunden öffentlichen Diskurs und eine demokratische Entscheidungsfindung unerlässlich. Wie mehrere Vortragende auf der Konferenz betonten, hat die zunehmend komplexe Informationslandschaft jedoch nicht nur zu einer Vermehrung von Falschinformationen geführt, sondern auch zu einer Vertrauenskrise in der Gesellschaft. Der steigende Einfluss von Fehlinformationen (Informationen, die nicht der Wahrheit entsprechen), Desinformationen (falsche Informationen, die mit der Absicht der Täuschung verbreitet werden) und Malinformationen (Informationen, die zwar Tatsachen enthalten, aber absichtlich aus dem Zusammenhang gerissen oder falsch erklärt werden) hat zu einem weitverbreiteten Empfinden geführt, das Wissenschaftler:innen epistemische Unsicherheit nennen. In diesem Fall erschweren die Verwirrung und Uneinigkeit über grundlegende Fakten die öffentliche Diskussion und Entscheidungsfindung.
Seit dem Brexit-Votum und den Präsidentschaftswahlen in den USA 2016 sind Filterblasen, Confirmation Bias und Echokammern zu Begriffen für Phänomene geworden, in denen Nutzer:innen von sozialen Medien Desinformationen ausgesetzt werden, sich in Gruppen abgrenzen und keinen Zugang mehr zu alternativen Standpunkten haben. In mehreren Vorträgen auf der Konferenz wurde jedoch darauf hingewiesen, dass es an der Zeit ist, die Brauchbarkeit dieser Begriffe zu prüfen.
Die Tendenz des Einzelnen, sich mit Gleichgesinnten zusammenzuschließen, sei nicht unbedingt ein Problem, so Hauptredner David Coady (Universität Tasmanien), werde aber zu einem, wenn sie die Verbreitung von Desinformationen verstärke. In ähnlicher Weise, so Coady, könnten sich Positionen, die vorerst als Verschwörungstheorien oder extremistische Ideen abgetan werden, mit der Zeit als wahr oder gesellschaftlich akzeptiert erweisen. Aus diesem Grund plädierte er dafür, den Inhalt von Behauptungen zu analysieren und nicht deren Struktur.
Außerdem zeigten die Vortragenden, dass die Neigung der Menschen, Desinformationen zu glauben, nicht nur das Ergebnis von Algorithmen in den sozialen Medien sei, sondern aus einer Reihe komplexer Faktoren resultiere. Dazu gehören individuelle Überzeugungen und kognitive Prozesse, soziale Beziehungen, Bildung und sogar Funktionen des Gehirns zur Mustersuche, die der menschlichen Evolution zugutegekommen sind. Um erfolgreich gegen Desinformation vorgehen zu können, muss man besser verstehen, wie diese undandere Faktoren zusammenwirken.
Die Referenten der Konferenz, darunter Hauptredner Hendrik Heuer (Harvard University), erörterten auch die potenziellen Vorteile und mögliche Maßnahmen gegen die Verbreitung von Desinformationen. Denkbare Ansätze sind u.a. Medienkompetenzkampagnen, Web-Plugins, die die Vertrauenswürdigkeit bewerten oder die Faktenüberprüfung erleichtern, Algorithmen zum Löschen von Desinformationen aus dem Internet oder sogar Crowdsourcing-Warnungen vor Desinformationen.
Obwohl diese Maßnahmen attraktiv klingen und einige sogar technisch machbar wären, kamen die Vortragenden immer wieder auf ein kritisches Thema zurück, das ihre Zweckmäßigkeit in Frage stellt: Wer sollte die Befugnis haben, „gute“ Informationen von „schlechten“ Informationen zu unterscheiden? Diese politische Frage ist im Hinblick auf die Grundrechte und den freien Willen besonders kritisch. Sie bringt neue Herausforderungen in Bezug auf Legitimität und Vertrauen mit sich.
Die Diskussionen auf der Konferenz des HLRS zeigten, dass es keine einfachen Lösungen zur Bewältigung von Desinformation geben wird. Dennoch wird ein besseres Verständnis der Thematik dabei helfen, das Vertrauen der Öffentlichkeit wiederherzustellen.
—Christopher Williams