Vertrauen in Information

Aus multidisziplinärer Forschung in der Abteilung für Philosophy of Computational Sciences des HLRS entstehen Perspektiven für die Bewertung der Vertrauenswürdigkeit von Computer Science und Begrenzung der Verbreitung von Fehlinformationen.

Das Projekt ist in sechs Teilprojekte mit unabhängigen, aber miteinander verbundenen Forschungsfragen unterteilt:

1) Vertrauen in computerintensive Forschungsmethoden

Anhand von Fallstudien aus dem Bereich der Ingenieurwissenschaften und der Computersimulationen (CFD) wird versucht, die Beziehung zwischen der epistemischen Opazität computergestützter Methoden und verschiedenen Formen des Vertrauens (Vertrauen in Experten, Methoden, Ergebnisse von Methoden) zu verstehen.

2) Vertrauen mittels algorithmischer Verfahren

In dem Projekt werden Algorithmen entwickelt, die versuchen, die Vertrauenswürdigkeit technikgestützte Anwendungen wie die Schnittstelle zwischen Wissenschaft und Politik zu stärken. Die daraus resultierenden Werkzeuge können die fundierte Entscheidungsfindung in komplexen Umgebungen erleichtern.

3) Täuschungen und Deepfakes: Ein Grund der KI zu misstrauen?

Deepfakes und andere Täuschungen unterminieren unser Wissen über die Welt und kreieren gesellschaftliche, ethische und politische Gefahren. Wie funktioniert das Täuschen mit sogenannten „adversarial neural networks“? Was ist der Umfang und die Limitierung von technischen Lösungen, um den Vertrauensverlust von Bildern, Videos und anderen Medien zu verhindern? Wie ist der Einfluss nicht-technischer Gegenmaßnahmen zu beurteilen? Daraus resultiert eine Einschätzung, unter welchen Bedingungen wir Vorhersagen und Klassifikationen tiefer neuronaler Netze vertrauen können, auf denen die gesamte Deepfake-Technologie aufgebaut ist.

4) Vertrauen in medizinische Entscheidungssysteme

Vertrauen ist ein entscheidender Bestandteil in der Medizin und im Gesundheitswesen. Mit der Einführung und Nutzung von Computer- und Informationstechnologien bei der Diagnose und Behandlung sowie vonseiten Regierungen und Gesundheitsbehörden bei der Politikgestaltung im öffentlichen Gesundheitswesen stellt sich die Frage, ob und wie man computergestützten Expertensysteme vertrauen kann. Dieses Projekt spezifiziert die Merkmale vertrauenswürdiger medizinischer Systeme.

5) Vertrauen in computergestützte Zeugenaussagen in kriminologischen Kontexten

Dieses Teilprojekt befasst sich mit der Frage, wie es um die Vertrauenswürdigkeit von kriminologischen Ermittlungen steht, die sowohl auf menschlichen als auch auf computergestützten Zeugenaussagen basieren. Wir analysieren den Einsatz von virtuellen Tatortrekonstruktionen, um zu verstehen, wie Vertrauen in diese Technik gerechtfertigt werden kann: Wem oder was vertrauen wir, wenn wir den Ergebnissen von Ermittlungen auf der Grundlage von Zeugenaussagen oder virtuellen Modellen vertrauen?

6) Vertrauen in computergestützte städtische Gestaltungsprozesse

Simulationen sind ein vielversprechendes Instrument zur Erleichterung partizipativer Stadtplanungsprozesse. Voraussetzung dafür ist jedoch, dass die beteiligten Akteure ausreichend Vertrauen in die Simulationen haben. Denn sowohl Vertrauen als auch Misstrauen spielen in solchen Aushandlungsprozessen, etwa wenn es um Feinstaub-, Lärmbelastung oder Eingriffe in den öffentlichen Raum geht, eine zentrale Rolle. Dies überträgt sich auf den Einsatz von computerbasierten Verfahren, die wiederum leichtfertiges Vertrauen oder aber umgekehrt ungerechtfertigtes Misstrauen hervorrufen können. In diesem Teilprojekt gehen wir zunächst der Frage nach, was Vertrauen in eine Simulation in diesem Zusammenhang bedeutet. Zweitens wollen wir wissen, wie verschiedene problematische Formen von Misstrauen und Zweifel überwunden werden können. Welche Faktoren spielen eine Rolle dabei, wie Menschen virtuelle Werkzeuge und die beteiligten Personen in Reallaboren als zuverlässig oder unzuverlässig einschätzen?

Laufzeit

01. August 2020 -
30. Juni 2024

Kategorien

Philosophie & Ethik

Förderung

MWK Baden-Württemberg

Projektergebnisse

Zu den Ergebnissen des Projekts Vertrauen in Informationen gehören die folgenden:

  • Entwicklung einer Vertrauenstheorie für computerintensive Systeme, einschließlich der Anwendung der Theorie innerhalb der Subprojekte.
  • Drei Konferenzen in der Reihe „The Science and Art of Simulation“ (SAS): Trust in Science (2021), Trust and Disinformation (2022), Reliability or Trustworthiness? (2023)
  • Zwei Summer Schools: Trust in Science (2022), Trust and Machine Learning (2023)
  • Zwei SAS Editionen: Trust in Science, Trust and Disinformation (im Erscheinen bei Springer)

Ausblick

In Nachfolgeprojekten werden die folgenden Themen untersucht: “Reproduzierbarkeit und Simulationsvermeidung”, sowie “Modelling for policy.”

Fördergeber

Kontakt

Nico Formanek

Abteilungsleiter, Philosophy of Computational Sciences

+49 711 685-87289 nico.formanek(at)hlrs.de