Das Projekt ist in sechs Teilprojekte mit unabhängigen, aber miteinander verbundenen Forschungsfragen unterteilt:
Anhand von Fallstudien aus dem Bereich der Ingenieurwissenschaften und der Computersimulationen (CFD) wird versucht, die Beziehung zwischen der epistemischen Opazität computergestützter Methoden und verschiedenen Formen des Vertrauens (Vertrauen in Experten, Methoden, Ergebnisse von Methoden) zu verstehen.
In dem Projekt werden Algorithmen entwickelt, die versuchen, die Vertrauenswürdigkeit technikgestützte Anwendungen wie die Schnittstelle zwischen Wissenschaft und Politik zu stärken. Die daraus resultierenden Werkzeuge können die fundierte Entscheidungsfindung in komplexen Umgebungen erleichtern.
Deepfakes und andere Täuschungen unterminieren unser Wissen über die Welt und kreieren gesellschaftliche, ethische und politische Gefahren. Wie funktioniert das Täuschen mit sogenannten „adversarial neural networks“? Was ist der Umfang und die Limitierung von technischen Lösungen, um den Vertrauensverlust von Bildern, Videos und anderen Medien zu verhindern? Wie ist der Einfluss nicht-technischer Gegenmaßnahmen zu beurteilen? Daraus resultiert eine Einschätzung, unter welchen Bedingungen wir Vorhersagen und Klassifikationen tiefer neuronaler Netze vertrauen können, auf denen die gesamte Deepfake-Technologie aufgebaut ist.
Vertrauen ist ein entscheidender Bestandteil in der Medizin und im Gesundheitswesen. Mit der Einführung und Nutzung von Computer- und Informationstechnologien bei der Diagnose und Behandlung sowie vonseiten Regierungen und Gesundheitsbehörden bei der Politikgestaltung im öffentlichen Gesundheitswesen stellt sich die Frage, ob und wie man computergestützten Expertensysteme vertrauen kann. Dieses Projekt spezifiziert die Merkmale vertrauenswürdiger medizinischer Systeme.
Dieses Teilprojekt befasst sich mit der Frage, wie es um die Vertrauenswürdigkeit von kriminologischen Ermittlungen steht, die sowohl auf menschlichen als auch auf computergestützten Zeugenaussagen basieren. Wir analysieren den Einsatz von virtuellen Tatortrekonstruktionen, um zu verstehen, wie Vertrauen in diese Technik gerechtfertigt werden kann: Wem oder was vertrauen wir, wenn wir den Ergebnissen von Ermittlungen auf der Grundlage von Zeugenaussagen oder virtuellen Modellen vertrauen?
Simulationen sind ein vielversprechendes Instrument zur Erleichterung partizipativer Stadtplanungsprozesse. Voraussetzung dafür ist jedoch, dass die beteiligten Akteure ausreichend Vertrauen in die Simulationen haben. Denn sowohl Vertrauen als auch Misstrauen spielen in solchen Aushandlungsprozessen, etwa wenn es um Feinstaub-, Lärmbelastung oder Eingriffe in den öffentlichen Raum geht, eine zentrale Rolle. Dies überträgt sich auf den Einsatz von computerbasierten Verfahren, die wiederum leichtfertiges Vertrauen oder aber umgekehrt ungerechtfertigtes Misstrauen hervorrufen können. In diesem Teilprojekt gehen wir zunächst der Frage nach, was Vertrauen in eine Simulation in diesem Zusammenhang bedeutet. Zweitens wollen wir wissen, wie verschiedene problematische Formen von Misstrauen und Zweifel überwunden werden können. Welche Faktoren spielen eine Rolle dabei, wie Menschen virtuelle Werkzeuge und die beteiligten Personen in Reallaboren als zuverlässig oder unzuverlässig einschätzen?
01. August 2020 - 30. Juni 2024
Philosophie & Ethik
Philosophy of Computational Sciences
MWK Baden-Württemberg
Alle Projekte
Zu den Ergebnissen des Projekts Vertrauen in Informationen gehören die folgenden:
In Nachfolgeprojekten werden die folgenden Themen untersucht: “Reproduzierbarkeit und Simulationsvermeidung”, sowie “Modelling for policy.”
Abteilungsleiter, Philosophy of Computational Sciences