Detailseite
Projekt Druckansicht

Künstliche Intelligenz: Wer trägt Verantwortung für welchen Schaden einer Handlung?

Antragstellerin Dr. Eva Buddeberg
Fachliche Zuordnung Praktische Philosophie
Grundlagen des Rechts und der Rechtswissenschaft
Förderung Förderung seit 2022
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 512921364
 
Die sprunghafte Entwicklung des Einsatzes von Künstlicher Intelligenz etwa im Bereich der Medizin und dessen gesellschaftliche Folgen sind für den gegenwärtigen Diskurs von Politik und Wissenschaft von zentraler Bedeutung. Aus rechtswissenschaftlicher Perspektive ist insbesondere der Umgang mit Rechtsgutverletzungen und Schäden problematisch, die durch KI-basierte Systeme verursacht werden können oder mit ihnen in Zusammenhang stehen: Derzeitige Lösungsansätze beschränken sich weitgehend auf die Anwendung bisher geltender Haftungsregelungen. Damit ist aber nur unzureichend geklärt, wie in Anbetracht der eingeschränkten Erklärbarkeit von KI-basierten Entscheidungen etwa die mit der Kausalität von Schäden festzustellen ist und wer für die durch KI-basierte Systeme verursachten Schäden haftet. Die spezifischen Eigenschaften KI-basierter Anwendungen stellen das Haftungsrecht de lege lata mit Blick auf die Vorhersehbarkeit und Beherrschbarkeit von Risiken auch bei der Formulierung angemessener Sorgfaltspflichten vor massive Herausforderungen. In der Philosophie wird zwar grundsätzlich angenommen, dass KI-basierte Systeme selbst (noch) nicht Träger von moralischer Verantwortung sein können, da sie bestimmte dafür angenommene Voraussetzungen wie Freiheit, höherstufige Intentionalität und die Fähigkeit, nach Gründen zu handeln, nicht erfüllen. Damit wird ihnen jedoch nicht grundsätzlich abgesprochen auf moralisch relevante Weise Einfluss zu nehmen. So geht es auch in der philosophischen Debatte um die Frage, wem beim Einsatz von solchen Systemen für was Verantwortung zugeschrieben werden kann, was handlungstheoretisch und moralphilosophisch generell voraussetzungsreich ist. Drei verschiedene Aspekte von Verantwortung werden in der philosophischen Literatur besonders hervorgehoben: 1. Zuschreibung der Urheberschaft von Handlungen und die Haftung des Autors für diese Handlungen; 2. Zuschreibung einer Sorgepflicht für bestimmte Aufgaben oder Aufgabenbereiche; und schließlich 3. die Verpflichtung, das eigene Verhalten und Handeln mit guten Gründen zu rechtfertigen. Hauptziel der Arbeitsgruppe ist eine fundierte und interdisziplinär tragfähige Verortung von Verantwortungsbereichen beim Einsatz künstlicher Intelligenz. Dabei soll die juristische Debatte um Haftungsfragen durch moralphilosophische und handlungstheoretische Überlegungen untermauert werden, um bisher unbeantwortete Fragen, wie etwa die Eingrenzung und Verschränkung der Sorgfaltspflichten, adressieren zu können. Gleichzeitig können sich die moralphilosophischen und juristischen Argumente gegenseitig verstärken. Es sollen Kriterien entwickelt werden, die es erlauben, Sorgfaltspflichten für die Anwendung von KI zu definieren und daraus ein Haftungskonzept auch für künftige nicht vorhersehbare Entwicklung im Zusammenhang mit KI zu entwickeln. Ein solcher Standard könnte zu höherer Rechtssicherheit im Umgang mit KI und bei deren Anwendung zu mehr gesellschaftlicher Akzeptanz bei der Anwendung führen.
DFG-Verfahren Wissenschaftliche Netzwerke
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung