Sie haben folgende Möglichkeiten:
  1. zum Login.
  2. zur Navigation.
  3. zum Inhalt der Seite.

Alexander Beyer: Auch ChatGPT selbst sieht die Haftung von KI-Systemen als wichtigen Punkt an, um Schäden zu vermeiden. (Foto: sabida / stock.adobe.com)
Haftung für KI-Systeme

Alexander Beyer: KI-Systeme können nur so gut sein, wie die Algorithmen und Daten, die uns zugrunde liegen

ESV-Redaktion Recht
22.08.2023
Der Verordnungsvorschlag der EU-Kommission zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (KI) vom 21.04.2021 enthält keine Regelung zur Haftung für KI-Systeme. Daher legte die Kommission am 28.09.2022 ihren Vorschlag für eine KI-Haftungs-Richtlinie (AI Liability Directive) vor. Dieser soll die Vorschriften über die außervertragliche zivilrechtliche Haftung an die künstliche Intelligenz anpassen. Ein Anlass für Alexander Beyer in der WzS 08-2023 die wissenschaftliche Diskussion zur KI-Haftung dazulegen und einen kurzen Überblick über die Regelungen des Richtlinienvorschlags zu geben.
Beyer stellt seinen Ausführungen voran, dass sich die derzeitigen nationalen Haftungsregeln nicht zur Lösung Haftungsfällen für Schäden eignen, die durch KI-gestützte Produkte und Dienstleistungen verursacht werden.
 
Dem Autor zufolge gilt dies vor allem für Regelungen zur verschuldensabhängigen Haftung. Als Ursachen hierfür sieht er die Komplexität, die Autonomie und die Anpassungsfähigkeit von KI, die den Nachweis eines Verschuldens, das zu einem Schaden geführt hat, erschwert. Nach den aktuell geltenden Haftungsbestimmungen, so Beyer weiter, müssten Geschädigte diesen Nachweis erbringen und können aufgrund der daraus resultierenden Schwierigkeiten von der Geltendmachung ihrer Ansprüche Abstand nehmen.  

Alexander Beyer ist Stellvertrendender Geschäftsbereichsleiter bei der Deutschen Krankenhausgesellschaft e. V.  


Orientierung an bestehendem Recht

Über die Frage, woran sich die Haftung beim Einsatz von an bestehendem Recht und Gesetzgebung orientieren kann, gibt es Beyer zufolge seit vielen Jahren eine breite Diskussion in der Wissenschaft.
 
KI als eigenes Rechtssubjekt?
 
Zum Teil wurde hierbei überlegt, KI-Systeme als eigene Rechtssubjekte anzusehen. Dies würde Beyer zufolge aber nicht weiterhelfen, weil eine fiktive „ePerson“ kein eigenes Vermögen hat. Zwar könnten Haftungsfonds eingerichtet werden, die vom Anbieter und/oder dem Nutzer bedient werden. Allerdings hätte das Rechtssubjekt „ePerson“ als Adressat des Haftungsanspruches keine ökonomischen Anreize, aus Fehlern zu lernen.
 
Sieht man KI nicht als Rechtssubjekt an, müssen sich Haftungsansprüche entweder gegen den Anbieter oder gegen den Nutzer von KI-Systemen richten. Dann käme es darauf an, inwieweit der Anbieter/Nutzer pflichtwidrig gehandelt hat. Hierbei stellt sich die auch Frage, wem das fehlerhafte Verhalten der KI zuzurechnen ist.
 
Analogien zur Tierhalterhaftung und die Figur des Verrichtungsgehilfen im Sinne von § 831 BGB
 
Insoweit könnte die Tierhalterhaftung analog als Vorbild dienen. Weil aber die instinktive Handlungsweise eines Tieres nicht KI vergleichbar ist, lehnt Beyer diesen Ansatz ab. Im Weiteren geht Beyer noch auf die Figur des Verrichtungsgehilfen im Sinne von § 831 BGB ein.

Der kostenlose Newsletter Recht – Hier können Sie sich anmelden!
Redaktionelle Meldungen zu neuen Entscheidungen und Rechtsentwicklungen, Interviews und Literaturtipps.

 

Der Richtlinienvorschlag der Kommission

Anschließend widmet sich der Autor den Vorschlägen der EU-Kommission, die ein Vorgehen in folgenden Stufen befürwortet:
 
  • Stufe 1: Beweiserleichterungen für die Geschädigten  
  • Stufe 2: Verschuldensunabhängige Haftung für KI mit hohem Risiko und die Verknüpfung mit einer Pflichtversicherung
Diese Haftungsregelungen decken Beyer zufolge zwar nicht die Fälle ab, in denen die KI nur Informationen oder Entscheidungsgrundlagen zur Verfügung stellt, die von der handelnden Person berücksichtigt würden. In diesen Situationen wäre die Feststellung der Kausalität aber nicht schwieriger als in Situationen, in denen kein KI-System beteiligt ist.
 
Darüber behandelt Beyer noch die folgenden weiteren Themen des Richtlinienvorschlags:
 
  • Offenlegung von Beweismitteln und widerlegbare Vermutung eines Verstoßes nach Art. 3
  • Widerlegbare Vermutung eines ursächlichen Zusammenhangs im Falle eines Verschuldens nach Art. 4
  • Bewertung und gezielte Überprüfung nach Art. 5 


Die neue Produkthaftungsrichtlinie

Zeitgleich mit dem Vorschlag für eine KI-Haftungsrichtlinie hat die EU Kommission einen Entwurf für eine neue Produkthaftungsrichtlinie vorgelegt (COM/2022/495). Hierzu stellt er zunächst fest, dass damit die schon lange bestehende Unklarheit, ob auch Software als solche in den Anwendungsbereich der Produkthaftungsrichtlinie fällt, geklärt ist. Sodann widmet er sich den Unterschieden zur KI-Haftungsrichtlinie und arbeitet die Gemeinsamkeiten heraus.
 
  • Lesen Sie den vollständigen Beitrag von Alexander Beyer in der WzS 08-2023
  • Mehr zum Thema – Alexander Beyer:  Verordnungsvorschlag der EU-Kommission zur Festlegung harmonisierter Vorschriften für KI in der WzS 05-2023
 
Auch interessant 27.07.2023
Chatbot ändert sein Verhalten – Aktuelle Studien über ChatGPT

Wird ChatGPT mit der Zeit dümmer? Fragen wie diese kursieren im Netz, seitdem Forschende an den Universitäten Stanford und Berkeley am 18.7.2023 eine Studie unter dem Titel „How Is ChatGPT’s Behavior Changing over Time?“ veröffentlicht haben. mehr …


Zum Themenspektrum Künstliche Intelligenz bietet der ESV folgende Webinare an:


ChatGPT in der Unternehmenspraxis


Wolfhart Fabarius

Der Einsatz von Künstlicher Intelligenz revolutioniert die Arbeitswelt und mit ChatGPT steht hierbei ein besonders vielseitig nutzbares Anwendungstool zur Verfügung. Wie Sie als Governance-Verantwortlicher den Chatbot sinnvoll einsetzen können, zeigen die Praxisbeispiele in diesem Buch mit thematischen Schwerpunkten wie Nachhaltigkeit, Cybersicherheit, Datenschutz und Überwachung von Lieferketten.

Neben den Stärken von ChatGPT werden auch die Risiken der KI aufgezeigt, die vor allem aufgrund von fehlerhaften und subjektiv gefärbten Antworten des Chatbots bestehen. Es wird verdeutlicht, dass sich ChatGPT zwar als Arbeitshilfe eignet. Die Verantwortung bei der Nutzung von KI-generierten Informationen bleibt jedoch bei den anwendenden Personen.

Eine erstmalige Zusammenstellung praktischer KI-Anwendungsbeispiele für Risikomanagement, Controlling und Compliance – leicht verständlich sowohl für Governance-Profis als auch Nutzerinnen und Nutzer ohne große Vorkenntnisse.

Verlagsprogramm  Weitere Nachrichten aus dem Bereich Recht 



(ESV/bp)

Programmbereich: Wirtschaftsrecht