Sie haben folgende Möglichkeiten:
  1. zum Login.
  2. zur Navigation.
  3. zum Inhalt der Seite.

Die von der Beklagten eingesetzte KI erkannte die falsche Zuordnung von Daten zur Klägerin nicht. (Foto: MarkRademaker / stock.adobe.com)
Fehlerhafte KI

LG Kiel zur Störerhaftung eines Portals für KI-gestützte Unternehmensauskünfte

ESV-Redaktion Recht
14.11.2024
Kann ein Wirtschafsinformationsdienst bei einer falschen Information, die über seinen Dienst abrufbar war, einen Unterlassungsanspruch des Betroffenen mit der Begründung abwenden, dass der Fehler auf einen automatisierten KI-Vorgang zurückzuführen ist? Zu dieser Frage hat sich das LG Kiel aktuell geäußert.
In dem Streitfall betreibt die Beklagte ein Online-Portal für Wirtschaftsinformationen über deutsche Unternehmen. Hierzu wertet sie Pflichtveröffentlichungen aus dem Bundesanzeiger, dem Handelsregister und dem Insolvenzregister aus und vernetzt die Daten, damit diese übersichtlich dargestellt und interaktiv visualisiert werden können. Der Prozess erfolgt vollautomatisch unter Einsatz einer KI-Software. Die Nutzer können sich auf der Plattform dann Informationen aus den öffentlichen Registern anzeigen lassen – und zwar durch Eingabe von Suchworten sowie mithilfe eines Musters, das die Beklagte definiert hat. 
 
Zu den Wirtschaftsdaten erklärt die Beklagte in ihren Nutzungsbedingungen, dass diese durch vollständig automatisierte Analyse gewonnen werden und teilweise oder auch weitgehend fehlerhaft sein können. 
 
Im Juli 2023 teilte die Klägerin der Beklagten mit, dass von deren Plattform aus unzutreffende Informationen über die Klägerin abrufbar sind. Demnach sei die Löschung der Klägerin wegen Vermögenslosigkeit nach § 394 FamFG beabsichtigt. Die Klägerin baut und vertreibt als mittelständisches Familienunternehmen vor allem Wintergärten und Terrassendächer.
 
Bei der Fehlersuche der Beklagten stellte sich heraus, dass die Veröffentlichung zu einem anderen Unternehmen gehört. In der Verarbeitungskette lag ein Zuordnungsfehler vor. Zwar löschte die Beklagte die falsche Mitteilung unverzüglich. Auch konnte sie deren weitere Verbreitung durch eine Sperrung verhindern. Weil sich die Beklagte aber weigerte, eine Unterlassungserklärung abzugeben, zog die Klägerin unter anderem mit einem Antrag auf Unterlassung vor das LG Kiel.
 
Der kostenlose Newsletter Recht – Hier können Sie sich anmelden! 
Redaktionelle Meldungen zu neuen Entscheidungen und Rechtsentwicklungen, Interviews und Literaturtipps.


LG Kiel: Wiederholungsgefahr gegeben

Die 6. Zivilkammer des LG Kiel verurteilte die Beklagte antragsgemäß auf Unterlassung der Falschinformation zur  vorgeblichen Vermögenslosigkeit der Klägerin und ging von einer Störerhaftung im Sinne einer analogen Anwendung von § 1004 BGB aus. Die wesentlichen Überlegungen der Kammer:
 
  • Bewusster Einsatz der KI-Software: Die Einlassung der Beklagten, sie wäre nicht unmittelbar an dem automatisierten Prozess beteiligt, überzeugte die Kammer nicht. Die Beklagte hatte zur Beantwortung von Suchanfragen ihrer Nutzer nämlich bewusst eine unzulänglich programmierte KI eingesetzt, die den streitgegenständlichen Zuordnungsfehler nicht erkannt hat, so die Kammer hierzu.
  • Daten als eigene Inhalte bezeichnet: Darüber hinaus habe die Beklagte die gewonnenen Daten als eigene Inhalte präsentiert. Hierfür, so die Kammer weiter, habe die Beklagte auch die Verantwortung übernommen, denn sie bündelte Pflichtveröffentlichungen zu Unternehmen und verknüpfe diese auf ihren Seiten miteinander.
  • Wiederholungsgefahr liegt vor: Auch eine Wiederholungsgefahr bejahte das Gericht.  Der Hinweis der Beklagten darauf, dass sie lediglich fremde Daten veröffentliche, ohne diese zu prüfen, hat die Annahmeeiner Wiederholungsgefahr det Kammer zufolge sogar bestärkt, Die Beklagte hatte nämlich vorgetragen, dass die Pflichtinformationen aus den elektronischen Registern möglicherweise unzuverlässig sind und es zu Falschanzeigen kommen könne. Daher wäre das Auftreten des gleichen Fehlers nicht auszuschließen, so das LG Kiel abschließend.
Quelle: Urteil des LG Kiel  vom 29.02.2024 – 6 O 151/23 abrufbar unter juris.de


ChatGPT in der Unternehmenspraxis

Der Einsatz von Künstlicher Intelligenz revolutioniert die Arbeitswelt und mit ChatGPT steht hierbei ein besonders vielseitig nutzbares Anwendungstool zur Verfügung. Wie Sie als Governance-Verantwortlicher den Chatbot sinnvoll einsetzen können, zeigen die Praxisbeispiele in diesem Buch mit thematischen Schwerpunkten wie Nachhaltigkeit, Cybersicherheit, Datenschutz und Überwachung von Lieferketten.

Neben den Stärken von ChatGPT werden auch die Risiken der KI aufgezeigt, die vor allem aufgrund von fehlerhaften und subjektiv gefärbten Antworten des Chatbots bestehen. Es wird verdeutlicht, dass sich ChatGPT zwar als Arbeitshilfe eignet. Die Verantwortung bei der Nutzung von KI-generierten Informationen bleibt jedoch bei den anwendenden Personen.

Eine erstmalige Zusammenstellung praktischer KI-Anwendungsbeispiele für Risikomanagement, Controlling und Compliance – leicht verständlich sowohl für Governance-Profis als auch Nutzerinnen und Nutzer ohne große Vorkenntnisse.

Hören Sie hier den Interview-Podcast Der Einsatz von ChatGPT in Unternehmen – Bernd Preiß mit seinem Gast: Wolfhart Fabarius.




Künstliche Intelligenz (KI) revolutioniert die Arbeitswelt – und vor allem mit ChatGPT steht ein besonderes Anwendungstool bereit, das vielseitig einsetzbar ist. Wie Governance-Verantwortliche den Chatbot sinnvoll einsetzen können, erläutert Wolfhart Fabarius anhand von Praxisbeispielen in dem Interview-Podcast. In dem Podcast geht Fabarius – begleitend zu seinem neuen Buch – vor allem auf KI-Anwendungsbeispiele für Risikomanagement, Controlling und Compliance ein. Insoweit hat er den Chatbot unter anderem Risikomanagement-Konzepte aufsetzen lassen. Eine weitere Frage lautet etwa: Kann ChatGPT Finanzberichte selbst erstellen?

Verlagsprogramm 
Weitere Nachrichten aus dem Bereich Recht

(ESV/bp)

Programmbereich: Wirtschaftsrecht