Sie haben folgende Möglichkeiten:
  1. zum Login.
  2. zur Navigation.
  3. zum Inhalt der Seite.

Der AI-Act der EU verbietet KI-Systeme, die die Sicherheit, die Rechte oder die Freiheiten der Bürger bedrohen, wie etwa das Social-Scoring (Foto: RafMaster / stock.adobe.com)
Rechtsrahmen für KI in der EU

AI-Act im Amtsblatt der EU veröffentlicht

ESV-Redaktion Recht
17.07.2024
Am 12.07.2024 wurde die VO (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13.06.2024 – kurz AI-Act – im Amtsblatt der Europäischen Union veröffentlicht. Die VO ist weltweit der erste Rechtsrahmen zur Regelung von Fragen der Künstlichen Intelligenz (KI) und wird in den Mitgliedstaaten unmittelbar gelten.
Der neue Rechtsrahmen soll die Entwicklung und den Einsatz von Künstlicher Intelligenz (KI) innerhalb der EU regulieren. Unter anderem soll er sicherstellen, dass die grundrechtlichen Belange der EU-Bürger, die KI-Anwendungen nutzen, hinreichend geschützt werden. Gemeint sind vor allem die Freiheitsrechte der Bürger, der Schutz der Privatsphäre, der Schutz vor Diskriminierung und die Gewährleistung der Sicherheit von KI-Systemen.

Darüber hinaus soll der AI-Act das Vertrauen in KI stärken und die Entwicklung von Innovationen fördern. Gegenstände des neuen Regelwerkes sind das Inverkehrbringen, die Inbetriebnahme und die Verwendung von KI.
 

Die wichtigsten Regelungspunkte im Überblick


Risikobasierter Ansatz


Der AI-Act teilt KI-Systeme in folgende Risikostufen ein:

  • Verbotenes und unakzeptables Risiko: Verboten sind KI-Systeme, die die Sicherheit, die Rechte oder die Freiheiten der Menschen bedrohen. Hierzu gehört zum Beispiel das Social Scoring, also ein System, das Menschen sozial bewertet. Ebenso zählt hierzu eine manipulative Verhaltenssteuerung.
  • Hohes Risiko: Zu dieser Risikostufe gehören KI-Systeme, die in kritischen Bereichen eingesetzt werden, wie etwa im Gesundheitswesen, in der Strafverfolgung, in der Bildung und oder im Arbeitsrecht. Derartige Systeme können strengen Vorschriften und Auflagen unterliegen. Zudem gelten für diese strenge Transparenz-, Sicherheits- und Ethikstandards.
  • Begrenztes Risiko: Hierzu gehören Chatbots oder virtuelle Assistenten. Ebenso fallen darunter Empfehlungssysteme, Algorithmen für personalisierte Produktempfehlungen, Bild- und Sprachbearbeitungswerkzeug oder Systeme zur Optimierung von Marketing- und Werbesystemen. Bei solchen Systemen muss den Nutzern mitgeteilt werden, dass sie mit einem KI-System interagieren. Gemeinsam ist diesen KI-Systemen, dass sie keinen unmittelbaren Einfluss auf grundlegende Rechte und Freiheiten der Nutzer haben. Das Hauptziel der Transparenzpflichten liegt in der angemessenen Information des Nutzers, damit dieser fundierte Entscheidungen treffen kann.
  • Minimales Risiko: Zu KI-Anwendungen mit minimalem Risiko zählen etwa Suchmaschinen, Übersetzungstools, Rechtschreib- und Grammatikprüfungen oder auch KI-gestützte Musik- oder Videoempfehlungen. Solche Anwendungen gelten als relativ sicher für die Gesellschaft und die Freiheitsrechte. Daher unterliegen sie nur sehr geringen oder gar keinen regulatorischen Anforderungen. 
Der kostenlose Newsletter Recht – Hier können Sie sich anmelden! 
Redaktionelle Meldungen zu neuen Entscheidungen und Rechtsentwicklungen, Interviews und Literaturtipps.


Aufsicht

Der AI-Act sieht eine umfassende Aufsichtsstruktur vor. Die wichtigsten Mechanismen und Strukturen:
 

Nationale Aufsichtsbehörden

Jeder EU-Mitgliedstaat hat eine oder mehrere zuständige nationale Aufsichtsbehörden zu benennen, die die Einhaltung der neuen Regelungen überwachen müssen. Diese Behörden haben folgende Aufgaben:
 
  • die Registrierung und Zertifizierung von KI-Systemen, 
  • die Durchführung von Kontrollen und Inspektionen
  • oder die Ergreifung von Maßnahmen zur Durchsetzung der Regelungen des AI-Acts

Europäischer Ausschuss für Künstliche Intelligenz

Zudem soll ein noch einzurichtender Europäischer Ausschuss für KI – das sogenannte European Artificial Intelligence Board – die Zusammenarbeit und den Austausch von Verfahren zwischen den nationalen Aufsichtsbehörden koordinieren. Die Aufgaben des Ausschusses:

  • Förderung der Harmonisierung der Aufsichtspraktiken unter den Mitgliedstaaten,
  • die Beratung der EU-Kommission zu technischen und politischen Fragen
  • sowie die Entwicklung von Richtlinien und Empfehlungen zur Unterstützung der nationalen Behörden.

Marktüberwachung

Die Marktüberwachungsbehörden der Mitgliedstaaten sollen sicherstellen, dass nur konforme KI-Systeme in Verkehr gebracht oder in Betrieb genommen werden. Zu deren Aufgaben gehören daher
 
  • die Überprüfung von Produkten
  • sowie die Einrichtung von Marktüberwachungsprogrammen – zum Beispiel von Meldesystemen für schwerwiegende Vorfälle, von Fehlfunktionen oder von Hochrisiko-KI-Systemen. So müssen Anbieter schwerwiegende Vorfälle oder Fehlfunktionen unverzüglich melden. Zudem können die Behörden Ermittlungen einleiten, um die Ursachen der Vorfälle auszumachen und geeignete Maßnahmen zu ergreifen.

 

Passend zum Thema 

20.06.2024
Künstliche Intelligenz datenschutzkonform einsetzen: Datenschutzkonferenz veröffentlicht Orientierungshilfe für Unternehmen und Behörden

Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder (Datenschutzkonferenz) legte jüngst eine Orientierungshilfe mit datenschutzrechtlichen Kriterien für die Auswahl und den datenschutzkonformen Einsatz von KI-Anwendungen vor. mehr …



Konformitätsbewertung und Zertifizierung

KI-Systeme mit einem hohen Risiko müssen vor ihrer Markteinführung eine Konformitätsbewertung durchlaufen. Diese Bewertung kann entweder der Hersteller selbst oder eine benannte Stelle vornehmen.

 

Transparenz- und Berichtspflichten bei Hochrisiko-KI-Systemen

Zu den Transparenz- und Berichtspflichten für Anbieter von Hochrisiko-KI-Systemen gehören die Erstellung und Pflege von technischen Dokumentationen über das Design, die Entwicklung und die Leistung des KI-Systems. Zudem müssen solche Anbieter eine EU-Konformitätserklärung ausstellen. In dieser müssen sie die Einhaltung der Anforderungen des AI-Acts bestätigen.

 

Durchsetzung und Sanktionen

Der AI-Act sieht strenge Durchsetzungsmechanismen und Sanktionen für Verstöße vor. Zuständig sind die nationalen Aufsichtsbehörden der Mitgliedstaaten. Bei Verstößen drohen hohe Geldstrafen.
 

Schutz von Verbrauchern

Die Neuregelung enthält folgende Mechanismen zum Schutz der Verbraucher und Nutzer von KI-Systemen:

  • Recht auf Auskunft: So haben Verbraucher ein  Recht auf Auskunft über die Funktionsweise und die Auswirkungen von KI-Systemen, mit denen sie interagieren.
  • Beschwerderecht: Zudem können Verbraucher bei den nationalen Aufsichtsbehörden eine Beschwerde einreichen, wenn sie meinen, dass ein KI-System gegen den AI-Act verstößt.

Der weitere Fahrplan

Die Verordnung tritt nach Art. 113 Satz 1 am 01.08.2024 in Kraft und wird nach Satz 2 ab dem 02.08.2026 gelten.

Die Kapitel I (Allgemeine Bestimmungen) und Kapitel II (Verbotene Praktiken im KI-Bereich) gelten ab dem 02.02.2025.

Die Kapitel

  • III Abschnitt 4 (Notifizierende Behörden und notifizierte Stellen),
  • V (KI-Modelle mit Allgemeinem Verwendungszweck),
  • VII (Governance),
  • XII (Sanktionen),
  • sowie Artikel 78 (Vertraulichkeit)
gelten – mit Ausnahme von Artikel 101 – ab dem 02.08.2025.

Artikel 6 Absatz 1 mit den entsprechenden Pflichten nach dieser VO sind ab dem 02.08.2027 anzuwenden. Die benannte Norm trägt die Überschrift: Einstufungsvorschriften für Hochrisiko-KI-Systeme.

Quelle: VO (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen [ .......], veröffentlicht im Amtsbaltt der EU, Reihe L, S. 1-144.


ChatGPT in der Unternehmenspraxis


Der Einsatz von Künstlicher Intelligenz revolutioniert die Arbeitswelt und mit ChatGPT steht hierbei ein besonders vielseitig nutzbares Anwendungstool zur Verfügung. Wie Sie als Governance-Verantwortlicher den Chatbot sinnvoll einsetzen können, zeigen die Praxisbeispiele in diesem Buch mit thematischen Schwerpunkten wie Nachhaltigkeit, Cybersicherheit, Datenschutz und Überwachung von Lieferketten.

Neben den Stärken von ChatGPT werden auch die Risiken der KI aufgezeigt, die vor allem aufgrund von fehlerhaften und subjektiv gefärbten Antworten des Chatbots bestehen. Es wird verdeutlicht, dass sich ChatGPT zwar als Arbeitshilfe eignet. Die Verantwortung bei der Nutzung von KI-generierten Informationen bleibt jedoch bei den anwendenden Personen.

Eine erstmalige Zusammenstellung praktischer KI-Anwendungsbeispiele für Risikomanagement, Controlling und Compliance – leicht verständlich sowohl für Governance-Profis als auch Nutzerinnen und Nutzer ohne große Vorkenntnisse.

Hören Sie hier den Interview-Podcast Der Einsatz von ChatGPT in Unternehmen – Bernd Preiß mit seinem Gast: Wolfhart Fabarius.



Künstliche Intelligenz (KI) revolutioniert die Arbeitswelt – und vor allem mit ChatGPT steht ein besonderes Anwendungstool bereit, das vielseitig einsetzbar ist. Wie Governance-Verantwortliche den Chatbot sinnvoll einsetzen können, erläutert Wolfhart Fabarius anhand von Praxisbeispielen in dem Interview-Podcast. In dem Podcast geht Fabarius – begleitend zu seinem neuen Buch – vor allem auf KI-Anwendungsbeispiele für Risikomanagement, Controlling und Compliance ein. Insoweit hat er den Chatbot unter anderem Risikomanagement-Konzepte aufsetzen lassen. Eine weitere Frage lautet etwa: Kann ChatGPT Finanzberichte selbst erstellen?

Verlagsprogramm Nachrichten aus dem Bereich Recht


(ESV/bp)
 

Programmbereich: Wirtschaftsrecht