Dr. Silvo Andrae: „Gilt ein System als Hochrisiko-System, muss der Anbieter richtig tief in die Pflicht“
Problemstellung und Zielsetzung der KI-VO
Herr Pohle, die KI-VO verfolgt mehrere Zielrichtungen gleichzeitig – die Binnenmarktintegration, den Grundrechtsschutz und die Innovationsförderung. Was ist aus Ihrer Sicht die zentrale Leitidee der Verordnung?
Die EU setzt also auf „vertrauenswürdige KI“. Die Botschaft lautet: Wir wollen KI, aber wir wollen sie verantwortungsvoll. Man kann die Leitidee auch als Balanceakt beschreiben: zwischen technischer Risikosteuerung, ökonomischer Wettbewerbsfähigkeit und gesellschaftlicher Akzeptanz. Genau in dieser Dreieckslogik bewegt sich die Verordnung – und das macht sie sowohl spannend als auch herausfordernd.
Weitere Frage an Sie: Europa sagt immer, die KI-VO sei die „erste umfassende KI-Regulierung weltweit“. Was bedeutet das konkret? Nochmal an Sie, Herr Pohle.
Gleichzeitig rückt Europa die Grundrechte stärker in den Mittelpunkt als andere Regionen. Damit werden Grundrechte – wie das Diskriminierungsverbot oder die informationelle Selbstbestimmung – zum verbindlichen Maßstab. Für den europäischen Rechtsraum heißt das: KI darf nicht nur sicher, sondern muss auch grundrechtskonform sein.
Und: Behörden müssen sich ganz neue Kompetenzen aufbauen, um diese Regeln überhaupt prüfen zu können. Denn es geht nicht mehr nur um technische Sicherheitsfragen, sondern auch um komplexe Bewertungen wie Verzerrungen, Transparenz oder menschliche Aufsicht. Schließlich ist die KI-VO für den europäischen Rechtsraum ist auch eine industriepolitische Weichenstellung. Wer den ersten verbindlichen Rahmen setzt, kann Standards definieren, an denen sich andere Märkte orientieren.
Hier als Video:
Zahlreiche neue Definitionen und Begriffe
Vorteil: Man bleibt technologieoffen und verhindert Schlupflöcher.
Nachteil: Manchmal wird’s unpraktisch. Denn auch Systeme, die eigentlich kaum „intelligent“ sind, könnten plötzlich als KI gelten.
Nicht alles, was Daten verarbeitet oder automatisiert entscheidet, ist KI im engeren Sinne. Beispiele: klassische Statistikprogramme oder einfache Entscheidungsbäume. Systeme mit minimalem „intelligentem“ Anteil könnten fälschlich als KI-System gelten und so unnötigen Pflichten unterliegen.
Unternehmen und Aufsichtsbehörden müssen im Einzelfall klären, ob ein System unter die Definition fällt – das schafft Rechtsunsicherheit. Ich möchte ein einfaches Beispiel geben: Ein regelbasiertes Diagnosesystem im Gesundheitswesen fällt formal unter die Definition, obwohl es kein lernendes System ist. Für Entwickler stellt sich dann die Frage: Muss ich dieselben Anforderungen erfüllen wie jemand, der ein generatives Basismodell trainiert? Der Vorteil der breiten Definition besteht in der Schutzwirkung und der technologischen Offenheit. Damit einher geht die Gefahr der Überregulierung und es erheblichen Interpretationsbedarfs in der Praxis.
Die DSGVO ist da flexibler, weil sie gemeinsame Verantwortlichkeiten kennt. Die KI-VO hält stärker an der Produktsicherheitslogik fest. Das führt zu Reibungen und vielen Fragen in der Praxis. Man braucht beispielsweise Kommunikations- und Dokumentationsmechanismen, um Verantwortlichkeiten lückenlos nachvollziehbar zu machen.
Neue KI-Architekturen wie Basismodelle, KI-Agenten oder KI-as-a-Service-Angebote werden die angelegte Logik sprengen, denn hier verschwimmen die Grenzen zwischen Entwicklung, Einsatz und Bereitstellung – das Modell der linearen Wertschöpfungskette löst sich auf. Die KI-VO ist bewusst auf das Endprodukt ausgerichtet: Hauptsache, das finale System ist sicher und rechtskonform. Aber die Praxis zeigt: Ohne flexible Auslegung wird es zu Reibungen kommen, gerade wenn Unternehmen mehrere Rollen gleichzeitig ausfüllen.
Auch als Video-Interview:
Der risikobasierte Ansatz - Unternehmen in der Pflicht
Von der Einstufung als Hochrisiko-System hängen die strengsten Pflichten ab, gleichzeitig gibt es viele Zweifelsfälle bei der Risikoklassifikation. Herr Andrae, was macht diese Einstufung so entscheidend für Anbieter?
Das kostet Geld und Zeit. Hochrisiko-Systeme durchlaufen Prüf- und Zertifizierungsprozesse, vergleichbar mit Medizinprodukten oder Luftfahrtsicherheit. In der Praxis heißt das: Hohe Kosten, lange Markteinführungszeiten, umfassende Compliance-Strukturen, denn ohne diese Nachweise dürfen sie nicht in Verkehr gebracht werden.
Deshalb ist die Einstufung strategisch wichtig: Sie kann ein Geschäftsmodell ermöglichen oder blockieren. Manche Anbieter versuchen, ihre Systeme „unter der Hochrisiko-Schwelle“ zu halten, um Pflichten zu vermeiden. Andere setzen bewusst auf Hochrisiko-Anwendungen, weil dort regulatorische Klarheit Vertrauen schafft und Wettbewerbsvorteile bringen kann. Und es gibt viele Grenzfälle, bei denen die Abgrenzung schwierig ist.
Zählt ein KI-gestütztes HR-Tool für Bewerberauswahl als Hochrisiko oder nicht? Der Anwendungskontext ist entscheidend – Gesichtserkennung im Flughafen-Sicherheitsbereich gilt als Hochrisiko, in einer Social-Media-App nicht. Für Anbieter ist die Hochrisiko-Einstufung der zentrale Hebel der Verordnung: Sie ist entweder Eintrittskarte oder Markthemmnis – und macht die Klassifikation zu einem der heikelsten Punkte der KI-VO.
Das System ist also lernfähig – aber die Technik ist schneller als die Regulierung. Die Anwendungsvielfalt ist sehr groß: Generative KI ist Querschnittstechnologie – sie kann im Bildungswesen, in der Verwaltung oder für Deepfakes genutzt werden. Je nach Kontext ganz unterschiedliche Risiken. Die EU setzt deshalb auf Standards, ein eigenes KI-Büro und enge Zusammenarbeit mit internationalen Standardisierungsgremien (ISO/IEC). Neu auftretende Risiken wie generative KI zeigen die Notwendigkeit eines flexiblen, anpassungsfähigen Regulierungsrahmens. Die KI-VO bietet dafür Mechanismen – aber ihre Wirksamkeit hängt davon ab, wie schnell und praxisnah sie in der Umsetzung reagieren kann.
Darum macht der Omnibus drei große Dinge:
Er öffnet Datenzugänge und standardisiert digitale Prozesse. Firmen sollen leichter auf Daten zugreifen können, um KI zu trainieren – auch über EU-weit einheitliche Schnittstellen oder ein „Business Wallet“. Das soll Innovation fördern, ohne auf Grundrechte zu verzichten.
Insgesamt geht es darum, KI in Europa nicht auszubremsen. Die Kommission sagt inzwischen viel deutlicher: KI ist nicht nur ein Risiko, sondern eine Chance – und Regulierung darf Innovation nicht ersticken. Kurz gesagt: Der digitale Omnibus ist ein großer „Regel-Aufräumer“. Er soll Bürokratie abbauen, Übergangsfristen verlängern und Europa im KI-Wettbewerb schneller machen.
All diese Änderungen werden wir selbstverständlich in der zweiten Auflage unseres Kommentars berücksichtigen. Denn der Omnibus verändert die Umsetzung der KI-VO spürbar.
Das Verhältnis zu anderen Rechtsregimen
- Erstens beim Datenschutz. Da prallen die Rollenmodelle von DSGVO und KI-VO aufeinander. Wir sprachen darüber schon.
- Zweitens beim Produktsicherheitsrecht. Dort gibt es die CE-Logik und die KI-Pflichten gleichzeitig.
- Und drittens in regulierten Branchen wie Medizin oder Finanzaufsicht. Da müssen Unternehmen alle Regeln parallel einhalten.
Nochmal Sie, Herr Pohle: Beim Umgang mit Daten, Profiling und Transparenzpflichten kommt es auch zu Überschneidungen mit der DSGVO. Wie grenzt sich die KI-VO gegenüber der DSGVO denn ab – und wo sind die typischen Konfliktpunkte?
- Die DSGVO kennt „Verantwortliche“.
- Die KI-VO spricht von „Anbietern“ und „Betreibern“.
Das führt oft zu Missverständnissen. Unternehmen müssen deshalb beide Welten gleichzeitig denken: DSGVO für Datenschutzprozesse, KI-VO für Systemprozesse. Wenn man es gut koordiniert, kann das ein doppelter Sicherheitsgurt sein. Ohne Abstimmung droht Doppelbelastung – mit guter Verzahnung können sie sich wechselseitig verstärken.
Große internationale Perspektive der KI
Die internationale Dimension entscheidet darüber, ob die KI-VO zum „globalen Standardsetter“ wird. Wie positioniert sich die EU im Vergleich zu den USA, die ja eher auf Selbstregulierung setzen, und zu China, das wiederum stärker staatlich steuert – Wie sehen Sie das, Herr Andrae?
China wiederum steht für das komplett andere Extrem. Dort steuert der Staat die KI-Entwicklung sehr eng – mit detaillierten Vorschriften für Algorithmen, für generative KI und für Datenkontrolle. Der Fokus liegt auf Cybersicherheit und auf politischer Kontrolle. Kurz gesagt: China nutzt KI auch als Instrument staatlicher Souveränität und strategischer Dominanz.
| Die Interviewpartner |
|
Governance und Umsetzung
Herr Pohle, die institutionelle Architektur ist für die Durchsetzung der Verordnung zentral, aber noch im Aufbau. Welche neuen Institutionen entstehen – etwa das KI-Büro auf EU-Ebene – und welche Kompetenzen haben sie?
- Erstens die Umsetzung der KI-VO in Europa koordinieren.
- Zweitens die Mitgliedstaaten unterstützen, also echte Aufbauarbeit leisten.
- Und drittens systemische Risiken überwachen – vor allem bei großen Basismodellen, die überall in Europa wirken.
Die zweite Ebene sind die nationalen Behörden. Jeder Mitgliedstaat muss eigene Stellen benennen. Oft werden das Marktüberwachungsbehörden oder Datenschutzbehörden sein. Sie prüfen konkret: Welche KI-Systeme sind auf dem Markt? Funktionieren die sicher? Müssen sie sanktioniert oder zurückgezogen werden? Der große Haken ist: Viele dieser Behörden müssen erst Fachwissen aufbauen – und das ist in kleinen Ländern besonders schwierig.
Und dann gibt es noch die Netzwerkstruktur. Das KI-Büro arbeitet nicht alleine, sondern koordiniert ein Europäisches KI-Gremium. Das ähnelt dem Datenschutzausschuss beim Datenschutzrecht. Dieses Gremium soll Leitlinien schreiben, Streitfragen klären und dafür sorgen, dass die Regeln überall gleich ausgelegt werden.
Die große Frage ist am Ende: Was bleibt national – und was wird europäisch zentralisiert? Das birgt Konfliktpotenzial, aber auch die Chance auf ein echtes „Level-Playing-Field“ in Europa.
Sehr wichtig: Die gesellschaftlichen Dimension
Ein zweites großes Ziel ist der Schutz vor Diskriminierung. Die Verordnung verlangt, dass Trainingsdaten überprüft werden, damit Verzerrungen erkannt und reduziert werden. Damit sollen Benachteiligungen wegen Geschlecht, Alter, Herkunft oder anderer Merkmale so weit wie möglich verhindert werden.
Am Ende geht es aber um etwas Grundsätzlicheres: KI soll keine Black Box sein, der man ausgeliefert ist. Sie soll ein Werkzeug sein, das nachvollziehbar und vertrauenswürdig funktioniert. Nur wenn dieses Vertrauen da ist, wird KI auch in sensiblen Bereichen wie Gesundheit oder Justiz akzeptiert werden.
Langfristig kann die KI-VO deshalb viel bewirken. Sie schützt nicht nur die Bürgerinnen und Bürger, sondern schafft auch die Grundlage dafür, dass KI breit und verantwortungsvoll genutzt werden kann – zum Vorteil der ganzen Gesellschaft.
| Der kostenlose Newsletter Recht – Wir freuen uns auf Ihre Anmeldung! |
| Redaktionelle Meldungen zu neuen Entscheidungen und Rechtsentwicklungen, Interviews und Literaturtipps. |
Ihr Kommentarwerk zur KI-VO
Voraussichtlich im Februar 2016 erscheint der von Ihnen herausgegebene Kommentar KI-VO: Herr Pohle, was ist der Leitgedanke Ihres Kommentars?
Dabei war uns wichtig, dass wir nicht nur juristisch präzise kommentieren, sondern auch technische Hintergründe einordnen und konkrete Anwendungsfragen beantworten.
Die Regulierung betrifft ja nicht nur Juristen. Sie betrifft Entwickler, Compliance-Teams, Aufsichtsbehörden, politische Entscheidungsträger und letztlich auch Unternehmen in allen möglichen Branchen.
Deshalb haben wir bewusst einen interdisziplinären Ansatz gewählt. Juristische Tiefe – ja. Aber immer ergänzt durch technische und praktische Perspektiven.
Strukturell folgen wir der Verordnung, aber wir schauen auch über den Tellerrand hinaus. Unser Anspruch war, nicht nur den Normtext zu erklären, sondern auch die Wirkung im Zusammenspiel mit anderen Rechtsbereichen sichtbar zu machen. Wir haben die Verordnung so aufbereitet, dass sie nicht nur verstanden wird, sondern in allen relevanten Bereichen anwendbar ist. Das war unser Leitgedanke – und daran haben wir das ganze Projekt ausgerichtet.
Eine wichtige Zielgruppe sind natürlich Juristen: Rechtsanwälte, Unternehmensjuristen und auch Gerichte, die konkrete Fälle bewerten müssen. Genauso aber auch Wissenschaftler, die die Verordnung in größere rechtliche und gesellschaftliche Zusammenhänge einordnen.
Dann kommen die Unternehmen ins Spiel. Vor allem diejenigen, die KI entwickeln, einsetzen oder vertreiben. Für sie ist die KI-VO nicht nur ein juristisches Thema, sondern ein ganz praktisches:
· Wie baue ich mein Risikomanagement auf?
· Welche Dokumentation brauche ich?
· Wie muss ich meine Prozesse anpassen?
Deshalb richtet sich der Kommentar auch an Compliance-Teams und Risikomanager.
Und natürlich brauchen auch die Aufsichtsbehörden Unterstützung. Marktüberwachungsbehörden, Datenschutzbehörden und sektorale Aufsichten – etwa im Finanz- oder Gesundheitsbereich – müssen in Zukunft diese Regeln anwenden und durchsetzen. Für sie wollten wir eine anwendungsorientierte und präzise Auslegungshilfe schaffen. Nicht zuletzt denken wir an Verbände und Interessengruppen. Sie sind wichtige Multiplikatoren und übersetzen die komplexe Regulierung für ihre Mitglieder in die Praxis.
|
|
| Verlagsprogramm |
Weitere Nachrichten aus dem Bereich Recht |
(ESV / Bernd Preiß)
Programmbereich: Wirtschaftsrecht