Sie haben folgende Möglichkeiten:
  1. zum Login.
  2. zur Navigation.
  3. zum Inhalt der Seite.

Die Angriffsfläche liegt auch in Datenquellen, Programmierschnittstellen, Zugriffsrechten und Lieferketten. (Grafik: tippapatt/stock.adobe.com)
KI-Governance

AI Security 2026: Mehr Struktur, aber noch keine belastbare Routine

ESV-Redaktion Management und Wirtschaft
30.03.2026
Die Debatte über KI-Sicherheit hat einen neuen Reifegrad erreicht.

Das berichtet Trend Micro im „Fault Lines in the AI Ecosystem: TrendAI State of AI Security Report“. Das Cybersicherheitsunternehmen zählt 2.130 KI-bezogene Sicherheitslücken für 2025 – ein Anstieg um 34,6 Prozent gegenüber dem Vorjahr. Die Risiken verlagern sich von klassischer Infrastruktur in produktionsnahe Themen wie Sprachmodell-Tools, autonom arbeitende KI-Systeme und die Lieferkette von KI-Komponenten.

Die US-Standardisierungsbehörde NIST (National Institute of Standards and Technology) hat in den vergangenen zwei Jahren wichtige Grundlagen vorgelegt: ein Risikoprofil für generative KI, 2025 eine Taxonomie für adversariales maschinelles Lernen – also für Angriffe auf Lernsysteme – und Ende 2025 einen Entwurf für ein eigenes Cybersecurity-Profil für KI. Die US-Organisation Mitre baut mit „Atlas“ eine Wissenssammlung zu Angriffen auf KI-Systeme auf. Und die Sicherheitsorganisation Owasp hat mit ihren Top 10 für Sprachmodell- und Generative-KI-Anwendungen ein inzwischen breit genutztes Risikobild geschaffen.

KI-Sicherheit wird inzwischen als eigenes Thema behandelt. Die Schwachstelle bleibt allerdings die Praxis, insbesondere durch Prompt Injection. Gemeint ist: Ein Modell wird durch Eingaben oder externe Inhalte dazu gebracht, anders zu handeln als vorgesehen. Owasp führt Prompt Injection als Top-Risiko, während der ChatGPT-Entwickler OpenAI sie als eine der zentralen aktuellen Sicherheitsherausforderungen bezeichnet. Das ist vor allem dort relevant, wo KI Daten abruft, Werkzeuge nutzt oder Aktionen auslöst.

Die Angriffsfläche liegt auch in Datenquellen, Programmierschnittstellen, Plug-ins, Vektordatenbanken, Abrufsystemen, Zugriffsrechten und Lieferketten. Entsprechend nennen die Owasp Top 10 neben Prompt Injection auch unsichere Ausgaben, Datenvergiftung, Überlastungsangriffe, Lieferkettenrisiken und übermäßige Autonomie von Agenten.

Immerhin professionalisiert sich die Abwehr. Das britische NCSC (National Cyber Security Centre), die staatliche Cybersicherheitsbehörde des Vereinigten Königreichs, empfiehlt einen Sicherheitsansatz über den gesamten Lebenszyklus der Systeme. In Europa kommen regulatorische Leitplanken hinzu: Der EU AI Act greift schrittweise, für KI-Modelle mit allgemeinem Verwendungszweck gibt es seit 2025 einen Verhaltenskodex und Leitlinien der EU-Kommission.

Auf der Agenda der Governance-Funktionen in Unternehmen sollten daher mehrere Grundkontrollen stehen:

  • ein Inventar aller eingesetzten KI-Systeme
  • eine Einordnung nach Risikostufen
  • klare Zuständigkeiten zwischen IT, Sicherheit, Recht, Datenschutz und Einkauf
  • sauber geregelte Rechte für Werkzeuge und Agenten
  • die Prüfung der Lieferkette
  • Monitoring und Tests

Wer KI produktiv einsetzt, sollte sie als neue sicherheitskritische Systemklasse einstufen.

KI-VO

Herausgegeben von Dr. Silvio Andrae und Jan Pohle

Regeln für mächtige Systeme

Mit der KI-Verordnung (EU) 2024/1689 hat die EU erstmals einen umfassenden Rechtsrahmen für Künstliche Intelligenz geschaffen. Sie etabliert europaweit einheitliche Standards für Innovation, Risikosteuerung und Grundrechtsschutz – und setzt damit zugleich internationale Maßstäbe.

Der Kommentar analysiert die komplexen Anforderungen der Verordnung systematisch und interdisziplinär – aus rechtlicher, technischer und ethischer Perspektive. Er verbindet dogmatische Präzision mit regulatorischer Einordnung und praktischer Umsetzbarkeit und bietet Orientierung für Unternehmen, Behörden, Beraterinnen und Berater sowie Entwickler bei der rechtssicheren Umsetzung.

    • Fundierte und verständliche Erläuterung der zentralen Regelungen der KI-VO, insbesondere der auslegungsbedürftigen Begriffsbestimmungen nach Art. 3
    • Analyse von Abgrenzungsfragen und Wechselwirkungen mit bestehendem Recht – vom Produktsicherheitsrecht
    • über die DSGVO bis zu den Rechtsakten der digitalen Agenda der EU
  • Einordnung künftiger Konkretisierungen durch delegierte Rechtsakte, Leitlinien und harmonisierte Normen

Sehen Sie hier den Videocast - ESV im Dialog: KI-VO der EU – Experten im Gespräch: Jan Pohle und Dr. Silvio Andrae


Programmbereich: Management und Wirtschaft