AI Security 2026: Mehr Struktur, aber noch keine belastbare Routine
Das berichtet Trend Micro im „Fault Lines in the AI Ecosystem: TrendAI State of AI Security Report“. Das Cybersicherheitsunternehmen zählt 2.130 KI-bezogene Sicherheitslücken für 2025 – ein Anstieg um 34,6 Prozent gegenüber dem Vorjahr. Die Risiken verlagern sich von klassischer Infrastruktur in produktionsnahe Themen wie Sprachmodell-Tools, autonom arbeitende KI-Systeme und die Lieferkette von KI-Komponenten.
Die US-Standardisierungsbehörde NIST (National Institute of Standards and Technology) hat in den vergangenen zwei Jahren wichtige Grundlagen vorgelegt: ein Risikoprofil für generative KI, 2025 eine Taxonomie für adversariales maschinelles Lernen – also für Angriffe auf Lernsysteme – und Ende 2025 einen Entwurf für ein eigenes Cybersecurity-Profil für KI. Die US-Organisation Mitre baut mit „Atlas“ eine Wissenssammlung zu Angriffen auf KI-Systeme auf. Und die Sicherheitsorganisation Owasp hat mit ihren Top 10 für Sprachmodell- und Generative-KI-Anwendungen ein inzwischen breit genutztes Risikobild geschaffen.
KI-Sicherheit wird inzwischen als eigenes Thema behandelt. Die Schwachstelle bleibt allerdings die Praxis, insbesondere durch Prompt Injection. Gemeint ist: Ein Modell wird durch Eingaben oder externe Inhalte dazu gebracht, anders zu handeln als vorgesehen. Owasp führt Prompt Injection als Top-Risiko, während der ChatGPT-Entwickler OpenAI sie als eine der zentralen aktuellen Sicherheitsherausforderungen bezeichnet. Das ist vor allem dort relevant, wo KI Daten abruft, Werkzeuge nutzt oder Aktionen auslöst.
Die Angriffsfläche liegt auch in Datenquellen, Programmierschnittstellen, Plug-ins, Vektordatenbanken, Abrufsystemen, Zugriffsrechten und Lieferketten. Entsprechend nennen die Owasp Top 10 neben Prompt Injection auch unsichere Ausgaben, Datenvergiftung, Überlastungsangriffe, Lieferkettenrisiken und übermäßige Autonomie von Agenten.
Immerhin professionalisiert sich die Abwehr. Das britische NCSC (National Cyber Security Centre), die staatliche Cybersicherheitsbehörde des Vereinigten Königreichs, empfiehlt einen Sicherheitsansatz über den gesamten Lebenszyklus der Systeme. In Europa kommen regulatorische Leitplanken hinzu: Der EU AI Act greift schrittweise, für KI-Modelle mit allgemeinem Verwendungszweck gibt es seit 2025 einen Verhaltenskodex und Leitlinien der EU-Kommission.
Auf der Agenda der Governance-Funktionen in Unternehmen sollten daher mehrere Grundkontrollen stehen:
- ein Inventar aller eingesetzten KI-Systeme
- eine Einordnung nach Risikostufen
- klare Zuständigkeiten zwischen IT, Sicherheit, Recht, Datenschutz und Einkauf
- sauber geregelte Rechte für Werkzeuge und Agenten
- die Prüfung der Lieferkette
- Monitoring und Tests
Wer KI produktiv einsetzt, sollte sie als neue sicherheitskritische Systemklasse einstufen.
KI-VOHerausgegeben von Dr. Silvio Andrae und Jan PohleRegeln für mächtige Systeme
Sehen Sie hier den Videocast - ESV im Dialog: KI-VO der EU – Experten im Gespräch: Jan Pohle und Dr. Silvio Andrae. |
Programmbereich: Management und Wirtschaft