Die neue KI-Verordnung (häufig als KI-VO oder AI Act bezeichnet) ist seit August 2024 in Kraft. Für die Geschäftsführung und rechtliche Entscheider ist die Identifikation von Hochrisiko-KI-Systemen die kritischste Aufgabe, da hier die maximalen Anforderungen an Compliance und Haftungsvermeidung greifen. Die Verordnung verfolgt einen risikobasierten Ansatz, bei dem Künstliche Intelligenz nach ihrem potenziellen Schadensausmaß für die Sicherheit oder Grundrechte natürlicher Personen klassifiziert wird. Werden KI-Systeme als hochriskant eingestuft, müssen sie strenge Auflagen erfüllen, bevor sie in Verkehr gebracht oder in Betrieb genommen werden dürfen.
Die Einstufung eines Systems als Hochrisiko-KI-System erfolgt nach Art. 6 KI-VO über zwei primäre Wege. Es ist entscheidend, dass Anbieter und Betreiber diesen Prozess bereits in der Designphase durchführen.
Die in Anhang III aufgeführten Anwendungsfälle sind für den deutschen Mittelstand besonders relevant. Hier wird die Künstliche Intelligenz aufgrund ihres sensiblen Einsatzgebietes als hochriskant eingestuft, da sie ein erhebliches Risiko für die Sicherheit oder die Grundrechte natürlicher Personen birgt.
Wichtige Beispiele aus Anhang III (Auszug):
Biometrische Identifizierung: Systeme zur Fernidentifizierung, biometrischen Kategorisierung oder Emotionserkennung (sofern nicht verboten).
Personalmanagement & Beschäftigung: KI-Systeme zur Bewertung von Leistungen, zur Beförderung oder zur gezielten Auswahl und Einstellung natürlicher Personen (Recruiting-Software).
Kritische Infrastruktur: Management und Betrieb von Wasser, Gas, Strom oder digitaler Infrastruktur, sofern ein Ausfall das Leben oder die Gesundheit gefährden könnte.
Bildung und Berufsbildung: Systeme zur Bestimmung des Zugangs zu Bildungseinrichtungen oder zur Bewertung von Prüfungsergebnissen.
Hinweis zur Vollständigkeit: Dies stellt lediglich einen Ausschnitt der Hochrisiko-Bereiche dar. Anhang III umfasst darüber hinaus weitere sensible Sektoren wie die Strafverfolgung, das Migrations- und Asylmanagement sowie die Rechtspflege und demokratische Prozesse. Da sich die Liste der Hochrisiko-Anwendungen durch die EU-Kommission künftig ändern oder erweitern kann, ist eine regelmäßige Überprüfung der aktuellen Rechtslage für Compliance-Verantwortliche zwingend erforderlich.
Sobald eine Anwendung als Hochrisiko-KI-System identifiziert wurde, trägt die Organisation die volle rechtliche Verantwortung für die Einhaltung umfassender technischer und organisatorischer Maßnahmen. Die KI-Verordnung (KI-VO) unterscheidet hierbei präzise zwischen der Rolle des Anbieters (Entwickler) und des Betreibers (Anwender), wobei beide für die regulatorische Sicherheit beim Inverkehrbringen und im laufenden Betrieb geradestehen müssen.
Ein Hochrisiko-KI-System darf niemals als isoliertes IT-Projekt betrachtet werden; es muss zwingend in ein etabliertes Risikomanagementsystem eingebettet sein, das über den gesamten Lebenszyklus des Systems aktiv bleibt.
Angemessene menschliche Überprüfung und Aufsicht
Ein Kernpunkt der KI-VO ist das Prinzip des „Human-in-the-Loop“. Hochrisiko-KI-Systeme dürfen Entscheidungen mit erheblicher Tragweite niemals vollautonom ohne eine qualifizierte Kontrollinstanz treffen.
In der aktuellen Debatte nehmen KI-Modelle mit allgemeinem Verwendungszweck (General Purpose AI) eine Sonderrolle ein. Diese können als Basis für verschiedene Hochrisiko-KI-Systeme dienen.
Exekutive Strategie: Das Risiko für die Organisation rechtssicher managen
Für Sie als Verantwortliche bedeutet die Regulierung einen Paradigmenwechsel: KI ist kein reines IT- Thema mehr, sondern ein zentrales Compliance-Feld. Die zuständigen Behörden in Deutschland werden das Inverkehrbringen und den Betrieb scharf kontrollieren.
Prüfen Sie systematisch, ob Ihre KI-Systeme unter die in Anhang III aufgeführten Anwendungsfälle relevant sind. Eine Fehlklassifizierung kann zu Bußgeldern von bis zu 7 % des weltweiten Umsatzes führen.
Fazit: Zukunftsfähigkeit durch strukturierte Risikoklassifizierung
Zusammenfassend lässt sich sagen: Die KI-Verordnung schafft einen Rahmen, der den Einsatz von KI in Europa sicher macht. Unternehmen, die sich frühzeitig mit der Einstufung ihrer Systeme befassen und die Einhaltung der technischen Standards sichergestellt haben, werden einen signifikanten Vertrauensvorsprung am Markt genießen. Das Ziel ist eine Künstliche Intelligenz, die Innovation fördert, ohne die Sicherheit oder die Grundrechte natürlicher Personen zu gefährden.
Weitere Experten-Beiträge zum EU AI Act
ISO 42001: Das Managementsystem für Künstliche Intelligenz als Schlüssel zur EU AI Act Compliance