Der EU AI Act ist im Wesentlichen in Kraft getreten. Jetzt geht es um die systemische Umsetzung, ohne an Geschwindigkeit zu verlieren! Doch wer muss handeln, und wie sieht eine pragmatische Umsetzung aus? Wir haben die drängendsten Fragen hierzu direkt aus unserer täglichen Praxis kompakt für Sie zusammengefasst.
Oft wird die Verantwortung in der IT angesiedelt oder es wird eine neue Rolle dafür geschaffen. Unserer Meinung nach ist das Thema jedoch am besten beim Datenschutz aufgehoben.
Dafür sprechen drei wesentliche Gründe, die sich aus der täglichen Praxis ergeben:
Sowohl Datenschutz als auch der EU AI Act sind keine Themen, die man mit einem „Stempel“ oder einem einmaligen Projekt löst. Es ist ein Irrglaube zu denken, man startet ein Projekt, setzt den AI Act um und ist fertig.
Der Datenschutz ist bereits die funktionale Schnittstelle im Unternehmen. Ein DSB arbeitet typischerweise extrem eng verzahnt mit:
Die schematische Umsetzung ist bei beiden Gesetzen fast deckungsgleich. Egal ob Datenschutz oder AI Act – wir müssen uns in beide Felder hineindenken, um die gleichen Fragen zu beantworten:
Lasse Milinski: „Ich würde dafür keine neuen Rollen kreieren. Das Thema ist beim DSB-Team sehr gut aufgehoben, weil man die Synergien durch die bestehende Vernetzung und das Verständnis der Assets sofort nutzen kann. Ein neues Team würde uns nur extrem langsam machen.“
Hinter dieser Frage steht oft die Unklarheit, ob nur der Anbieter oder auch der Betreiber in der Pflicht ist. Die Verantwortung liegt maßgeblich beim Betreiber – also bei Ihnen als Unternehmen.
Um das rechtssicher einzuordnen, müssen wir die Nutzung im Detail betrachten:
Nehmen wir ein praktisches Beispiel: Wenn Sie vertrauliche E-Mails übersetzen möchten und dafür eine freie Version nutzen, deren Server nicht in der EU liegen, geben Sie unter Umständen personenbezogene Daten preis. Aus Datenschutzperspektive ist das extrem schwierig – und die Verantwortung dafür liegt allein beim Unternehmen, das den Einsatz zulässt.
Den Risiken und Pflichten kann man nicht entkommen, indem man auf die Anbieter verweist. Man muss sich den eigenen Use Case genau überlegen. Wir unterstützen Sie dabei, diese Leitplanken so zu setzen, dass Sie die Chancen der Tools nutzen können, ohne die rechtliche Kontrolle zu verlieren.
In vielen Unternehmen nutzen Kollegen bereits private ChatGPT-Accounts für berufliche Zwecke – oft ohne Wissen der IT. Für die Verantwortlichen stellt sich die Frage: Wie lassen sich Systeme inventarisieren und Risiken bewerten, die offiziell gar nicht existieren?
In der Praxis lässt sich eine lückenlose Überwachung und Kontrolle kaum realisieren. Das ist auch dem Gesetzgeber klar. Wir empfehlen daher eine zweigleisige Herangehensweise:
Die Lösung liegt in der Kombination aus der Eigenverantwortung der Führungskräfte in den Fachbereichen und klaren, unternehmensweiten Regeln. Nur so lässt sich das Risiko der Shadow-KI nachhaltig minimieren.
Inakzeptables Risiko (Verbotene Systeme): Bestimmte Anwendungen sind seit Februar 2025 strikt untersagt. Besonders relevant für Unternehmen: Emotionserkennung am Arbeitsplatz (z. B. zur Überwachung der Produktivität oder Stimmung) ist nahezu ausnahmslos verboten. Auch manipulatives Social Scoring ist untersagt.
Hohes Risiko (Hochrisiko-KI): Hier gelten die strengsten Auflagen. Dies betrifft vor allem das Personalwesen (Recruiting), die Kreditwürdigkeitsprüfung oder kritische Infrastrukturen. Wer hier agiert, benötigt ein iteratives Risikomanagementsystem (RMS) über den gesamten Lebenszyklus – von der Identifikation von Bias in Trainingsdaten bis hin zu regelmäßigen Stresstests.
Technische Dokumentation & Human Oversight: Für Hochrisiko-Systeme ist eine lückenlose Dokumentation der Systemarchitektur zwingend. Zudem muss eine menschliche Aufsicht (Human Oversight) technisch sichergestellt sein, damit eine natürliche Person die KI-Ausgaben hinterfragen und das System im Ernstfall manuell stoppen kann.
Begrenztes Risiko (Transparenzpflichten): Bei Chatbots muss offengelegt werden, dass eine KI interagiert. KI-generierte Texte müssen für Verbraucher nur dann gekennzeichnet werden, wenn sie Angelegenheiten von öffentlichem Interesse (Politik, Wirtschaft) behandeln. Eine normale E-Mail oder Website-Beschreibung fällt in der Regel nicht darunter.
In vielen Unternehmen wurde die Frist vom Februar 2025 für die ersten KI-Basis-Schulungen schlichtweg verschlafen. Die Frage ist nun: Wie lässt sich das im Jahr 2026 schnell und rechtssicher glattziehen, ohne direkt ein riesiges Transformationsprojekt daraus zu machen?
Ein Blick ins Gesetz zeigt: Eine strikte Pflicht zu einem aufwendigen Training steht dort so nicht explizit drin. Auf Wunsch der Bundesregierung wurde die Anforderung etwas abgeschwächt und unter dem Begriff der „AI Literacy“ (KI-Kompetenz) zusammengefasst. Dennoch bleibt die unternehmerische Pflicht bestehen: Unternehmen müssen sicherstellen, dass ihre Mitarbeiter wissen, was sie bei der Nutzung von KI bedenken müssen.
Um dieses Versäumnis effektiv und effizient zu lösen, empfehlen wir folgendes Vorgehen:
Wer die Fristen bisher versäumt hat, sollte jetzt auf skalierbare Online-Lösungen setzen, um das notwendige Grundverständnis im Unternehmen zu schaffen. Das Ziel ist es, die Mitarbeiter handlungsfähig zu machen, ohne die Organisation durch unnötige Komplexität zu lähmen.
Die Europäische Union hat die bislang ganzheitlichste Regulierung zur KI-Anwendung geschaffen, die eine ethische und vertrauenswürde KI-Nutzung in den Vordergrund stellt. Damit priorisiert die EU die Persönlichkeitsrechte des Einzelnen vor ökonomischen Interessen. Während der EU AI Act die biometrische Echtzeit-Fernidentifizierung in öffentlich zugänglichen Räumen nahezu vollständig untersagt, unterliegt der Einsatz auf privaten Arealen – wie abgeschlossenen Werksgeländen – einer strengen Einzelfallprüfung
Wesentliche Inhalte des EU AI Acts:
Anwendungsbereich: Betroffen sind nicht nur Anbieter sondern auch Betreiber (Nutzer) von KI-Systemen – damit alle Unternehmen
Stets aktuelle Dokumentation der KI-Nutzung zur Compliance sicherzustellen (Strafe bis zu 3% vom Umsatz)
Basis-Schulung für Mitarbeiter zum Verantwortungsbewussten Umgang mit KI-Systemen ist Pflicht seit Februar 2025
Dokumentations- und Risikobetrachtungspflichten gehen über den bereits etablierten Datenschutz hinaus
Während viele Anbieter den EU AI Act als zweijähriges Transformationsprojekt behandeln, agiert eagle lsp als skalierbare Werkbank, die das Compliance-Problem operativ löst. Statt Einzelfallprüfungen und langwierigen Diskussionen setzt eagle lsp auf ein integriertes System, das direkt mit Ergebnissen startet und den EU AI ACT aus einer unternehmerischen Perspektive denkt.
Hinter dieser Frage steht oft die Sorge vor einem hohen internen Zeitaufwand. Unser Ansatz ist ein anderer: Wir verstehen uns als Ihre „Werkbank“ und nehmen Ihnen die juristische Detailarbeit ab.
Die Zusammenarbeit gestaltet sich in der Praxis wie folgt:
Eine Software allein löst kein Compliance-Problem. Erst die Verzahnung aus einer intelligenten Plattform und unserer fundierten juristischen Vorarbeit macht das Thema für Sie handhabbar. Wir liefern die Ergebnisse, damit Sie sich auf Ihr Kerngeschäft konzentrieren können.