Alle Artikel
DSGVO & Recht

EU AI Act 2026: Was sich für KI-Anwender jetzt ändert

Der EU AI Act ist das weltweit erste umfassende KI-Gesetz. Risikoklassen, Transparenzpflichten und Fristen — was Unternehmen jetzt wissen und umsetzen müssen.

Christian Klever, Gründer & CTO30. März 202611 Min. Lesezeit
powered by Voxtral
0:000:00

Das weltweit erste KI-Gesetz ist da

Am 1. August 2024 trat die Verordnung (EU) 2024/1689 in Kraft — besser bekannt als der EU AI Act. Damit hat die Europäische Union das weltweit erste umfassende Gesetz zur Regulierung Künstlicher Intelligenz geschaffen. Nach über drei Jahren Verhandlung zwischen Europäischem Parlament, Rat und Kommission ist das Ergebnis ein Regelwerk, das den gesamten Lebenszyklus von KI-Systemen abdeckt: von der Entwicklung über die Bereitstellung bis zum Einsatz durch Endnutzer.

Der AI Act verfolgt einen risikobasierten Ansatz. Nicht jede KI wird gleich behandelt. Stattdessen werden KI-Systeme nach ihrem potenziellen Risiko für die Gesellschaft klassifiziert. Je höher das Risiko, desto strenger die Anforderungen. Für viele Anwendungen — darunter die meisten Chatbots und Wissensdatenbanken — bedeutet das: moderate Pflichten, die mit guter Architektur problemlos erfüllbar sind.

Wichtig zu verstehen: Der AI Act betrifft nicht nur KI-Entwickler. Auch Deployer (Unternehmen, die KI-Systeme einsetzen) und Importeure (die KI-Produkte aus Drittstaaten in die EU bringen) haben Pflichten. Wenn Sie einen KI-Chatbot auf Ihrer Website betreiben, sind Sie Deployer — und damit adressiert.

Die gute Nachricht: Der Gesetzgeber hat bewusst eine gestaffelte Einführung gewählt. Nicht alle Regeln gelten sofort. Unternehmen haben je nach Risikokategorie bis August 2026 oder sogar August 2027 Zeit, sich vorzubereiten. Wer jetzt beginnt, hat einen erheblichen Vorsprung.

Die vier Risikoklassen

Das Herzstück des AI Act ist die Einteilung in vier Risikoklassen. Jedes KI-System wird einer dieser Kategorien zugeordnet — und die jeweilige Kategorie bestimmt, welche Pflichten gelten.

1. Unannehmbares Risiko (verboten)

Bestimmte KI-Anwendungen sind in der EU vollständig verboten, weil sie als unvereinbar mit europäischen Grundwerten gelten. Dazu gehören:

  • Social Scoring durch Behörden — die Bewertung von Bürgern anhand ihres Sozialverhaltens nach chinesischem Vorbild
  • Biometrische Echtzeit-Fernidentifikation im öffentlichen Raum (mit eng definierten Ausnahmen für Strafverfolgung)
  • Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
  • Manipulative KI, die unterschwellige Techniken nutzt, um das Verhalten von Personen zum Nachteil zu beeinflussen
  • Ausbeutung von Vulnerabilitäten — KI, die gezielt Schwächen aufgrund von Alter, Behinderung oder sozialer Lage ausnutzt

Diese Verbote gelten seit 2. Februar 2025 — sie sind bereits in Kraft.

2. Hohes Risiko

KI-Systeme mit hohem Risiko unterliegen den strengsten Anforderungen. Betroffen sind Anwendungen in sicherheitskritischen oder grundrechtsrelevanten Bereichen:

  • Personalrekrutierung und -bewertung — KI, die Bewerbungen filtert oder Mitarbeiterleistung bewertet
  • Kreditwürdigkeit und Versicherung — automatisierte Scoring-Systeme
  • Bildung — KI-gestützte Prüfungsbewertung oder Zugangssteuerung
  • Kritische Infrastruktur — Energieversorgung, Wasserversorgung, Verkehr
  • Strafverfolgung — Risikobewertung, Beweismittelanalyse
  • Migration — Asylverfahren, Grenzkontrolle

Für Hochrisiko-KI verlangt der AI Act unter anderem: Risikomanagementsysteme, Datenqualitätsanforderungen, technische Dokumentation, Aufzeichnungspflichten, Transparenz gegenüber Nutzern, menschliche Aufsicht und Genauigkeits- bzw. Robustheitsnachweise (Art. 8–15 AI Act).

3. Begrenztes Risiko (Transparenzpflicht)

In diese Kategorie fallen die meisten Chatbots, VoiceBots und generativen KI-Systeme. Die zentrale Pflicht: Nutzer müssen wissen, dass sie mit einer KI interagieren. Dazu gehören auch Systeme, die Texte, Bilder, Audio oder Video erzeugen — sie müssen als KI-generiert gekennzeichnet werden.

4. Minimales Risiko

Die große Mehrheit der KI-Anwendungen fällt in diese Kategorie: Spam-Filter, KI-gestützte Empfehlungen in Online-Shops, Rechtschreibprüfungen, Übersetzungstools. Für sie gelten keine besonderen Anforderungen — nur freiwillige Verhaltenskodizes werden empfohlen.

Transparenzpflicht: Chatbots und VoiceBots kennzeichnen

Artikel 50 des AI Act ist für die meisten Unternehmen die relevanteste Vorschrift. Er regelt die Transparenzpflichten für KI-Systeme mit begrenztem Risiko — und betrifft damit direkt jeden, der einen Chatbot oder VoiceBot betreibt.

Die Kernregel ist klar formuliert: Anbieter von KI-Systemen, die direkt mit natürlichen Personen interagieren, müssen sicherstellen, dass die betroffenen Personen darüber informiert werden, dass sie mit einem KI-System interagieren (Art. 50 Abs. 1). Die Ausnahme: Wenn dies aufgrund der Umstände und des Kontextes offensichtlich ist.

In der Praxis bedeutet das:

Für Chatbots:

  • Beim ersten Kontakt muss ein deutlicher Hinweis erscheinen, dass der Nutzer mit einer KI kommuniziert — nicht mit einem Menschen
  • Der Hinweis muss vor der Interaktion erfolgen, nicht versteckt in den AGB
  • Ein einfacher Satz reicht: „Sie kommunizieren mit einem KI-Assistenten" oder „Dieser Chat wird von einer Künstlichen Intelligenz betrieben"
  • Die Kennzeichnung muss in einer für die Zielgruppe verständlichen Sprache erfolgen

Für VoiceBots:

  • Zu Beginn des Gesprächs muss der VoiceBot sich als KI identifizieren — idealerweise im ersten Satz
  • Bei Telefon-VoiceBots ist dies besonders wichtig, da die Verwechslungsgefahr mit einem menschlichen Gesprächspartner höher ist
  • Empfohlen wird eine Formulierung wie: „Guten Tag, Sie sprechen mit dem KI-Assistenten von [Firmenname]. Wie kann ich Ihnen helfen?"
  • Bei IVR-Systemen (Interactive Voice Response) mit KI-Komponente sollte der Hinweis in die Begrüßung integriert werden

Darüber hinaus verlangt Art. 50 Abs. 2, dass Inhalte, die von KI generiert oder manipuliert wurden (sogenannte „Deep Fakes"), maschinenlesbar gekennzeichnet werden müssen. Das betrifft vor allem generierte Texte, Bilder und Audio. Für Unternehmen, die KI-generierte Marketingtexte oder Bilder verwenden, bedeutet das: Metadaten müssen die KI-Herkunft ausweisen.

Die Transparenzpflichten gelten ab 2. August 2025. Unternehmen sollten also bereits jetzt ihre Chatbot- und VoiceBot-Implementierungen prüfen und anpassen.

GPAI: Regeln für Basismodelle

Ein eigenes Kapitel des AI Act widmet sich General Purpose AI (GPAI) — also Basismodellen wie GPT-4, Mistral Large, Claude oder Llama. Diese Modelle werden nicht für einen spezifischen Zweck trainiert, sondern sind vielseitig einsetzbar. Genau das macht ihre Regulierung besonders komplex.

Für alle GPAI-Modelle gelten ab August 2025 folgende Grundpflichten (Art. 53):

  • Technische Dokumentation — Anbieter müssen umfassende technische Dokumentation erstellen und auf dem neuesten Stand halten, einschließlich Informationen über Trainings- und Testverfahren
  • Informationen für nachgelagerte Anbieter — Wer ein GPAI-Modell bereitstellt, muss nachgelagerten Anbietern (die das Modell in ihre Produkte integrieren) ausreichende Informationen und Dokumentation zur Verfügung stellen
  • Urheberrechts-Compliance — Anbieter müssen eine Strategie zur Einhaltung des EU-Urheberrechts implementieren und insbesondere Opt-out-Mechanismen gemäß Art. 4 Abs. 3 der DSM-Richtlinie (2019/790) respektieren
  • Zusammenfassung der Trainingsdaten — Eine hinreichend detaillierte Zusammenfassung der für das Training verwendeten Daten muss öffentlich zugänglich gemacht werden. Das EU AI Office hat dafür ein Template entwickelt

Für GPAI-Modelle mit systemischem Risiko — definiert als Modelle, deren kumulative Trainingsrechenleistung 10^25 FLOPS übersteigt — gelten zusätzliche verschärfte Pflichten (Art. 55):

  • Modell-Evaluierung gemäß standardisierten Protokollen und Benchmarks
  • Bewertung und Minderung systemischer Risiken, einschließlich adversarialer Tests (Red Teaming)
  • Meldung schwerwiegender Vorfälle an das EU AI Office
  • Gewährleistung eines angemessenen Cybersicherheitsniveaus

Für Unternehmen, die GPAI-Modelle nutzen (nicht entwickeln), ist die entscheidende Frage: Welche Pflichten treffen mich als Deployer? Die Antwort: Die GPAI-Pflichten richten sich primär an die Modellanbieter (also Mistral, OpenAI, Anthropic etc.). Als Unternehmen, das ein fertiges Modell über eine API einbindet, profitieren Sie davon, dass der Modellanbieter seine Pflichten erfüllt. Ihre eigenen Pflichten beschränken sich auf die korrekte Nutzung — insbesondere die Transparenzpflicht gegenüber Ihren Endnutzern.

Die Fristen im Überblick

Der AI Act wird nicht schlagartig wirksam, sondern in mehreren Stufen. Dieser gestaffelte Ansatz gibt Unternehmen Zeit zur Vorbereitung — aber die erste Frist ist bereits verstrichen:

  • 2. Februar 2025 — Verbot der unannehmbaren KI-Praktiken (Social Scoring, biometrische Echtzeit-Fernidentifikation, manipulative KI). Bereits in Kraft.
  • 2. August 2025 — Pflichten für GPAI-Modelle (Transparenz, Dokumentation, Urheberrechts-Compliance) und Benennung der nationalen Behörden. Governance-Regeln des AI Act treten in Kraft.
  • 2. August 2026 — Der Großteil des AI Act wird anwendbar: Hochrisiko-KI-Systeme (Anhang III) müssen alle Anforderungen erfüllen. Transparenzpflichten für Chatbots, VoiceBots und generative KI sind durchsetzbar. Sanktionen können verhängt werden.
  • 2. August 2027 — Übergangsfristen für bestimmte Hochrisiko-KI-Systeme enden, insbesondere solche, die als Sicherheitskomponenten regulierter Produkte fungieren (Anhang I, z.B. Medizinprodukte, Maschinen, Spielzeug).

Die Sanktionen sind erheblich und orientieren sich am DSGVO-Modell:

  • Verstoß gegen verbotene Praktiken: bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes
  • Verstoß gegen Hochrisiko-Anforderungen: bis zu 15 Millionen Euro oder 3 % des Umsatzes
  • Falsche Angaben gegenüber Behörden: bis zu 7,5 Millionen Euro oder 1,5 % des Umsatzes

Für KMU und Start-ups gelten angepasste, niedrigere Obergrenzen. Dennoch: Die Bußgelder sind empfindlich genug, um auch bei mittelständischen Unternehmen Aufmerksamkeit zu erzeugen.

In Deutschland wird das Bundesministerium der Justiz (BMJ) zusammen mit der Bundesnetzagentur an der nationalen Umsetzung arbeiten. Die Bundesnetzagentur wurde als zentrale Marktüberwachungsbehörde für KI benannt. Details zur konkreten Durchsetzung in Deutschland werden bis August 2025 erwartet.

Was Nexoria-Kunden wissen müssen

Wenn Sie Nexoria als KI-Plattform einsetzen, ist die Compliance-Lage übersichtlich. Die Kernfrage lautet: In welche Risikoklasse fallen Ihre Anwendungen? Für die typischen Nexoria-Einsatzszenarien — Chatbot, VoiceBot, Wissensbasis, Dokumentenanalyse, Prozessautomatisierung — gilt: Begrenztes Risiko oder minimales Risiko. Keine dieser Anwendungen fällt unter die Hochrisiko-Kategorie.

Die maßgebliche Pflicht ist daher die Transparenzpflicht nach Art. 50. Und hier sind Nexoria-Kunden bereits gut aufgestellt:

  • Chatbot-Kennzeichnung — Nexoria-Chatbots zeigen beim ersten Kontakt an, dass der Nutzer mit einer KI kommuniziert. Dies ist in der Standard-Widget-Konfiguration integriert und aktiv, ohne dass der Betreiber zusätzlichen Code schreiben muss.
  • VoiceBot-Identifikation — Nexoria-VoiceBots identifizieren sich zu Beginn jedes Gesprächs als KI-System. Die Begrüßungsnachricht enthält standardmäßig den Hinweis auf den KI-Charakter des Gesprächs.
  • Einwilligungsmanagement — Beim VoiceBot können Sie ein DSGVO-konformes Consent-Management aktivieren: Der Anrufer wird per IVR (Tastendruck) um Einwilligung gebeten, bevor die KI-Interaktion beginnt. Verweigert der Anrufer, wird an einen menschlichen Mitarbeiter weitergeleitet.
  • Audit-Logs — Jede Interaktion — ob Chat, Anruf, Dokumentenzugriff oder Suchanfrage — wird lückenlos protokolliert. Diese Aufzeichnungen sind manipulationssicher und erfüllen die Nachweispflichten des AI Act (Art. 26 Abs. 5 für Deployer).
  • Menschliche Aufsicht — Über das Live-Operator-Feature können menschliche Mitarbeiter jederzeit in Chatbot-Gespräche eingreifen und die KI-Konversation übernehmen. Dies erfüllt das Prinzip der menschlichen Aufsicht (Art. 14).

Was Nexoria-Kunden selbst sicherstellen sollten:

  • Prüfen Sie, ob Sie KI-Systeme in einem Hochrisiko-Bereich einsetzen (z.B. Personalauswahl). Falls ja, gelten erhöhte Anforderungen — sprechen Sie uns an.
  • Dokumentieren Sie intern, welche KI-Systeme Sie einsetzen, wofür, und wer verantwortlich ist. Eine einfache Übersicht reicht als Ausgangspunkt.
  • Schulen Sie Ihre Mitarbeiter, die mit KI-Systemen arbeiten, in den Grundlagen des AI Act — insbesondere zur Transparenzpflicht.

Fazit: Compliance als Wettbewerbsvorteil

Der EU AI Act wird häufig als Bürokratiemonster dargestellt. Diese Sichtweise greift zu kurz. Für Unternehmen, die KI verantwortungsvoll einsetzen, ist der AI Act kein Hindernis, sondern ein Differenzierungsmerkmal.

Kunden, Partner und Mitarbeiter werden zunehmend fragen: „Setzt ihr KI verantwortungsvoll ein? Könnt ihr das nachweisen?" Wer diese Frage mit konkreten Maßnahmen beantworten kann — Transparenzkennzeichnung, Audit-Logs, Consent-Management, menschliche Aufsicht — hat einen echten Wettbewerbsvorteil.

Die Unternehmen, die jetzt in Compliance investieren, werden 2027 nicht hektisch nachrüsten müssen. Sie werden stattdessen auf einer soliden Basis stehen, während Wettbewerber noch mit der Umsetzung kämpfen.

Drei konkrete Schritte, die Sie heute tun können:

  • Bestandsaufnahme: Identifizieren Sie alle KI-Systeme, die in Ihrem Unternehmen im Einsatz sind — auch die, die Sie vielleicht nicht als „KI" bezeichnen würden
  • Risikoklassifizierung: Ordnen Sie jedes System einer der vier Risikoklassen zu. Für die meisten Geschäftsanwendungen wird es „begrenztes" oder „minimales" Risiko sein
  • Transparenz umsetzen: Stellen Sie sicher, dass jeder Chatbot und VoiceBot sich als KI identifiziert — das ist die erste und wichtigste Pflicht

Der AI Act ist nicht das Ende der KI-Innovation in Europa. Er ist der Rahmen, in dem Innovation verantwortungsvoll stattfinden kann. Unternehmen, die das verstehen, werden davon profitieren.

Quellen: Verordnung (EU) 2024/1689 (EU AI Act), Europäische Kommission — AI Office, Bundesministerium der Justiz — AI Act Umsetzung, Bundesnetzagentur — KI-Marktüberwachung

Nexoria-Kunden sind bereits heute compliant. Erfahren Sie mehr über unseren KI-Telefonassistenten oder unsere DSGVO-konforme KI-Plattform.

Bereit für DSGVO-konforme KI?

In 30 Minuten zeigen wir Ihnen, wie Nexoria in Ihrem Arbeitsalltag funktioniert — kostenlos und unverbindlich.

Kostenlose Demo vereinbaren