AI Act
Code of Practice
Code of Practice
European AI Board
Ein Gremium, in dem Vertreterinnen und Vertreter aller EU-Länder (Deutschland: die Bundesnetzagentur) sitzen. Sie sollen dafür sorgen, dass das Gesetz in ganz Europa gleich ausgelegt wird.
European AI Office
European AI Office, sitzt in Brüssel bei der EU-Kommission. Es hat die alleinige Aufsicht über die großen GPAI-Modelle (ChatGPT, Gemini, Anthropic).
AI Act
Die Europäische Union (EU) hat ein Regelwerk verabschiedet, das eine vertrauenswürdige Gestaltung und Nutzung von Künstlicher Intelligenz sicherstellen soll: den Artificial Intelligence Act (kurz AI Act). Er ist am 01. August 2024 in Kraft getreten, die Umsetzung erfolgt schrittweise bis zur vollständigen Einführung am 02. August 2027. Diese Seite bietet einen Überblick über die einzelnen Umsetzungsschritte und erläutert, nach welcher Logik und welchen Kriterien der AI Act aufgebaut ist.
Zeitstrahl
12. Juli 2024
01. August 2024
Dezember 2024
02. Februar 2025
02. August 2025
19. November 2025
02. Februar 2026
02. August 2026
02. Dezember 2026
02. August 2027
02. Dezember 2027
02. August 2028
31. Dezember 2030
Die Risiko-Klassifizierung
Unabhängig von dieser Risikoklassifizierung gilt: Wer mit einem KI-System Bild-, Ton-, oder Videoinhalte erzeugt oder manipuliert (Deepfake), muss die Verwendung von KI für diese Inhalte transparent offenlegen. Ab dem 02. August 2026 können Verstöße gegen diese Kennzeichnungspflicht geahndet werden.
Um Unternehmen zu ermutigen, Sicherheits- und Transparenzstandards bereits vor den gesetzlichen Fristen zu etablieren, hat die Europäische Kommission den EU AI Pact ins Leben gerufen. Damit soll der Übergang von der freiwilligen Selbstregulierung zur gesetzlichen Pflicht moderiert werden. Weiterhin soll der EU AI Pact den Austausch zwischen Industrie und Regulierungsbehörden fördern. Anfang 2026 hatten gut 230 Unternehmen und Organisationen den EU AI Pact unterzeichnet, darunter Google, Microsoft, Amazon, Adobe, SAP und OpenAI. Die Unterzeichner verpflichten sich im Kern zu drei Maßnahmen:
- KI-Governance Strategie: Aufbau interner Strukturen und Richtlinien zur Steuerung von KI-Systemen im Unternehmen.
- Risiko-Mapping: Identifizierung von KI-Systemen, die in die Kategorie „hohes Risiko“ fallen könnten, um sie frühzeitig AI Act-konform gestalten zu können.
- KI-Kompetenz: Schulung der Mitarbeitenden für einen verantwortungsvollen und kritischen Umgang mit KI-Technologien.
Sanktionen
Für Verstöße gegen den AI Act werden Sanktionen fällig. In der Verordnung sind EU-weite, verbindliche Obergrenzen festgelegt (Artikel 99 und 101). Die Mitgliedstaaten müssen die konkrete Ausgestaltung und Durchsetzung der Sanktionen regeln.
Geldbußen
- Verbotene KI-Praktiken: bis zu 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes (je nachdem, was höher ist)
- Verstöße gegen sonstige Pflichten des AI Acts: bis zu 15 Mio. Euro oder 3 % des weltweiten Jahresumsatzes.
- Falsche, unvollständige oder irreführenden Angaben: bis zu 7,5 Mio. Euro oder 1 % des weltweiten Jahresumsatzes.
GPAI-spezifische Sanktionen, gültig ab 2. August 2026:
- Bis zu 15 Mio. Euro oder 3 % des weltweiten Jahresumsatzes. Diese Sanktionen können von der Kommission direkt verhängt werden.
In Deutschland sollen Sanktionen, die laut dem AI Act fällig werden, im Regelfall nach dem Ordnungswidrigkeitenrecht (OWiG) abgewickelt werden. Das nationale Gesetz zum AI Act wird ergänzende Regelungen für Verfahren und Zuständigkeiten enthalten.
Die Umsetzung in Deutschland
Die Frist für die Umsetzung in nationales Recht endete am 02. August 2025. In Deutschland und einigen anderen Mitgliedstaaten ist die Implementierung entgegen dem Zeitplan noch nicht abgeschlossen. Das nationale Durchführungs- und Überwachungsgesetz mit dem Titel „KI-Marktüberwachungsgesetz und Innovationsförderungsgesetz“ (KI-MIG) befindet sich noch im parlamentarischen Abstimmungsprozess.
Als zuständige Behörde ist die Bundesnetzagentur (BNetzA) vorgesehen. Sie soll eine zentrale Rolle bei der Überwachung und Durchsetzung übernehmen und damit folgende Funktionen erfüllen:
- Marktüberwachungsbehörde für den AI Act
- Zentraler Kontaktpunkt zur EU-Kommission, beziehungsweise zum EU AI Office
- Beschwerde- und Meldestelle für Verstöße
- Einrichtung eines internen Koordinations- und Kompetenzzentrums (KoKIVO), um andere Behörden zu unterstützen und Rechtsfragen auszulegen.
Die Bundesnetzagentur hat ein KI-Service-Desk eingerichtet, das Unternehmen, Behörden und Organisationen in Deutschland bei der Umsetzung des AI Acts unterstützen soll: Bundesnetzagentur - KI.
Die Umsetzung in anderen europäischen Ländern
Die folgende Übersicht zeigt beispielhaft, wie andere europäische Länder die Umsetzung des AI Acts organisieren und welche nationalen Behörden dabei eine zentrale Rolle spielen.
- Land
- Nationales Gesetz
- Hauptbehörde(n)
- Fokus
- Deutschland
- KI-Durchführungsgesetz (in Arbeit/finalisiert)
- Bundesnetzagentur (BNetzA)
- Koordination & Marktüberwachung
- Italien
- Nationales KI-Gesetz (aktiv seit 10/2025)
- AgID & Cybersicherheitsagentur
- Strenge Sanktionen & Strafrecht
- Frankreich
- Anpassung bestehender Gesetze
- CNIL
- Grundrechtsschutz & Innovationsförderung
Wichtige Akteure rund um den AI Act
Im Kontext des AI Acts übernehmen verschiedene europäische und nationale Institutionen zentrale Aufgaben bei der Umsetzung, Aufsicht und Weiterentwicklung der KI-Regulierung.
Das EU AI Office wurde im Februar 2024 gegründet und spielt eine zentrale Rolle bei der Umsetzung des AI Acts. Es bündelt das KI-Fachwissen und unterstützt die Leitungsgremien in den Mitgliedstaaten bei der Anwendung des AI Acts. Zudem ist es Grundlage eines einheitlichen europäischen KI-Governance-Systems und überwacht die Einhaltung und Implementierung des AI Acts.
Die Europäische Kommission ist das Exekutivorgan der EU und verantwortlich für die Entwicklung, Umsetzung und Überwachung von EU-Gesetzen wie dem AI Act. Sie koordiniert die Zusammenarbeit der Mitgliedstaaten, fördert vertrauenswürdige KI und stellt die einheitliche Anwendung der KI-Regulierung sicher.
Das 2025 gegründete Bundesministerium für Digitales und Staatsmodernisierung verantwortet die digitale Transformation von Staat und Verwaltung sowie zentrale Fragen der Daten- und Digitalpolitik. Es begleitet die nationale Umsetzung europäischer Vorgaben wie des AI Acts und schafft Rahmenbedingungen für den sicheren Einsatz von KI.
Die Bundesnetzagentur ist eine Regulierungsbehörde für zentrale Infrastrukturbereiche wie Telekommunikation und Energie. Im Kontext des AI Acts kann sie Aufgaben der Marktüberwachung übernehmen und zur Einhaltung regulatorischer Anforderungen sowie zum Verbraucherschutz beitragen.
Schon vor dem Inkrafttreten des AI Acts hat die Europäische Kommission ethische Leitlinien für vertrauenswürdige KI vorgelegt.
Diese betonen einen menschenzentrierten Ansatz und heben hervor, dass KI nicht nur leistungsfähig, sondern auch transparent, verantwortungsvoll und im Einklang mit europäischen Werten gestaltet werden soll. Die Leitlinien haben die europäische Debatte über vertrauenswürdige KI maßgeblich geprägt und bilden einen wichtigen Bezugspunkt für die heutige Regulierung.
Weitere wichtige Gesetze und Leitlinien
Im November 2018 verabschiedete die Bundesregierung eine nationale Strategie Künstliche Intelligenz. Sie zielt darauf, „KI Made in Germany" zu einem internationalen Markenzeichen für moderne, sichere und gemeinwohlorientierte KI-Anwendungen auf Basis des europäischen Wertekanons zu etablieren. Bis 2025 wollte der Bund dafür etwa fünf Milliarden Euro zur Verfügung stellen. Die KI-Strategie wurde mehrmals aktualisiert, um auf Entwicklungen zu reagieren und Maßnahmen anzupassen. So gab es 2020 eine Fortschreibung der Strategie, 2024 den KI-Aktionsplan, der neue Impulse und Förderungen in ausgewählte Bereiche beinhaltet, wie den Ausbau der KI-Infrastruktur und den Zugang dazu für Start-ups und Nachwuchsforschende.
2025 veröffentlichte die Bundesregierung die Hightech Agenda Deutschland. Künstliche Intelligenz ist dabei eine von sechs Schlüsseltechnologien und spielt eine zentrale Rolle für Wettbewerbsfähigkeit und Souveränität. Als Querschnittstechnologie durchdringt KI nahezu alle Bereiche, von industrieller Produktion über Gesundheitswesen und Mobilität bis zu öffentlicher Verwaltung. Bis 2030 sollen rund 10 Prozent der deutschen Wirtschaftsleistung durch KI unterstützt oder direkt erzeugt werden. Deutschland soll zu einem führenden Standort für die Entwicklung und Anwendung von KI werden.
Für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck (wie große Sprachmodelle, englisch General Purpose Artificial Intelligence, kurz GPAI), sieht der AI Act einen Verhaltenscodex vor. Im Juli 2025 veröffentlichte die EU Kommission die finale Version des GPAI Code of Practice. Er soll Anbietern und Betreibern solcher KI-Modelle helfen, die Anforderungen des AI Acts zu erfüllen, insbesondere in den Bereichen Transparenz, Urheberrecht und Sicherheit. Der Code of Practice ist ein freiwilliger Verhaltenskodex.
Das Thema der potenziellen Diskriminierung beim Einsatz von Künstlicher Intelligenz wird sowohl in der KI-Strategie der Bundesregierung als auch in der von der Bundesregierung eingerichteten Datenethikkommission behandelt. Auf europäischer Ebene hat die High Level Expert Group on Artificial Intelligence der EU-Kommission die „Ethik-Leitlinien für eine vertrauenswürdige KI“ veröffentlicht.
Stimmen aus der PLS zum AI Act / Weiterführende Informationen
Disclaimer (Haftungsausschluss)
Die auf dieser Webseite bereitgestellten Informationen, Zeitpläne und Erläuterungen zum EU AI Act dienen ausschließlich der allgemeinen Information und Orientierung. Die Inhalte stellen keine Rechtsberatung dar und können eine individuelle juristische Prüfung oder Beratung im Einzelfall nicht ersetzen. Trotz sorgfältiger Recherche und Prüfung der Quellen wird keine Gewähr übernommen für die Richtigkeit, Vollständigkeit oder Aktualität der bereitgestellten Daten. Da sich die nationale Umsetzung und Auslegung durch die EU-Behörden noch im Prozess befinden, können sich kurzfristige Änderungen ergeben. Die Nutzung der hier abrufbaren Informationen erfolgt auf eigene Gefahr. Eine Haftung für Schäden, die aus der Nutzung oder Nichtnutzung der angebotenen Informationen entstehen, ist ausgeschlossen.
Verbindliche Auskünfte erhalten Sie von den zuständigen Aufsichtsbehörden wie dem European AI Office oder dem KI-Service-Desk der Bundesnetzagentur oder durch eine spezialisierte Rechtsberatung.