Das EU-KI-Gesetz (AI Act) ist ein von der Europäischen Union entwickelter Rechtsrahmen, der ein Gleichgewicht zwischen Innovation und dem Schutz der Grundrechte schaffen soll. Ziel ist es, die Chancen und Risiken der rasanten Entwicklung von Künstlicher Intelligenz (KI) zu steuern und europaweit verbindliche Standards zu setzen.
Der Vorschlag wurde 2021 vorgestellt, doch erst die Debatten um generative KI-Modelle wie ChatGPT führten zu einer umfassenden Überarbeitung. Nun liegt eine politische Einigung vor – ein wichtiger Schritt, um klare Regeln für den Umgang mit KI zu schaffen.
Bedeutung der Einigung
Die Einigung zeigt den Willen der EU, weltweit eine Vorreiterrolle in der KI-Regulierung einzunehmen – ähnlich wie bei der Datenschutz-Grundverordnung (DSGVO). Das Gesetz gilt als erster umfassender Rechtsrahmen für Künstliche Intelligenz und überführt europäische Werte wie Sicherheit, Transparenz und Menschenrechte in das digitale Zeitalter.
„Mit dem KI-Gesetz werden europäische Werte in eine neue Ära überführt. Es sorgt für Sicherheit, schützt Grundrechte und fördert vertrauenswürdige KI.“ — Ursula von der Leyen, Präsidentin der Europäischen Kommission
Wann tritt das EU-KI-Gesetz in Kraft?
Das Gesetz tritt voraussichtlich 2025 schrittweise in Kraft. Der geplante Zeitrahmen:
Nach 6 Monaten: Verbot bestimmter Hochrisiko- und manipulativer KI-Systeme
Nach 12 Monaten: Einführung allgemeiner Governance-Verpflichtungen
Nach 24 Monaten: Vollständiges Inkrafttreten inklusive Regelungen für Hochrisiko-KI
Unternehmen sollten sich frühzeitig auf die neuen Anforderungen vorbereiten – insbesondere, wenn sie KI-Systeme entwickeln oder in der EU einsetzen.
Was bedeutet das für Unternehmen?
Das Gesetz betrifft öffentliche und private Organisationen, die KI-Systeme in der EU betreiben oder auf EU-Bürger Einfluss haben. Ein zentrales Element ist die Einstufung von KI-Systemen in vier Risikokategorien:
Minimales Risiko Die meisten Anwendungen (z. B. Spam-Filter) fallen in diese Kategorie. Keine zusätzlichen Pflichten.
Begrenztes Risiko / Transparenzpflichten Nutzer müssen erkennen können, dass sie mit einer KI interagieren (z. B. Chatbots, Deepfakes).
Hohes Risiko Systeme mit erheblichem Einfluss auf Rechte und Sicherheit, etwa in Medizin, Personalwesen, Infrastruktur oder Strafverfolgung. → Pflicht zu Risikomanagement, Konformitätsbewertung und Transparenzmaßnahmen.
Inakzeptables Risiko Anwendungen, die Grundrechte verletzen, werden verboten – z. B. Social Scoring, manipulative Systeme oder Echtzeit-Gesichtserkennung im öffentlichen Raum.
Ein neues EU-KI-Büro wird die Umsetzung koordinieren und mit nationalen Aufsichtsbehörden zusammenarbeiten.
Sonderregeln für generative KI
Generative KI-Modelle (z. B. große Sprachmodelle) unterliegen zusätzlichen Anforderungen:
Kennzeichnung von KI-generierten Inhalten
Maßnahmen zur Vermeidung illegaler Inhalte
Offenlegung, welche urheberrechtlich geschützten Daten für das Training genutzt wurden
Für besonders leistungsfähige Modelle: zusätzliche Risikoprüfungen und Berichterstattungspflichten
Sanktionen bei Verstößen
Bei Nichteinhaltung drohen hohe Bußgelder – ähnlich wie bei der DSGVO:
Bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes bei verbotenen Praktiken
Bis zu 15 Mio. € oder 3 % für sonstige Verstöße
Bis zu 7,5 Mio. € oder 1,5 % für unvollständige oder irreführende Angaben
Für KMU gelten reduzierte Schwellenwerte.
Fazit
Das EU-KI-Gesetz markiert einen Meilenstein in der globalen Regulierung von Künstlicher Intelligenz. Unternehmen, die frühzeitig Transparenz, Risikomanagement und Compliance-Strukturen aufbauen, sichern sich einen klaren Wettbewerbsvorteil – und schaffen Vertrauen bei Kunden, Partnern und Behörden.
Leave a comment