EU AI Act Risikoklassen: Praxisbeispiele pro Stufe
Der EU AI Act klassifiziert KI-Systeme nach vier Risikostufen — und die Pflichten variieren massiv. Ein einfacher Spam-Filter hat quasi keine Anforderungen, ein HR-Entscheidungssystem ist Hochrisiko und braucht Konformitätsbewertung. Die Einordnung entscheidet also über Aufwand und Kosten. Dieser Artikel gibt Ihnen konkrete Praxisbeispiele pro Klasse und die zugehörigen Pflichten.
Der risikobasierte Ansatz des AI Act
Der EU AI Act (Verordnung (EU) 2024/1689) folgt einem klaren Prinzip: Je höher das Risiko einer KI-Anwendung für Menschen, desto strenger die Regeln. Die vier Stufen:
- Unannehmbares Risiko — verboten
- Hohes Risiko — streng reguliert
- Begrenztes Risiko — Transparenzpflichten
- Minimales Risiko — keine spezifischen Pflichten
Wichtig: Die Klassifizierung hängt vom Einsatzzweck ab, nicht von der Technologie selbst. Dasselbe Modell kann je nach Nutzung in verschiedene Klassen fallen.
Klasse 1: Unannehmbares Risiko (Art. 5) — verboten
Acht Praktiken sind explizit verboten:
1. Manipulative, subliminale Techniken
Beispiel: Ein Online-Shop nutzt KI, um Menschen durch subtile Bildsignale zu Käufen zu drängen, die sie bei bewusster Wahrnehmung nicht getätigt hätten. → Verboten.
2. Ausnutzung von Schwachstellen
Beispiel: Eine App erkennt Depression bei Jugendlichen und zeigt gezielt Werbung für teure „Glücks-Coachings“. → Verboten.
3. Social Scoring durch öffentliche Stellen
Beispiel: Eine Behörde bewertet Bürger nach „Zuverlässigkeit“ (Zahlungsmoral, Verhalten, politische Äußerungen) und entscheidet danach über staatliche Leistungen. → Verboten.
4. Predictive Policing (Einzelperson-Risiko)
Beispiel: Polizei nutzt KI, um einzelne Personen als „künftig wahrscheinliche Straftäter“ zu klassifizieren. → Verboten (Einschränkungen zulässig).
5. Gesichtsdatenbank-Erstellung durch Scraping
Beispiel: Ein Unternehmen sammelt aus dem Internet Milliarden von Gesichtsbildern und baut daraus eine Suchdatenbank. → Verboten.
6. Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
Beispiel: Call-Center-Software analysiert Stimmung der Mitarbeiter und meldet „unzufriedene“ an die Führungskraft. → Verboten.
7. Biometrische Kategorisierung nach sensiblen Merkmalen
Beispiel: Software klassifiziert Personen anhand von Gesichtszügen nach Ethnie, Religion, politischer Orientierung. → Verboten.
8. Echtzeit-biometrische Fernidentifikation im öffentlichen Raum
Beispiel: Kameras in Fußgängerzonen, die alle Passanten gesichtsscannen. → Verboten (eng begrenzte Ausnahmen für Strafverfolgung).
Klasse 2: Hohes Risiko (Art. 6 + Anhang III) — streng reguliert
Hier treffen die meisten Unternehmen. Hochrisiko-KI ist erlaubt, aber mit umfangreichen Pflichten. Anhang III listet acht Bereiche:
1. Biometrische Identifikation und Kategorisierung
Beispiel: Zugangskontrolle per Gesichtserkennung für sensible Bereiche (Rechenzentrum). → Hochrisiko.
2. Kritische Infrastruktur
Beispiel: KI steuert den Lastfluss im Stromnetz und kann Ausfälle auslösen. → Hochrisiko.
3. Allgemeine und berufliche Bildung
Beispiele:
- KI bewertet automatisch Prüfungsarbeiten und vergibt Noten. → Hochrisiko.
- KI wählt Studienbewerber für zulassungsbeschränkte Studiengänge aus. → Hochrisiko.
4. Beschäftigung, Personalverwaltung, Zugang zu Selbstständigkeit
Der prominenteste Bereich:
- KI filtert Bewerbungen vor und empfiehlt dem HR-Team nur die Top 20. → Hochrisiko.
- KI bewertet Mitarbeiter-Performance für Kündigungsentscheidungen. → Hochrisiko.
- KI verteilt Schichten und Aufgaben an Mitarbeiter. → Hochrisiko.
5. Zugang zu wesentlichen privaten und öffentlichen Diensten
Beispiele:
- Kredit-Scoring durch Banken. → Hochrisiko.
- Scoring für Lebens- oder Krankenversicherungen. → Hochrisiko.
- KI entscheidet über Sozialleistungen. → Hochrisiko.
6. Strafverfolgung
Beispiel: KI analysiert Beweismittel in Ermittlungsverfahren. → Hochrisiko.
7. Migration, Asyl, Grenzkontrolle
Beispiel: KI prüft Asylanträge und empfiehlt Entscheidungen. → Hochrisiko.
8. Justiz und demokratische Prozesse
Beispiel: KI unterstützt Richter bei Urteilsrecherche und Fallbearbeitung. → Hochrisiko.
Pflichten für Hochrisiko-KI
Für Anbieter (Hersteller) solcher Systeme gelten massive Pflichten:
- Risikomanagement-System über den gesamten Lebenszyklus
- Data Governance: Trainings-, Validierungs-, Testdaten qualitätsgeprüft
- Technische Dokumentation (entspricht dem Medizinprodukterecht)
- Logging aller Operations
- Transparenz für Betreiber
- Menschliche Aufsicht (Human-in-the-Loop) zwingend vorgeschrieben
- Genauigkeit, Robustheit, Cybersicherheit
- Qualitätsmanagementsystem (ISO 9001-artig)
- Konformitätsbewertung + CE-Kennzeichnung
- Registrierung in der EU-Datenbank
Betreiber (Nutzer) haben reduzierte Pflichten, aber müssen:
- Anweisungen des Anbieters befolgen
- Menschliche Aufsicht sicherstellen
- Nutzung protokollieren
- Grundrechte-Folgenabschätzung (bei bestimmten Anwendungen)
Klasse 3: Begrenztes Risiko (Art. 50) — Transparenzpflichten
Hier treffen die meisten KI-Anwendungen, die im Alltag sichtbar werden. Die Pflicht ist einfach: Nutzer müssen wissen, dass sie mit KI interagieren.
1. Chatbots und KI-Agenten
Beispiel: Ein Customer-Support-Chatbot auf Ihrer Website. → Begrenztes Risiko.
Pflicht: Nutzer muss zu Beginn der Interaktion oder spätestens beim ersten Kontakt erfahren, dass er mit einer KI spricht. Typische Formulierung: „Sie chatten mit unserem KI-Assistenten. Für komplexe Fragen übergeben wir an einen Menschen.“
2. KI-generierte Inhalte (Deepfakes, synthetische Medien)
Beispiele:
- Ein Marketing-Video mit KI-generierter Sprecherstimme. → Kennzeichnung erforderlich.
- Ein Bild, das per Midjourney für einen Blog erstellt wurde. → Kennzeichnung erforderlich.
- Ein KI-generierter Avatar in einer Werbung. → Kennzeichnung erforderlich.
Pflicht: Kennzeichnung der Inhalte als KI-generiert, typischerweise durch Untertitel, Metadaten oder sichtbare Hinweise.
3. Emotionserkennung (außerhalb von Arbeitsplatz/Bildung)
Beispiel: Eine Einzelhandelsanalyse misst Kundenzufriedenheit an Mimik. → Begrenztes Risiko.
Pflicht: Betroffene müssen informiert werden.
4. Biometrische Kategorisierung (nicht-sensible Merkmale)
Beispiel: Eine App analysiert Hauttyp für Kosmetikberatung. → Begrenztes Risiko.
Pflicht: Transparenz gegenüber dem Nutzer.
Klasse 4: Minimales Risiko — keine spezifischen Pflichten
Das ist die häufigste Kategorie. Hier fallen die meisten täglich genutzten KI-Systeme — mit einer einzigen generellen Pflicht: AI-Literacy nach Art. 4 (Mitarbeiter müssen den Einsatz verstehen, wenn sie KI nutzen).
Beispiele:
1. Spam-Filter
E-Mail-Filter, die unerwünschte Mails klassifizieren. → Minimales Risiko.
2. Produktempfehlungen im E-Commerce
„Kunden, die das kauften, kauften auch…“ → Minimales Risiko.
3. KI in Videospielen
NPC-Verhalten, Matchmaking-Algorithmen. → Minimales Risiko.
4. Übersetzungs-KI
Google Translate, DeepL. → Minimales Risiko.
5. Autovervollständigung
Word-Autocomplete, GitHub Copilot beim Programmieren. → Minimales Risiko.
6. Such-Algorithmen
Google Search, Elasticsearch. → Minimales Risiko.
General-Purpose AI (GPAI) — Sonderkategorie
Große KI-Modelle wie GPT-4, Claude, Gemini fallen nicht in die 4-Stufen-Klassifizierung, sondern haben eine eigene Regulierung ab August 2025:
- Grundmodelle mit systemischem Risiko (Training mit mehr als 10^25 FLOPs): umfangreiche Pflichten inkl. Red-Teaming, Incident-Reporting
- Andere GPAI-Modelle: technische Dokumentation, Urheberrechtskonformität, Nutzer-Dokumentation
Für Unternehmen als Nutzer von GPAI (ChatGPT, Copilot, Gemini etc.): Die Pflichten treffen primär den Anbieter. Nutzer müssen AI-Literacy sicherstellen und bei Hochrisiko-Anwendung zusätzliche Pflichten erfüllen.
Die Klassifizierungs-Entscheidung: 5 Schritte
So ordnen Sie ein KI-System richtig ein:
Schritt 1: Prüfung auf Verbotene Praktiken
Fällt das System unter Art. 5? Wenn ja: Einsatz rechtswidrig, Alternative suchen.
Schritt 2: Prüfung auf Anhang I (bestehende EU-Regulierung)
Ist das System Sicherheitsbauteil eines bereits regulierten Produkts (Medizinprodukt, Maschine, Fahrzeug)? Dann automatisch Hochrisiko.
Schritt 3: Prüfung auf Anhang III (neue Hochrisiko-Bereiche)
Fällt die Anwendung in einen der 8 genannten Bereiche (Beschäftigung, Kredit, Bildung etc.)?
Schritt 4: Prüfung auf Art. 50-Transparenzpflichten
Interagiert das System direkt mit Menschen (Chatbot) oder erzeugt es Inhalte (Deepfake)?
Schritt 5: Sonst → Minimales Risiko
Wenn keine der oberen Kategorien zutrifft: minimal risk, AI-Literacy beachten.
Häufige Fehlklassifizierungen in der Praxis
Fehler 1: HR-Tools als „Produktivitätshilfen“ fehlklassifiziert
Ein Unternehmen nutzt ein KI-Tool, das Lebensläufe „nur vor-sortiert, nicht entscheidet“. Argumentation: Betreiber kann eingreifen, also nicht Hochrisiko.
Richtig: Das Tool fällt unter Anhang III, Punkt 4 (Beschäftigung). Vorsortierung beeinflusst die Auswahl erheblich. Hochrisiko-Klassifikation.
Fehler 2: Chatbots als minimales Risiko
„Unser Chatbot ist einfach, der kann höchstens FAQ beantworten.“
Richtig: Art. 50 Transparenzpflicht greift unabhängig von Komplexität. Kennzeichnung als KI erforderlich.
Fehler 3: KI-generierte Bilder ungekennzeichnet
Viele Marketingabteilungen nutzen Midjourney oder DALL-E für Blogbilder, Social-Media-Posts, Werbung — ohne Kennzeichnung.
Richtig: Art. 50 verlangt Kennzeichnung synthetisch erzeugter Inhalte.
Fehler 4: Kredit-Scoring im B2B als Geschäftslogik
„Wir bewerten nicht Privatpersonen, sondern Unternehmen — das ist kein Hochrisiko.“
Prüfung nötig: Art. 6 + Anhang III bezieht sich meist auf natürliche Personen. B2B-Scoring ist tendenziell nicht Hochrisiko — aber wenn natürliche Personen (z.B. Selbstständige) betroffen sind, kann es doch greifen.
Praxisbeispiel: Ein typisches Mittelstandsunternehmen
Ein Unternehmen mit 150 Mitarbeitern nutzt folgende KI-Systeme:
| System | Zweck | Klasse | Pflichten |
|---|---|---|---|
| ChatGPT Enterprise | Texterstellung | Minimal | AI-Literacy |
| Kundensupport-Chatbot | FAQ-Beantwortung | Begrenzt | Kennzeichnung als KI |
| Midjourney | Marketing-Bilder | Begrenzt | Kennzeichnung als KI-generiert |
| HR-Bewerbungs-Filter | Lebenslauf-Vorauswahl | Hochrisiko | Konformitätsbewertung, Logging, Aufsicht |
| Microsoft Copilot | Code-Assistenz | Minimal | AI-Literacy |
Für dieses Unternehmen: 4 Systeme mit geringen Pflichten, 1 Hochrisiko-System mit erheblichem Aufwand. Der HR-Filter ist der Schmerzpunkt.
Fazit: Ihre nächsten Schritte
Die richtige Klassifizierung entscheidet über Aufwand und Kosten. Drei konkrete Schritte:
- EU AI Act Check: Unser EU AI Act Check (3 Minuten) klärt, welche Pflichten Sie treffen.
- Leitfaden lesen: Der EU AI Act Leitfaden (PDF, 18 Seiten) enthält alle Details zu Pflichten und Umsetzung.
- Systematisch vorgehen: Inventarisieren Sie alle KI-Systeme im Unternehmen, klassifizieren Sie jedes einzeln, dokumentieren Sie die Entscheidung. Ein inventory ist die Grundlage für alles Weitere.
Wer jetzt strukturiert klassifiziert, hat bei Inkrafttreten der Hochrisiko-Pflichten (August 2026) kein Problem. Wer wartet, wird improvisieren müssen — und Fehler machen.
EU AI Act: Welche Risikoklasse?
Kostenloser Check klassifiziert Ihre KI-Systeme rechtssicher.

