KI-Regulierung

EU AI Act Hochrisiko-KI: Welche Systeme ab August 2026 betroffen sind

Der 2. August 2026 ist das Datum, das KI-Verantwortliche kennen müssen. Ab dann gelten die Hochrisiko-Anforderungen des EU AI Act vollständig — mit Bußgeldern bis 30 Millionen Euro oder 6 % des weltweiten Jahresumsatzes.

8 Min. LesezeitAutor: Martin TomczakAktualisiert: 08.05.2026
EU AI Act Hochrisiko-KI Klassifikation und Pflichten ab 2026

Die vier Risikoklassen des EU AI Act

Der EU AI Act teilt KI-Systeme in vier Kategorien ein:

Verbotene KI (Art. 5): Diese Systeme dürfen ab sofort nicht mehr betrieben werden. Dazu gehören: Social-Scoring-Systeme, die Menschen aufgrund sozialen Verhaltens bewerten; KI zur Echtzeitüberwachung in öffentlichen Räumen mit biometrischer Identifikation (mit engen Ausnahmen für Strafverfolgung); KI, die unbewusst das Verhalten von Menschen manipuliert; KI zur Ausnutzung von Schwächen vulnerabler Gruppen.

Hochrisiko-KI (Anhang III): Hier liegt der Fokus für B2B-Unternehmen. Strenge Anforderungen, aber keine Verbote.

Limitierte Risiko-KI: Chatbots und ähnliche Systeme mit Transparenzpflichten (Nutzer müssen wissen, dass sie mit KI kommunizieren).

Minimales Risiko: Spam-Filter, KI in Videospielen — keine besonderen Anforderungen.

Was konkret als Hochrisiko gilt: Anhang III im Detail

Anhang III listet die Hochrisiko-Bereiche auf. Für B2B-Unternehmen besonders relevant:

Kategorie 4 — Beschäftigung und Personalmanagement:

KI-gestützte Recruiting-Tools zur Bewerberselektion, Leistungsbewertungssysteme, Systeme zur Überwachung von Mitarbeitern, KI-gestützte Beförderungsentscheidungen. Das ist die Kategorie, in die die meisten B2B-HR-KI-Anwendungen fallen.

Kategorie 5 — Zugang zu wesentlichen Dienstleistungen:

KI-gestützte Kreditwürdigkeitsprüfungen, Versicherungsrisikobewertungen, Notfallmaßnahmen-Priorisierung. Relevant für Fintech- und InsurTech-Unternehmen.

Kategorie 6 — Strafverfolgung: Weitgehend irrelevant für normale B2B-Unternehmen.

Kategorie 7 — Migration und Asyl: Irrelevant für die meisten B2B-Unternehmen.

Kategorie 8 — Rechtspflege: KI für Gerichtsurteile, Strafzumessung. Relevant für Legal-Tech.

Was Hochrisiko-KI konkret vorausetzt

Wenn Ihr System in eine Hochrisiko-Kategorie fällt, müssen Sie ab 2. August 2026 folgende Anforderungen erfüllen:

Technische Dokumentation (Anhang IV): Vollständige Beschreibung des Systems — Trainingsdaten, Architektur, Performance-Metriken, bekannte Limitierungen. Kein Marketingdokument, sondern technische Substanz.

Konformitätsbewertung: Für die meisten Hochrisiko-Systeme: Selbstbewertung nach harmonisierten Normen. Für Biometrie und kritische Infrastruktur: externe Notified Body.

Logging-Pflicht: Das System muss automatisch Logs generieren, die Rückverfolgbarkeit ermöglichen. Eingaben, Ausgaben, Zeitstempel, relevante Parameter.

Menschliche Aufsicht: Das System muss so gestaltet sein, dass Menschen eingreifen, korrigieren und notfalls abschalten können. Vollautomatische Entscheidungen ohne menschliche Überprüfungsmöglichkeit sind nicht zulässig.

Registrierungspflicht: Hochrisiko-Systeme müssen in der EU-Datenbank (EUDAMED-Äquivalent für KI) registriert werden.

Was die meisten Unternehmen unterschätzen: Der Verwendungskontext entscheidet

Ein KI-System ist nicht per se Hochrisiko. Der Kontext entscheidet. Ein Textgenerator, der Marketing-E-Mails schreibt: kein Hochrisiko. Derselbe Textgenerator, der automatisch Ablehnungsbescheide für Kreditanträge formuliert: Hochrisiko.

Das hat eine praktische Konsequenz: Allgemein verfügbare KI-Tools (ChatGPT, Copilot) werden zu Hochrisiko-Systemen, wenn sie von Ihrem Unternehmen in einem Hochrisiko-Kontext eingesetzt werden. Der Anbieter liefert das Werkzeug, aber Ihr Unternehmen ist als "Betreiber" für die EUAIA-Konformität des Einsatzes verantwortlich.

Der erste Schritt: KI-Inventar erstellen

Bevor Sie Compliance-Maßnahmen starten, brauchen Sie ein vollständiges Inventar aller KI-Systeme, die in Ihrem Unternehmen eingesetzt werden — inklusive der eingekauften Drittanbieter-Tools.

Für jedes System klären Sie:

Meine Erfahrung: Dieses Inventar existiert in den meisten Unternehmen nicht. Die Erstellung dauert typischerweise zwei bis vier Wochen und ist der unverzichtbare erste Schritt.

---

Vollständige EU AI Act Compliance-Strategie: Checklisten, Strafen, DSGVO-Zusammenhang und Compliance-by-Design für Entwickler im Leitfaden: EU AI Act: Der Praxis-Leitfaden für deutsche Unternehmen

  • Was entscheidet oder empfiehlt das System?
  • Wen betrifft die Entscheidung (Mitarbeiter, Kunden, Dritte)?
  • Fällt der Anwendungsfall in eine Anhang-III-Kategorie?
  • Wer ist rechtlich verantwortlich — Ihr Unternehmen als Betreiber, oder der Anbieter?

Nächster Schritt

Sollen wir Ihren KI-Use-Case einordnen?

Ich schaue mit Ihnen auf Ziel, Daten, Systeme und den sinnvollsten ersten Umsetzungsschritt.

LeistungenErstgespräch