EU AI Act 2026: Praktischer Leitfaden für Unternehmen im DACH-Raum
Am 2. August 2026 greifen die KI-Verordnung-Pflichten mit Bußgeldern bis 35 Mio. €. Operativer Leitfaden für KMU: Checkliste, Risikostufen und Sandbox.
Warum ist der 2. August 2026 das Schlüsseldatum für Unternehmen im DACH-Raum?
Am 2. August 2026 wird die EU-Verordnung 2024/1689 — der AI Act — auch für Hochrisiko-KI-Systeme vollständig anwendbar. Ab diesem Datum können nationale Marktüberwachungsbehörden Bußgelder von bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes für die schwerwiegendsten Verstöße verhängen. Für deutsche, österreichische und schweizer KMU (Letztere bei EU-Marktzugang) ist dies keine entfernte Frist für Rechtsabteilungen: Es ist der Tag, an dem jedes Unternehmen, das ein CV-Screening-Tool, ein Credit-Scoring-System oder einen Chatbot einsetzt, seine Compliance nachweisen muss.
Laut Bitkom-Studie 2025 und Fraunhofer-Analysen haben mehr als 60% der deutschen Unternehmen, die KI-Tools einsetzen, noch keinen formellen Compliance-Prozess gestartet. Die Lücke ist nicht technologisch, sondern informationell: Großunternehmen haben eigene Teams und Rechtsabteilungen, während KMU oft hinterherhinken, weil es an operativen Leitfäden fehlt, die die Artikel der Verordnung in konkrete Checklisten übersetzen.
Dieser Leitfaden beantwortet genau diese Frage: Was ändert sich konkret am 2. August 2026, wie funktionieren die vier Risikostufen des AI Act, welche Schritte sofort zu unternehmen sind, welche Bußgelder drohen und wie Sandbox und Fördermittel für KMU und Start-ups genutzt werden können. Mit realen Beispielen, präzisen Zeitplänen und einer Compliance-Checkliste für Unternehmen unter 250 Mitarbeitenden.
Der 2. August 2026 führt nicht nur technische Pflichten ein: Er markiert den Übergang von Vorbereitung zu echter Durchsetzung. Nationale Marktüberwachungsbehörden — darunter BNetzA in Deutschland — haben bereits erste Vorprüfungen eingeleitet, inklusive Ermittlungen gegen KI-Anbieter, die von KMU häufig genutzt werden.
Was sind die vier Risikostufen des AI Act?
Der AI Act verfolgt einen risikobasierten Ansatz und klassifiziert KI-Systeme in vier Kategorien: unannehmbares Risiko (verboten), hohes Risiko, begrenztes Risiko und minimales Risiko. Die Kategorie bestimmt die Pflichten — von einem vollständigen Verbot bis zur freien Verwendung mit einfachen Transparenzanforderungen. Die Einordnung jedes Systems ist der erste Schritt jeder Compliance-Strategie.
1. Unannehmbares Risiko: bereits geltende Verbote
Seit dem 2. Februar 2025 EU-weit verboten: staatliches Social Scoring, Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen, biometrische Kategorisierung nach sensiblen Daten (ethnische Herkunft, sexuelle Orientierung, politische Überzeugung) und ungezieltes Scraping von Gesichtsbildern zum Aufbau von Erkennungsdatenbanken. Für Unternehmen ist dieses Verbot bereits operativ: Der Einsatz eines Emotionsüberwachungssystems zur Leistungsbeurteilung der Mitarbeitenden führt zur höchsten Sanktion von 35 Millionen Euro oder 7% des globalen Umsatzes.
2. Hohes Risiko: der Kern der Pflichten für 2026
Die operativ anspruchsvollste Kategorie. Anhang III des AI Act listet acht Hochrisikobereiche auf: biometrische Identifizierung, kritische Infrastrukturen, Bildung und Berufsausbildung, Beschäftigung und Personalverwaltung, Zugang zu wesentlichen öffentlichen und privaten Dienstleistungen, Strafverfolgung, Migrations- und Asylverwaltung, Justizverwaltung. Sehr konkrete KMU-Fälle: automatische CV-Screening-Tools, Credit Scoring, Mitarbeiterbewertung, Gesundheits- und Versicherungsrisiko-Plattformen.
Ab dem 2. August 2026 müssen diese Systeme strenge Anforderungen erfüllen: dokumentiertes Risikomanagement über den gesamten Lebenszyklus, Qualität und Repräsentativität der Trainingsdatensätze, vollständige technische Dokumentation, automatische Log-Aufzeichnung, effektive menschliche Aufsicht, Eintragung in die EU-Datenbank für Hochrisiko-KI, CE-Kennzeichnung und Konformitätserklärung.
3. Begrenztes Risiko: Transparenzpflichten
Umfasst Chatbots, virtuelle Assistenten und Systeme, die Inhalte erzeugen oder manipulieren (Deepfakes, durch generative KI erstellte Bilder und Texte). Hauptpflicht ist Transparenz: Nutzer müssen darüber informiert werden, dass sie mit einer Maschine interagieren und dass ein Inhalt von KI erzeugt wurde. Auch ein KMU, das einen Chatbot auf seiner Website oder einen Sprachassistenten für Buchungen einsetzt, fällt hierunter, mit angemessenen Kennzeichnungs- und Aufklärungspflichten.
4. Minimales Risiko: freie Nutzung
Spam-Filter, KI in Videospielen, einfache Empfehlungssysteme, Grammatikprüfer. Keine spezifischen Pflichten über die üblichen Verbraucher- und Datenschutzregeln hinaus. Die meisten heute in KMU eingesetzten KI-Systeme fallen in diese Kategorie: Nach der Systemkartierung ist die Compliance oft einfacher als erwartet.
| Risikostufe | Beispielsysteme | Hauptpflichten | Anwendungsdatum |
|---|---|---|---|
| Unannehmbar | Social Scoring, Emotionserkennung am Arbeitsplatz | Vollständiges Verbot | 2. Februar 2025 |
| Hoch | CV-Screening, Credit Scoring, HR-Entscheidungen | Risikomanagement, CE, techn. Dokumentation | 2. August 2026 |
| Begrenzt | Chatbots, Deepfakes, KI-generierte Inhalte | Transparenz und Kennzeichnung | 2. August 2026 |
| Minimal | Spam-Filter, Empfehlungen, Spiele | Keine besonderen Pflichten | Sofort |
Wie wird der AI Act in Deutschland umgesetzt und welche Behörden sind zuständig?
In Deutschland läuft die Umsetzung des AI Act über eine koordinierte Aufsichtsarchitektur: Die Bundesnetzagentur (BNetzA) übernimmt die koordinierende Rolle auf Bundesebene, während die Datenschutzbehörden der Länder (Landesdatenschutzbeauftragte) die datenschutzrechtlichen Aspekte überwachen und sektorale Regulierer wie BaFin (Finanzsektor) oder das BSI (Cybersicherheit) ihre Zuständigkeiten behalten. Ein Modell, das Flexibilität bietet, aber von KMU eine präzise Identifikation der zuständigen Stelle verlangt.
Zusatzpflichten aus dem deutschen Arbeitsrecht
Das deutsche Arbeitsrecht sieht zusätzliche Pflichten für den KI-Einsatz im HR-Bereich vor: Mitbestimmung des Betriebsrats nach § 87 BetrVG bei Einführung von KI-Systemen mit Leistungs- oder Verhaltenskontrolle, Informationspflichten gegenüber Mitarbeitenden, Anspruch auf menschliche Überprüfung automatisierter Entscheidungen. Dies schafft eine Doppelprüfung: AI Act plus deutsches Arbeitsrecht.
Zusammenspiel mit DSGVO und IT-Sicherheitsgesetz
Der AI Act ergänzt die DSGVO und das IT-Sicherheitsgesetz 2.0, ersetzt sie aber nicht. Bei der Verarbeitung personenbezogener Daten durch KI bleibt die DSGVO der Hauptbezugspunkt, während der AI Act zusätzliche technische Anforderungen einführt. Im Bereich kritischer Infrastrukturen kumulieren sich die Pflichten des BSI-Gesetzes mit denen des AI Act für KI-Systeme im KRITIS-Einsatz.
Branchenverbände und Unterstützungsdienste
Bitkom, VDMA, ZDH und Handelskammern bieten operative Leitfäden und Beratungsdienste für KMU. Das Mittelstand-Digital Netzwerk, gefördert vom BMWK, stellt kostenlose Compliance-Ressourcen und Workshops zur KI-Verordnung bereit. Evolus integriert Audit-Log- und Nachverfolgbarkeitswerkzeuge, die die Vorbereitung der von den einzelnen Behörden geforderten Nachweise vereinfachen.
Compliance-Checkliste für KMU: Wo anfangen?
Die AI-Act-Compliance erfordert keine radikale technologische Transformation: Sie erfordert Ordnung, Dokumentation und Schulung. KMU können ein akzeptables Compliance-Niveau in 8-12 Wochen strukturierter Arbeit erreichen, ohne übermäßige Kosten. Hier sind die fünf operativen Schritte, die vor dem 2. August 2026 abgeschlossen sein sollten, in Prioritätsreihenfolge.
1. Kartierung der eingesetzten KI-Systeme
Erster Schritt: Erstellung eines unternehmensinternen KI-Registers: alle Tools mit KI-Komponenten (Chatbots, HR-Software, CRM mit Lead Scoring, Marketing-Automatisierungsplattformen, Content-Generation-Tools, intelligente Videoüberwachung, Sprachassistenten). Für jedes werden notiert: Anbieter, Zweck, geschätzte Risikokategorie, verarbeitete Daten, interner Verantwortlicher, Einführungsdatum.
2. Risikoklassifizierung
Für jedes kartierte System wird die Klassifizierung nach AI-Act-Kriterien geprüft: Ist es ein Hochrisikosystem nach Anhang III? Ist es ein System mit begrenztem Risiko mit Transparenzpflichten? Die Prüfung ist nicht trivial: Ein Recruiting-Tool, das KI zum Filtern von Lebensläufen nutzt, gilt als Hochrisikosystem, auch wenn der Anbieter es als einfaches Entscheidungsunterstützungstool beschreibt.
3. AI Literacy: die verpflichtende Schulung
Artikel 4 des AI Act verpflichtet zu einer KI-Grundausbildung aller Mitarbeitenden, die KI-Systeme nutzen, entwickeln oder verwalten. Ab dem 3. August 2026 können Behörden die Einhaltung überprüfen. Es braucht keinen Hochschulabschluss: Es braucht dokumentierte Schulungspfade, die Mitarbeitenden ermöglichen, Systemfehler zu erkennen, algorithmische Bias zu verstehen und die Zuverlässigkeit der Outputs zu überprüfen. Die Dokumentation ist essenziell: Stundenprotokoll, behandelte Inhalte, erworbene Kompetenzen.
4. Governance und technische Dokumentation
Hochrisikosysteme erfordern eine vollständige technische Akte: Risikomanagement-Policy, Beschreibung des Trainingsdatensatzes, Performance- und Bias-Testergebnisse, Verfahren zur menschlichen Aufsicht, Post-Market-Monitoring-Plan, Gebrauchsanweisung. Systeme mit begrenztem Risiko erfordern deutlich weniger: Nutzerinformation, Kennzeichnung KI-generierter Inhalte, Beschwerdeverfahren. Evolus bietet Rückverfolgbarkeits-, Audit-Log- und integrierte Reporting-Tools, die die systematische Erfassung der Nachweise im Zeitverlauf vereinfachen.
5. Verantwortliche und Verfahren
Einen internen KI-Verantwortlichen benennen (kein neues dediziertes Amt nötig: kann der bestehende Datenschutzbeauftragte, der IT-Leiter oder ein Geschäftsführungsmitglied sein), Incident-Response-Verfahren für schwere Störungen oder diskriminierende Ergebnisse definieren, eine jährliche Überprüfung des KI-Registers planen. Governance ist kein statisches Dokument: Sie ist ein lebendiger Zyklus.
- Wochen 1-2: Kartierung aller eingesetzten KI-Systeme
- Wochen 3-4: Risikoklassifizierung und Priorisierung
- Wochen 5-8: AI-Literacy-Schulung und Dokumentation
- Wochen 9-10: Benennung des KI-Verantwortlichen, Verfahren
- Wochen 11-12: Abschlussprüfung und interne Audits
Ein KMU mit 50 Mitarbeitenden und 6 eingesetzten KI-Systemen kann die Compliance mit einer Investition zwischen 8.000 und 15.000 Euro abschließen, inklusive Schulung, Rechtsberatung und Dokumentationsaktualisierung. Die durchschnittlichen Kosten einer Sanktion liegen auch im abgemilderten KMU-Regime mindestens 50-mal höher.
Welche Sanktionen sieht der AI Act vor und wer verhängt sie?
Die Sanktionen des AI Act sind die schärfsten, die je durch eine EU-Digitalverordnung eingeführt wurden, sogar strenger als die DSGVO-Obergrenzen. Artikel 99 der Verordnung sieht drei Bußgeldkategorien vor, gestaffelt nach Schwere des Verstoßes. Für KMU und Start-ups gilt ein abgemildertes Regime: Das anzuwendende Bußgeld ist der niedrigere der beiden Werte aus festem Höchstbetrag und Umsatzprozentsatz.
Die drei Sanktionsstufen nach Artikel 99
| Verstoßart | Höchstbußgeld | Anwendungsdatum |
|---|---|---|
| Verbotene KI-Praktiken (Art. 5) | 35 Mio. € oder 7% Weltumsatz | Bereits seit 2.2.2025 in Kraft |
| Nichtkonformität Hochrisiko-Systeme | 15 Mio. € oder 3% Weltumsatz | Ab 2.8.2026 |
| Unrichtige Angaben an Behörden | 7,5 Mio. € oder 1% Weltumsatz | Ab 2.8.2026 |
Das abgemilderte Regime für KMU
Für KMU (unter 250 Mitarbeitende und unter 50 Mio. € Umsatz) und Start-ups ist das anzuwendende Bußgeld der niedrigere der beiden Werte. Konkretes Beispiel: Ein KMU mit 2 Mio. € Umsatz, das gegen Hochrisiko-Vorschriften verstößt, haftet maximal mit 3% von 2 Mio. €, also 60.000 €, nicht 15 Mio. €. Ein konkreter Schutz, der jedoch nicht von den materiellen Pflichten befreit.
Wer die Sanktionen verhängt
Die Sanktionen werden von den nationalen Marktüberwachungsbehörden verhängt. In Deutschland BNetzA (koordinierend), Landesdatenschutzbehörden für Datenschutzverstöße, BaFin für Finanzsektor. In Europa: AgID und ACN in Italien, AESIA in Spanien, CNIL, DGCCRF und Arcom in Frankreich. Die Europäische Kommission behält direkte Befugnisse über General-Purpose-AI-Modelle (GPAI) von systemischer Reichweite.
Regulatorisches Sandbox und Förderungen: Was kann ein KMU erhalten?
Der AI Act schafft nicht nur Pflichten: Er führt auch ein System von spezifischen Förderungen für KMU und Start-ups ein, die KI-Lösungen entwickeln oder testen wollen. Artikel 62 der Verordnung sieht vorrangigen und kostenlosen Zugang zu nationalen regulatorischen Sandboxes, Ermäßigungen auf Konformitätsbewertungsgebühren und vereinfachte technische Dokumentation vor. In Deutschland sind KI-Reallabore nach § 5 KI-Förderstrategie verfügbar.
Was eine regulatorische Sandbox ist
Eine regulatorische Sandbox ist ein kontrollierter Experimentierraum, in dem ein KMU ein innovatives KI-System unter realen Bedingungen, unter Aufsicht einer nationalen Behörde, ohne Sanktionen für die Dauer des Tests testen kann, sofern es den vereinbarten Plan einhält und den Leitlinien der Behörde in gutem Glauben folgt. Das ideale Werkzeug, um zu innovieren, ohne in Bürokratie zu erstarren.
Förderungen für innovative Start-ups und KMU in Deutschland
2026 können deutsche innovative Start-ups auf ein reiches Förderpanorama zugreifen: EXIST-Forschungstransfer, KMU-innovativ des BMBF, High-Tech-Gründerfonds (HTGF), Digital Jetzt mit KI-Schwerpunkt, Zuschüsse des INVEST-Programms für Business Angels. Diese Instrumente sind mit AI-Act-Compliance-Unterstützungsmaßnahmen kombinierbar und machen KI-Investitionen auch für sehr kleine Unternehmen wirtschaftlich tragfähig.
Wie man sich bewirbt
Um Zugang zu einer nationalen Sandbox zu erhalten, ist ein Antrag mit detailliertem Projekt bei der zuständigen Behörde einzureichen: Beschreibung des KI-Systems, Experimentierziele, verwendete Daten, Risikominderungsmaßnahmen, Ausstiegsplan. Der Auswahlprozess bevorzugt Lösungen mit relevantem sozialen oder industriellen Impact und innovativ profilierte KMU.
Häufig gestellte Fragen zum AI Act 2026
Sind KMU mit weniger als 50 Mitarbeitenden vom AI Act ausgenommen?
Nein. Der AI Act gilt für alle Unternehmen, die KI-Systeme nutzen oder bereitstellen, unabhängig von der Größe. Es gibt jedoch abgemilderte Maßnahmen für KMU und Start-ups: vereinfachte technische Dokumentation, kostenloser Zugang zu regulatorischen Sandboxes, reduzierte Bußgelder als niedrigerer Wert aus festem Betrag und Umsatzprozentsatz. Keine totale Ausnahme, aber ein erleichterter Weg.
Ist unser Customer-Care-Chatbot ein Hochrisikosystem?
In der Regel nein. Customer-Care-Chatbots fallen in die Kategorie begrenztes Risiko des AI Act, mit Hauptpflichten bei Transparenz: den Nutzer darüber zu informieren, dass er mit einer Maschine interagiert, und KI-generierte Inhalte zu kennzeichnen. Es wird zu Hochrisiko nur, wenn der Chatbot automatisierte Entscheidungen mit signifikantem Impact trifft, zum Beispiel Kreditvergabe oder Ausschluss von einem wesentlichen Service.
Was passiert, wenn wir KI-Software von Nicht-EU-Anbietern nutzen?
Wird das KI-System in der EU genutzt oder hat es Auswirkungen auf europäische Bürger, gilt der AI Act unabhängig vom Sitz des Anbieters. Das nutzende KMU in der Rolle des Deployers muss prüfen, dass der Anbieter seine Pflichten erfüllt hat (CE-Kennzeichnung, technische Dokumentation, Konformitätserklärung). Die Verantwortung für die konforme Nutzung bleibt beim deutschen Unternehmen, das die Lösung einsetzt.
Könnte die Frist vom 2. August 2026 verschoben werden?
Auf EU-Ebene wird ein Digital-Omnibus-Vorschlag diskutiert, der einige Hochrisiko-Fristen auf den 2. Dezember 2027 verschieben würde. Stand April 2026 ist der Vorschlag noch nicht angenommen: Die Frist 2. August 2026 bleibt rechtlich bindend. Unternehmen sollten mit der Anpassung vorangehen, ohne auf unbestätigte Verschiebungen zu setzen.
Was ist der Unterschied zwischen AI Act und nationaler Umsetzung?
Der AI Act ist die EU-Verordnung 2024/1689, direkt anwendbar in allen Mitgliedstaaten ohne Umsetzungsakt. Die nationale Umsetzung betrifft die institutionelle Architektur (zuständige Behörden), die mit nationalem Recht (Arbeitsrecht, Mitbestimmung, Datenschutz-Landesgesetze) verzahnten Bereiche und die Förder- und Sandbox-Instrumente. Unternehmen im DACH-Raum müssen beide Ebenen gleichzeitig einhalten.
Vergleichen Sie Evolus mit Wettbewerbern
Erfahren Sie, wie sich Evolus gegenüber anderen KI-Plattformen auf dem Markt positioniert.
Möchten Sie KI in Aktion sehen?
Fordern Sie eine personalisierte Demo an und entdecken Sie, wie künstliche Intelligenz Ihre Geschäftsprozesse transformieren kann.