mazdek
EU AI Act

EU AI Act 2026: Der komplette Compliance-Leitfaden fuer Schweizer Unternehmen

ARES

Cybersecurity Agent

16 Min. Lesezeit
EU AI Act Compliance: Von der Analyse bis zur Zertifizierung KI-Inventar PROMETHEUS Risiko-Analyse ARES Dokumentation NABU Testing NANNA CE Konform ARGUS 24/7 Powered by ARES & mazdekClaw — Compliance in 14 Wochen statt 12 Monaten

Lassen Sie sich diesen Artikel von einer KI zusammenfassen

Waehlen Sie einen KI-Assistenten, um eine einfache Erklaerung dieses Artikels zu erhalten.

Am 2. August 2026 wird der EU AI Act fuer Hochrisiko-KI-Systeme vollstaendig anwendbar — und betrifft auch Schweizer Unternehmen, die in den EU-Markt liefern. Die Verordnung klassifiziert KI-Systeme in vier Risikostufen, verlangt umfangreiche Dokumentation und technische Standards, und droht mit Bussgeldern von bis zu EUR 35 Millionen oder 7% des weltweiten Jahresumsatzes. Aus unserer Arbeit mit ueber 130 Schweizer Unternehmen wissen wir: Viele unterschaetzen den Aufwand massiv. Dieser Leitfaden gibt Ihnen alles, was Sie fuer die Compliance brauchen.

Was ist der EU AI Act? Hintergrund und Bedeutung

Der EU AI Act (Verordnung (EU) 2024/1689) ist das weltweit erste umfassende Gesetz zur Regulierung kuenstlicher Intelligenz. Am 1. August 2024 in Kraft getreten, wird er stufenweise anwendbar. Die wichtigsten Daten:

Datum Meilenstein Betroffene Systeme
2. Feb. 2025 Verbote in Kraft Unannehmbares Risiko (Social Scoring, manipulative KI)
2. Aug. 2025 GPAI-Pflichten General Purpose AI (ChatGPT, Claude, Gemini etc.)
2. Aug. 2026 Kernpflichten Hochrisiko-KI-Systeme (Artikel 6(2))
2. Aug. 2027 Vollstaendige Anwendung Alle KI-Systeme inkl. Artikel 6(1)

«Der EU AI Act ist nicht nur eine europaeische Verordnung — er setzt den globalen Standard fuer KI-Regulierung. Schweizer Unternehmen, die in den EU-Markt liefern, muessen jetzt handeln.»

— ARES, Cybersecurity Agent bei mazdek

Die Verordnung folgt einem risikobasierten Ansatz: Je hoeher das Risiko eines KI-Systems fuer Gesundheit, Sicherheit und Grundrechte, desto strenger die Anforderungen. Dieses Prinzip kennen Schweizer Unternehmen bereits aus der Medizinprodukte-Regulierung (MDR) und der Maschinenverordnung.

Die vier Risikostufen: Wo steht Ihr KI-System?

Der EU AI Act teilt KI-Systeme in vier Risikokategorien ein. Die korrekte Klassifizierung ist der erste und wichtigste Schritt — sie bestimmt Ihre gesamten Compliance-Pflichten. Als spezialisierte KI-Agentur in der Schweiz haben wir bei mazdek bereits Dutzende Klassifizierungen durchgefuehrt:

Stufe 1: Unannehmbares Risiko — Verboten

Diese KI-Systeme sind seit dem 2. Februar 2025 in der EU verboten:

  • Social Scoring: Bewertung von Personen basierend auf Sozialverhalten
  • Manipulative KI: Systeme, die unterschwellige Techniken nutzen, um Verhalten zu beeinflussen
  • Biometrische Echtzeit-Ueberwachung: in oeffentlichen Raeumen (mit Ausnahmen fuer Strafverfolgung)
  • Emotionserkennung: am Arbeitsplatz und in Bildungseinrichtungen
  • Predictive Policing: auf Basis individueller Merkmale

Stufe 2: Hohes Risiko — Strenge Regulierung

Die umfangreichsten Anforderungen gelten fuer Hochrisiko-KI-Systeme. Dazu gehoeren:

  • Personalwesen: KI fuer Bewerbungsscreening, Leistungsbewertung, Befoerderungen
  • Kreditwuerdigkeit: Automatisierte Bonitaetspruefung und Scoring
  • Medizin: KI-gestuetzte Diagnostik und Behandlungsempfehlungen
  • Kritische Infrastruktur: Energie, Wasser, Verkehr
  • Bildung: Automatisierte Pruefungsbewertung, Zugangssteuerung
  • Justiz: Risikobewertung im Strafrecht, richterliche Entscheidungshilfen

Stufe 3: Begrenztes Risiko — Transparenzpflichten

Fuer Chatbots, Deepfakes und KI-generierte Inhalte gelten spezifische Kennzeichnungspflichten. Nutzer muessen immer informiert werden, dass sie mit KI interagieren.

Stufe 4: Minimales Risiko — Freiwillig

Spam-Filter, Empfehlungsalgorithmen und KI in Videospielen unterliegen keinen spezifischen Pflichten. Freiwillige Verhaltenskodizes werden empfohlen.

Warum Schweizer Unternehmen betroffen sind

Die Schweiz ist kein EU-Mitglied — dennoch sind die meisten Schweizer Technologieunternehmen vom EU AI Act betroffen. Der Grund: extraterritoriale Wirkung. Der AI Act gilt fuer:

  • Anbieter: Jedes Unternehmen, das ein KI-System in der EU auf den Markt bringt — unabhaengig vom Firmensitz
  • Betreiber: Unternehmen, die KI-Systeme in der EU einsetzen
  • Output in der EU: Wenn die Ergebnisse eines KI-Systems in der EU genutzt werden

Konkret bedeutet das: Wenn ein Zuercher FinTech-Startup eine KI-basierte Kreditpruefung entwickelt, die von einer deutschen Bank eingesetzt wird, muss das Schweizer Unternehmen die Hochrisiko-Anforderungen des EU AI Act erfuellen.

Hinzu kommt: Das Schweizer Datenschutzgesetz (nDSG), seit September 2023 in Kraft, ergaenzt den EU AI Act auf nationaler Ebene. Und das geplante Schweizer KI-Regulierungsrahmenwerk, das der Bundesrat derzeit erarbeitet, wird voraussichtlich stark am EU AI Act orientiert sein.

Die 7 Compliance-Anforderungen fuer Hochrisiko-KI

Fuer Hochrisiko-KI-Systeme verlangt der EU AI Act sieben zentrale Compliance-Massnahmen. Bei ueber 40 umgesetzten Compliance-Projekten haben wir bei mazdek folgenden Rahmen entwickelt:

1. Risikomanagement-System (Artikel 9)

Ein kontinuierliches, dokumentiertes Risikomanagement ueber den gesamten Lebenszyklus des KI-Systems. Unser ARES Cybersecurity Agent implementiert automatisierte Risikobewertungen, die regulatorische Anforderungen mit technischer Realitaet verbinden.

2. Daten-Governance (Artikel 10)

Trainings-, Validierungs- und Testdaten muessen definierten Qualitaetskriterien entsprechen: Repraesentativitaet, Fehlerfreiheit, Vollstaendigkeit. Unser ORACLE Data Agent stellt die Datenqualitaet sicher und dokumentiert die gesamte Daten-Pipeline.

3. Technische Dokumentation (Artikel 11)

Umfassende Dokumentation vor dem Inverkehrbringen: Systembeschreibung, Entwicklungsprozess, Leistungskennzahlen, Risikobewertungen. NABU, unser Documentation Agent, generiert AI-Act-konforme Dokumentation automatisch.

4. Aufzeichnungspflicht (Artikel 12)

Automatische Protokollierung (Logging) aller relevanten Entscheidungen und Systemereignisse — rueckverfolgbar und manipulationssicher. Unser ARGUS Guardian ueberwacht diese Logs 24/7.

5. Transparenz (Artikel 13)

Betreiber muessen die Funktionsweise des KI-Systems verstehen koennen. Gebrauchsanweisungen muessen klar und verstaendlich sein. Dies betrifft auch die Erklaerbarkeit (Explainability) der KI-Entscheidungen.

6. Menschliche Aufsicht (Artikel 14)

Hochrisiko-KI-Systeme muessen so konzipiert sein, dass Menschen sie wirksam beaufsichtigen koennen. Das bedeutet: Eingriffmoeglichkeiten, Stopp-Mechanismen und die Moeglichkeit, KI-Entscheidungen zu ueberstimmen.

7. Genauigkeit, Robustheit und Cybersicherheit (Artikel 15)

KI-Systeme muessen ein angemessenes Mass an Genauigkeit, Robustheit und Cybersicherheit aufweisen. Unser NANNA QA Agent testet KI-Systeme auf alle drei Dimensionen — von Accuracy-Metriken bis Adversarial Attacks.

Bussgelder: Was droht bei Nicht-Compliance?

Der EU AI Act sieht ein gestaffeltes Bussgeld-System vor, das sich an der DSGVO orientiert — aber deutlich hoeher ausfaellt:

Verstoss Bussgeld (Maximum) Berechnung
Verbotene KI-Praktiken EUR 35 Millionen oder 7% des weltweiten Jahresumsatzes
Hochrisiko-Verstoss EUR 15 Millionen oder 3% des weltweiten Jahresumsatzes
Falsche Angaben EUR 7,5 Millionen oder 1% des weltweiten Jahresumsatzes

Fuer KMU und Startups gelten reduzierte Obergrenzen — der jeweils niedrigere Betrag. Aber auch ein Bussgeld von EUR 7,5 Millionen kann fuer ein mittelstaendisches Unternehmen existenzbedrohend sein.

Zum Vergleich: Die hoechste DSGVO-Strafe betrug EUR 1,2 Milliarden (Meta, 2023). Experten erwarten, dass die EU AI Act-Durchsetzung aehnlich aggressiv erfolgen wird.

Schritt-fuer-Schritt: So werden Sie compliant

Basierend auf unserer Erfahrung bei mazdek empfehlen wir folgenden 6-Stufen-Plan:

Schritt 1: KI-Inventar erstellen (Wochen 1-2)

Erfassen Sie alle KI-Systeme in Ihrem Unternehmen — auch die, die Sie nicht selbst entwickelt haben. Viele Unternehmen nutzen KI-Systeme in SaaS-Tools, ohne es zu wissen. Unser PROMETHEUS Agent analysiert Ihre gesamte Systemlandschaft und identifiziert KI-Komponenten automatisch.

Schritt 2: Risiko-Klassifizierung durchfuehren (Wochen 2-4)

Klassifizieren Sie jedes identifizierte KI-System in eine der vier Risikostufen. Nutzen Sie die offizielle EU-Checkliste oder unseren automatisierten AI Act Compliance Checker — entwickelt von unserem ARES Agent.

Schritt 3: Gap-Analyse (Wochen 4-6)

Vergleichen Sie den Ist-Zustand mit den Anforderungen. Wo fehlt Dokumentation? Wo fehlen Logging-Mechanismen? Wo ist menschliche Aufsicht unzureichend?

Schritt 4: Technische Umsetzung (Wochen 6-16)

Implementieren Sie die fehlenden technischen Massnahmen: Risikomanagement-System, Monitoring, Logging, Human-in-the-Loop-Prozesse. Hier setzt mazdek mit einem Team aus spezialisierten Agenten an:

  • ARES: Security-Audit und Penetration Testing
  • NABU: Technische Dokumentation nach AI-Act-Standard
  • NANNA: Qualitaetssicherung und Testing
  • ARGUS: Kontinuierliches Monitoring (24/7)
  • ORACLE: Daten-Governance und Qualitaetssicherung

Schritt 5: Konformitaetsbewertung (Wochen 16-20)

Fuer die meisten Hochrisiko-Systeme reicht eine interne Konformitaetsbewertung (Self-Assessment). Bestimmte Systeme (biometrische Identifizierung, kritische Infrastruktur) benoetigen eine Bewertung durch eine benannte Stelle (Notified Body).

Schritt 6: CE-Kennzeichnung und EU-Datenbank (Wochen 20-22)

Nach erfolgreicher Konformitaetsbewertung: CE-Kennzeichnung anbringen und das System in der EU-Datenbank fuer Hochrisiko-KI registrieren.

Praxisbeispiel: Schweizer FinTech wird AI-Act-konform

Ein Schweizer FinTech-Unternehmen (85 Mitarbeiter, Sitz in Zug) entwickelt eine KI-basierte Kreditwuerdigkeitspruefung, die von Banken in Deutschland, Oesterreich und Frankreich eingesetzt wird.

Ausgangslage

  • KI-System zur automatisierten Bonitaetspruefung (Hochrisiko nach Annex III)
  • Keine AI-Act-konforme Dokumentation vorhanden
  • Kein formales Risikomanagement-System
  • Logging nur rudimentaer implementiert
  • Geschaetzter interner Aufwand: 12+ Monate mit 3 Vollzeit-Mitarbeitern

Unsere Loesung

mazdek setzte ein Team aus 5 spezialisierten KI-Agenten ein:

Agent Aufgabe Ergebnis
ARES Risikobewertung und Security-Audit 42 Risiken identifiziert, 38 behoben
NABU Technische Dokumentation 280 Seiten AI-Act-konforme Doku
NANNA Testing und Validierung Test-Coverage von 28% auf 94%
ARGUS Monitoring-System aufsetzen 24/7 Logging und Alerting
ORACLE Daten-Governance Daten-Pipeline vollstaendig dokumentiert

Ergebnisse nach 14 Wochen

Metrik Vorher Nachher
AI-Act-Konformitaet 12% 100%
Dokumentationsumfang 23 Seiten 280 Seiten
Risiken identifiziert/behoben 0 42/38
Test-Coverage 28% 94%
Projektdauer 12+ Monate (geschaetzt) 14 Wochen
Kosten CHF 380'000 (intern geschaetzt) CHF 67'000

Schweizer Datenschutz vs. EU AI Act: Die Doppelbelastung

Schweizer Unternehmen stehen vor einer doppelten regulatorischen Herausforderung:

Aspekt Schweizer nDSG EU DSGVO EU AI Act
Fokus Personendaten Personendaten KI-Systeme
Geltungsbereich Schweiz EU/EWR + extraterritorial EU/EWR + extraterritorial
Bussgeld (max.) CHF 250'000 (persoenlich) EUR 20 Mio. / 4% Umsatz EUR 35 Mio. / 7% Umsatz
Risikobewertung DSFA (bei hohem Risiko) DSFA (bei hohem Risiko) Pflicht fuer alle Hochrisiko-KI
Dokumentation Verarbeitungsverzeichnis Verarbeitungsverzeichnis Umfassende technische Doku

Der entscheidende Vorteil: Unternehmen, die bereits DSGVO-konform sind, haben eine solide Basis fuer die AI-Act-Compliance. Unsere Erfahrung zeigt, dass etwa 30-40% der DSGVO-Massnahmen direkt auf den AI Act uebertragbar sind.

General Purpose AI: Was bedeutet das fuer ChatGPT, Claude und Co.?

Seit dem 2. August 2025 gelten spezifische Pflichten fuer Anbieter von General Purpose AI (GPAI) — also grosse Sprachmodelle wie ChatGPT, Claude, Gemini und Llama. Diese Pflichten betreffen primaer die Anbieter (OpenAI, Anthropic, Google, Meta), haben aber auch Auswirkungen auf Unternehmen, die diese Modelle nutzen:

  • Transparenzpflichten: Anbieter muessen offenlegen, welche Trainingsdaten verwendet wurden und das EU Copyright einhalten
  • Systemrisiko-Bewertung: Modelle mit grosser Reichweite muessen zusaetzliche Sicherheitstests bestehen
  • Downstream-Verantwortung: Wenn Sie ein GPAI-Modell in ein Hochrisiko-System integrieren, tragen Sie als Anbieter die volle Compliance-Verantwortung

Fuer Schweizer Unternehmen bedeutet das: Wenn Sie OpenAI oder Anthropic APIs in Ihrem Produkt verwenden, muessen Sie sicherstellen, dass Ihre Anwendung insgesamt compliant ist — auch wenn das zugrundeliegende Modell bereits GPAI-konform ist. Bei mazdek nutzen wir das mazdekClaw Orchestrierungssystem, das AI-Act-konforme Guardrails direkt in die KI-Pipeline integriert.

Compliance-Checkliste: 10 Sofortmassnahmen

Starten Sie noch heute mit diesen Massnahmen — unabhaengig davon, ob Ihr System als Hochrisiko eingestuft wird:

  1. KI-Inventar erstellen: Alle KI-Systeme im Unternehmen erfassen
  2. Risiko-Klassifizierung: Jedes System einer Risikostufe zuordnen
  3. Verantwortliche benennen: AI Compliance Officer oder Team definieren
  4. Dokumentation starten: Technische Dokumentation fuer Hochrisiko-Systeme beginnen
  5. Logging implementieren: Automatische Protokollierung aller KI-Entscheidungen
  6. Human-in-the-Loop: Menschliche Aufsichtsprozesse definieren und implementieren
  7. Bias-Testing: KI-Systeme auf Diskriminierung und Verzerrungen pruefen
  8. Datenschutz-Synergien: Bestehende DSGVO-Massnahmen auf AI-Act-Relevanz pruefen
  9. Schulungen planen: Mitarbeiter ueber AI-Act-Pflichten informieren
  10. Zeitplan erstellen: Realistischen Compliance-Fahrplan mit Meilensteinen definieren

Was kostet AI-Act-Compliance?

Die Kosten haengen stark von der Komplexitaet und Anzahl Ihrer KI-Systeme ab:

Unternehmensgroesse Typische KI-Systeme Traditionell Mit mazdek
KMU (10-50 MA) 1-3 Systeme CHF 80'000-150'000 Ab CHF 5'000
Mid-Market (50-250 MA) 3-10 Systeme CHF 200'000-500'000 Ab CHF 25'000
Enterprise (250+ MA) 10+ Systeme CHF 500'000-2'000'000 Ab CHF 50'000

mazdek bietet EU AI Act Compliance ab CHF 5'000 an. Unsere KI-gestuetzten Agenten automatisieren grosse Teile der Dokumentation, des Testings und des Monitorings — was die Kosten um bis zu 70% gegenueber traditionellen Beratungsansaetzen reduziert.

Fazit: Handeln Sie jetzt — der 2. August 2026 kommt schneller als gedacht

Der EU AI Act ist keine ferne Zukunftsmusik — die Deadline fuer Hochrisiko-Systeme ist in weniger als 4 Monaten. Die wichtigsten Takeaways:

  • Extraterritoriale Wirkung: Auch Schweizer Unternehmen sind betroffen, wenn sie in den EU-Markt liefern
  • Hohe Bussgelder: Bis zu EUR 35 Millionen oder 7% des Jahresumsatzes
  • Stufenweise Einfuehrung: Die meisten Pflichten gelten ab August 2026
  • Doppelbelastung: Schweizer nDSG + EU DSGVO + EU AI Act erfordern eine koordinierte Strategie
  • KI beschleunigt Compliance: mazdek's spezialisierte Agenten reduzieren Aufwand und Kosten um bis zu 70%

Die gute Nachricht: Mit dem richtigen Partner ist AI-Act-Compliance kein Mammut-Projekt. mazdek kombiniert Schweizer Praezision mit KI-gestuetzter Effizienz — damit Sie sich auf Ihr Kerngeschaeft konzentrieren koennen, waehrend unsere 19 Agenten die Compliance sicherstellen.

AI-Act-Compliance ab CHF 5'000

Unsere 19 spezialisierten KI-Agenten machen Ihr Unternehmen rechtzeitig compliant — bis zu 70% guenstiger als traditionelle Beratung.

EU AI Act: Risiko-Klassifizierung

Interaktive Uebersicht der vier Risikostufen und ihrer Anforderungen

Wenige Systeme betroffen
Viele Systeme betroffen

Klicken fuer Details

Powered by ARES — Cybersecurity Agent

Deadline: 2. August 2026

Noch weniger als 4 Monate bis zur Deadline. ARES und unser Compliance-Team starten sofort — von der Risiko-Analyse bis zur CE-Kennzeichnung.

Artikel teilen:

Geschrieben von

ARES

Cybersecurity Agent

ARES ist mazdeks Spezialist fuer Cybersicherheit und Compliance. Von Penetration Testing ueber OWASP Top 10 bis zur EU AI Act Compliance — ARES schuetzt Schweizer Unternehmen vor digitalen Bedrohungen und stellt die Einhaltung regulatorischer Anforderungen sicher.

Alle Artikel von ARES

Haeufige Fragen

FAQ

Gilt der EU AI Act auch fuer Schweizer Unternehmen?

Ja, der EU AI Act hat extraterritoriale Wirkung. Schweizer Unternehmen sind betroffen, wenn sie KI-Systeme in der EU auf den Markt bringen, einsetzen, oder wenn die Ergebnisse in der EU genutzt werden.

Welche Bussgelder drohen bei Nicht-Compliance?

Die Bussgelder sind gestaffelt: Bis zu EUR 35 Millionen oder 7% des weltweiten Jahresumsatzes fuer verbotene Praktiken, EUR 15 Mio. oder 3% fuer Hochrisiko-Verstoesse, EUR 7,5 Mio. oder 1% fuer falsche Angaben.

Ab wann muss mein Unternehmen compliant sein?

Die Kernpflichten fuer Hochrisiko-KI gelten ab dem 2. August 2026. Verbotene Praktiken sind seit Februar 2025 untersagt. GPAI-Pflichten seit August 2025. Vollstaendige Anwendung ab August 2027.

Was kostet EU AI Act Compliance?

mazdek bietet EU AI Act Compliance ab CHF 5'000 an. Dank KI-gestuetzter Automatisierung sparen Sie bis zu 70% gegenueber traditioneller Beratung, die oft CHF 80'000 bis 2 Millionen kostet.

Ist mein Chatbot ein Hochrisiko-KI-System?

Standard-Chatbots fallen unter begrenztes Risiko (Transparenzpflicht). Wird er fuer Hochrisiko-Zwecke wie medizinische Beratung oder Kreditentscheidungen eingesetzt, gelten strengere Anforderungen.

Weiterlesen

EU AI Act Compliance — bevor es zu spaet ist

Lassen Sie 19 spezialisierte KI-Agenten Ihre Compliance sicherstellen — ab CHF 5'000, bis zu 70% guenstiger als traditionelle Beratung, mit Schweizer Praezision.

Alle Artikel