Am 2. August 2026 wird der EU AI Act fuer Hochrisiko-KI-Systeme vollstaendig anwendbar — und betrifft auch Schweizer Unternehmen, die in den EU-Markt liefern. Die Verordnung klassifiziert KI-Systeme in vier Risikostufen, verlangt umfangreiche Dokumentation und technische Standards, und droht mit Bussgeldern von bis zu EUR 35 Millionen oder 7% des weltweiten Jahresumsatzes. Aus unserer Arbeit mit ueber 130 Schweizer Unternehmen wissen wir: Viele unterschaetzen den Aufwand massiv. Dieser Leitfaden gibt Ihnen alles, was Sie fuer die Compliance brauchen.
Was ist der EU AI Act? Hintergrund und Bedeutung
Der EU AI Act (Verordnung (EU) 2024/1689) ist das weltweit erste umfassende Gesetz zur Regulierung kuenstlicher Intelligenz. Am 1. August 2024 in Kraft getreten, wird er stufenweise anwendbar. Die wichtigsten Daten:
| Datum | Meilenstein | Betroffene Systeme |
|---|---|---|
| 2. Feb. 2025 | Verbote in Kraft | Unannehmbares Risiko (Social Scoring, manipulative KI) |
| 2. Aug. 2025 | GPAI-Pflichten | General Purpose AI (ChatGPT, Claude, Gemini etc.) |
| 2. Aug. 2026 | Kernpflichten | Hochrisiko-KI-Systeme (Artikel 6(2)) |
| 2. Aug. 2027 | Vollstaendige Anwendung | Alle KI-Systeme inkl. Artikel 6(1) |
«Der EU AI Act ist nicht nur eine europaeische Verordnung — er setzt den globalen Standard fuer KI-Regulierung. Schweizer Unternehmen, die in den EU-Markt liefern, muessen jetzt handeln.»
— ARES, Cybersecurity Agent bei mazdek
Die Verordnung folgt einem risikobasierten Ansatz: Je hoeher das Risiko eines KI-Systems fuer Gesundheit, Sicherheit und Grundrechte, desto strenger die Anforderungen. Dieses Prinzip kennen Schweizer Unternehmen bereits aus der Medizinprodukte-Regulierung (MDR) und der Maschinenverordnung.
Die vier Risikostufen: Wo steht Ihr KI-System?
Der EU AI Act teilt KI-Systeme in vier Risikokategorien ein. Die korrekte Klassifizierung ist der erste und wichtigste Schritt — sie bestimmt Ihre gesamten Compliance-Pflichten. Als spezialisierte KI-Agentur in der Schweiz haben wir bei mazdek bereits Dutzende Klassifizierungen durchgefuehrt:
Stufe 1: Unannehmbares Risiko — Verboten
Diese KI-Systeme sind seit dem 2. Februar 2025 in der EU verboten:
- Social Scoring: Bewertung von Personen basierend auf Sozialverhalten
- Manipulative KI: Systeme, die unterschwellige Techniken nutzen, um Verhalten zu beeinflussen
- Biometrische Echtzeit-Ueberwachung: in oeffentlichen Raeumen (mit Ausnahmen fuer Strafverfolgung)
- Emotionserkennung: am Arbeitsplatz und in Bildungseinrichtungen
- Predictive Policing: auf Basis individueller Merkmale
Stufe 2: Hohes Risiko — Strenge Regulierung
Die umfangreichsten Anforderungen gelten fuer Hochrisiko-KI-Systeme. Dazu gehoeren:
- Personalwesen: KI fuer Bewerbungsscreening, Leistungsbewertung, Befoerderungen
- Kreditwuerdigkeit: Automatisierte Bonitaetspruefung und Scoring
- Medizin: KI-gestuetzte Diagnostik und Behandlungsempfehlungen
- Kritische Infrastruktur: Energie, Wasser, Verkehr
- Bildung: Automatisierte Pruefungsbewertung, Zugangssteuerung
- Justiz: Risikobewertung im Strafrecht, richterliche Entscheidungshilfen
Stufe 3: Begrenztes Risiko — Transparenzpflichten
Fuer Chatbots, Deepfakes und KI-generierte Inhalte gelten spezifische Kennzeichnungspflichten. Nutzer muessen immer informiert werden, dass sie mit KI interagieren.
Stufe 4: Minimales Risiko — Freiwillig
Spam-Filter, Empfehlungsalgorithmen und KI in Videospielen unterliegen keinen spezifischen Pflichten. Freiwillige Verhaltenskodizes werden empfohlen.
Warum Schweizer Unternehmen betroffen sind
Die Schweiz ist kein EU-Mitglied — dennoch sind die meisten Schweizer Technologieunternehmen vom EU AI Act betroffen. Der Grund: extraterritoriale Wirkung. Der AI Act gilt fuer:
- Anbieter: Jedes Unternehmen, das ein KI-System in der EU auf den Markt bringt — unabhaengig vom Firmensitz
- Betreiber: Unternehmen, die KI-Systeme in der EU einsetzen
- Output in der EU: Wenn die Ergebnisse eines KI-Systems in der EU genutzt werden
Konkret bedeutet das: Wenn ein Zuercher FinTech-Startup eine KI-basierte Kreditpruefung entwickelt, die von einer deutschen Bank eingesetzt wird, muss das Schweizer Unternehmen die Hochrisiko-Anforderungen des EU AI Act erfuellen.
Hinzu kommt: Das Schweizer Datenschutzgesetz (nDSG), seit September 2023 in Kraft, ergaenzt den EU AI Act auf nationaler Ebene. Und das geplante Schweizer KI-Regulierungsrahmenwerk, das der Bundesrat derzeit erarbeitet, wird voraussichtlich stark am EU AI Act orientiert sein.
Die 7 Compliance-Anforderungen fuer Hochrisiko-KI
Fuer Hochrisiko-KI-Systeme verlangt der EU AI Act sieben zentrale Compliance-Massnahmen. Bei ueber 40 umgesetzten Compliance-Projekten haben wir bei mazdek folgenden Rahmen entwickelt:
1. Risikomanagement-System (Artikel 9)
Ein kontinuierliches, dokumentiertes Risikomanagement ueber den gesamten Lebenszyklus des KI-Systems. Unser ARES Cybersecurity Agent implementiert automatisierte Risikobewertungen, die regulatorische Anforderungen mit technischer Realitaet verbinden.
2. Daten-Governance (Artikel 10)
Trainings-, Validierungs- und Testdaten muessen definierten Qualitaetskriterien entsprechen: Repraesentativitaet, Fehlerfreiheit, Vollstaendigkeit. Unser ORACLE Data Agent stellt die Datenqualitaet sicher und dokumentiert die gesamte Daten-Pipeline.
3. Technische Dokumentation (Artikel 11)
Umfassende Dokumentation vor dem Inverkehrbringen: Systembeschreibung, Entwicklungsprozess, Leistungskennzahlen, Risikobewertungen. NABU, unser Documentation Agent, generiert AI-Act-konforme Dokumentation automatisch.
4. Aufzeichnungspflicht (Artikel 12)
Automatische Protokollierung (Logging) aller relevanten Entscheidungen und Systemereignisse — rueckverfolgbar und manipulationssicher. Unser ARGUS Guardian ueberwacht diese Logs 24/7.
5. Transparenz (Artikel 13)
Betreiber muessen die Funktionsweise des KI-Systems verstehen koennen. Gebrauchsanweisungen muessen klar und verstaendlich sein. Dies betrifft auch die Erklaerbarkeit (Explainability) der KI-Entscheidungen.
6. Menschliche Aufsicht (Artikel 14)
Hochrisiko-KI-Systeme muessen so konzipiert sein, dass Menschen sie wirksam beaufsichtigen koennen. Das bedeutet: Eingriffmoeglichkeiten, Stopp-Mechanismen und die Moeglichkeit, KI-Entscheidungen zu ueberstimmen.
7. Genauigkeit, Robustheit und Cybersicherheit (Artikel 15)
KI-Systeme muessen ein angemessenes Mass an Genauigkeit, Robustheit und Cybersicherheit aufweisen. Unser NANNA QA Agent testet KI-Systeme auf alle drei Dimensionen — von Accuracy-Metriken bis Adversarial Attacks.
Bussgelder: Was droht bei Nicht-Compliance?
Der EU AI Act sieht ein gestaffeltes Bussgeld-System vor, das sich an der DSGVO orientiert — aber deutlich hoeher ausfaellt:
| Verstoss | Bussgeld (Maximum) | Berechnung |
|---|---|---|
| Verbotene KI-Praktiken | EUR 35 Millionen | oder 7% des weltweiten Jahresumsatzes |
| Hochrisiko-Verstoss | EUR 15 Millionen | oder 3% des weltweiten Jahresumsatzes |
| Falsche Angaben | EUR 7,5 Millionen | oder 1% des weltweiten Jahresumsatzes |
Fuer KMU und Startups gelten reduzierte Obergrenzen — der jeweils niedrigere Betrag. Aber auch ein Bussgeld von EUR 7,5 Millionen kann fuer ein mittelstaendisches Unternehmen existenzbedrohend sein.
Zum Vergleich: Die hoechste DSGVO-Strafe betrug EUR 1,2 Milliarden (Meta, 2023). Experten erwarten, dass die EU AI Act-Durchsetzung aehnlich aggressiv erfolgen wird.
Schritt-fuer-Schritt: So werden Sie compliant
Basierend auf unserer Erfahrung bei mazdek empfehlen wir folgenden 6-Stufen-Plan:
Schritt 1: KI-Inventar erstellen (Wochen 1-2)
Erfassen Sie alle KI-Systeme in Ihrem Unternehmen — auch die, die Sie nicht selbst entwickelt haben. Viele Unternehmen nutzen KI-Systeme in SaaS-Tools, ohne es zu wissen. Unser PROMETHEUS Agent analysiert Ihre gesamte Systemlandschaft und identifiziert KI-Komponenten automatisch.
Schritt 2: Risiko-Klassifizierung durchfuehren (Wochen 2-4)
Klassifizieren Sie jedes identifizierte KI-System in eine der vier Risikostufen. Nutzen Sie die offizielle EU-Checkliste oder unseren automatisierten AI Act Compliance Checker — entwickelt von unserem ARES Agent.
Schritt 3: Gap-Analyse (Wochen 4-6)
Vergleichen Sie den Ist-Zustand mit den Anforderungen. Wo fehlt Dokumentation? Wo fehlen Logging-Mechanismen? Wo ist menschliche Aufsicht unzureichend?
Schritt 4: Technische Umsetzung (Wochen 6-16)
Implementieren Sie die fehlenden technischen Massnahmen: Risikomanagement-System, Monitoring, Logging, Human-in-the-Loop-Prozesse. Hier setzt mazdek mit einem Team aus spezialisierten Agenten an:
- ARES: Security-Audit und Penetration Testing
- NABU: Technische Dokumentation nach AI-Act-Standard
- NANNA: Qualitaetssicherung und Testing
- ARGUS: Kontinuierliches Monitoring (24/7)
- ORACLE: Daten-Governance und Qualitaetssicherung
Schritt 5: Konformitaetsbewertung (Wochen 16-20)
Fuer die meisten Hochrisiko-Systeme reicht eine interne Konformitaetsbewertung (Self-Assessment). Bestimmte Systeme (biometrische Identifizierung, kritische Infrastruktur) benoetigen eine Bewertung durch eine benannte Stelle (Notified Body).
Schritt 6: CE-Kennzeichnung und EU-Datenbank (Wochen 20-22)
Nach erfolgreicher Konformitaetsbewertung: CE-Kennzeichnung anbringen und das System in der EU-Datenbank fuer Hochrisiko-KI registrieren.
Praxisbeispiel: Schweizer FinTech wird AI-Act-konform
Ein Schweizer FinTech-Unternehmen (85 Mitarbeiter, Sitz in Zug) entwickelt eine KI-basierte Kreditwuerdigkeitspruefung, die von Banken in Deutschland, Oesterreich und Frankreich eingesetzt wird.
Ausgangslage
- KI-System zur automatisierten Bonitaetspruefung (Hochrisiko nach Annex III)
- Keine AI-Act-konforme Dokumentation vorhanden
- Kein formales Risikomanagement-System
- Logging nur rudimentaer implementiert
- Geschaetzter interner Aufwand: 12+ Monate mit 3 Vollzeit-Mitarbeitern
Unsere Loesung
mazdek setzte ein Team aus 5 spezialisierten KI-Agenten ein:
| Agent | Aufgabe | Ergebnis |
|---|---|---|
| ARES | Risikobewertung und Security-Audit | 42 Risiken identifiziert, 38 behoben |
| NABU | Technische Dokumentation | 280 Seiten AI-Act-konforme Doku |
| NANNA | Testing und Validierung | Test-Coverage von 28% auf 94% |
| ARGUS | Monitoring-System aufsetzen | 24/7 Logging und Alerting |
| ORACLE | Daten-Governance | Daten-Pipeline vollstaendig dokumentiert |
Ergebnisse nach 14 Wochen
| Metrik | Vorher | Nachher |
|---|---|---|
| AI-Act-Konformitaet | 12% | 100% |
| Dokumentationsumfang | 23 Seiten | 280 Seiten |
| Risiken identifiziert/behoben | 0 | 42/38 |
| Test-Coverage | 28% | 94% |
| Projektdauer | 12+ Monate (geschaetzt) | 14 Wochen |
| Kosten | CHF 380'000 (intern geschaetzt) | CHF 67'000 |
Schweizer Datenschutz vs. EU AI Act: Die Doppelbelastung
Schweizer Unternehmen stehen vor einer doppelten regulatorischen Herausforderung:
| Aspekt | Schweizer nDSG | EU DSGVO | EU AI Act |
|---|---|---|---|
| Fokus | Personendaten | Personendaten | KI-Systeme |
| Geltungsbereich | Schweiz | EU/EWR + extraterritorial | EU/EWR + extraterritorial |
| Bussgeld (max.) | CHF 250'000 (persoenlich) | EUR 20 Mio. / 4% Umsatz | EUR 35 Mio. / 7% Umsatz |
| Risikobewertung | DSFA (bei hohem Risiko) | DSFA (bei hohem Risiko) | Pflicht fuer alle Hochrisiko-KI |
| Dokumentation | Verarbeitungsverzeichnis | Verarbeitungsverzeichnis | Umfassende technische Doku |
Der entscheidende Vorteil: Unternehmen, die bereits DSGVO-konform sind, haben eine solide Basis fuer die AI-Act-Compliance. Unsere Erfahrung zeigt, dass etwa 30-40% der DSGVO-Massnahmen direkt auf den AI Act uebertragbar sind.
General Purpose AI: Was bedeutet das fuer ChatGPT, Claude und Co.?
Seit dem 2. August 2025 gelten spezifische Pflichten fuer Anbieter von General Purpose AI (GPAI) — also grosse Sprachmodelle wie ChatGPT, Claude, Gemini und Llama. Diese Pflichten betreffen primaer die Anbieter (OpenAI, Anthropic, Google, Meta), haben aber auch Auswirkungen auf Unternehmen, die diese Modelle nutzen:
- Transparenzpflichten: Anbieter muessen offenlegen, welche Trainingsdaten verwendet wurden und das EU Copyright einhalten
- Systemrisiko-Bewertung: Modelle mit grosser Reichweite muessen zusaetzliche Sicherheitstests bestehen
- Downstream-Verantwortung: Wenn Sie ein GPAI-Modell in ein Hochrisiko-System integrieren, tragen Sie als Anbieter die volle Compliance-Verantwortung
Fuer Schweizer Unternehmen bedeutet das: Wenn Sie OpenAI oder Anthropic APIs in Ihrem Produkt verwenden, muessen Sie sicherstellen, dass Ihre Anwendung insgesamt compliant ist — auch wenn das zugrundeliegende Modell bereits GPAI-konform ist. Bei mazdek nutzen wir das mazdekClaw Orchestrierungssystem, das AI-Act-konforme Guardrails direkt in die KI-Pipeline integriert.
Compliance-Checkliste: 10 Sofortmassnahmen
Starten Sie noch heute mit diesen Massnahmen — unabhaengig davon, ob Ihr System als Hochrisiko eingestuft wird:
- KI-Inventar erstellen: Alle KI-Systeme im Unternehmen erfassen
- Risiko-Klassifizierung: Jedes System einer Risikostufe zuordnen
- Verantwortliche benennen: AI Compliance Officer oder Team definieren
- Dokumentation starten: Technische Dokumentation fuer Hochrisiko-Systeme beginnen
- Logging implementieren: Automatische Protokollierung aller KI-Entscheidungen
- Human-in-the-Loop: Menschliche Aufsichtsprozesse definieren und implementieren
- Bias-Testing: KI-Systeme auf Diskriminierung und Verzerrungen pruefen
- Datenschutz-Synergien: Bestehende DSGVO-Massnahmen auf AI-Act-Relevanz pruefen
- Schulungen planen: Mitarbeiter ueber AI-Act-Pflichten informieren
- Zeitplan erstellen: Realistischen Compliance-Fahrplan mit Meilensteinen definieren
Was kostet AI-Act-Compliance?
Die Kosten haengen stark von der Komplexitaet und Anzahl Ihrer KI-Systeme ab:
| Unternehmensgroesse | Typische KI-Systeme | Traditionell | Mit mazdek |
|---|---|---|---|
| KMU (10-50 MA) | 1-3 Systeme | CHF 80'000-150'000 | Ab CHF 5'000 |
| Mid-Market (50-250 MA) | 3-10 Systeme | CHF 200'000-500'000 | Ab CHF 25'000 |
| Enterprise (250+ MA) | 10+ Systeme | CHF 500'000-2'000'000 | Ab CHF 50'000 |
mazdek bietet EU AI Act Compliance ab CHF 5'000 an. Unsere KI-gestuetzten Agenten automatisieren grosse Teile der Dokumentation, des Testings und des Monitorings — was die Kosten um bis zu 70% gegenueber traditionellen Beratungsansaetzen reduziert.
Fazit: Handeln Sie jetzt — der 2. August 2026 kommt schneller als gedacht
Der EU AI Act ist keine ferne Zukunftsmusik — die Deadline fuer Hochrisiko-Systeme ist in weniger als 4 Monaten. Die wichtigsten Takeaways:
- Extraterritoriale Wirkung: Auch Schweizer Unternehmen sind betroffen, wenn sie in den EU-Markt liefern
- Hohe Bussgelder: Bis zu EUR 35 Millionen oder 7% des Jahresumsatzes
- Stufenweise Einfuehrung: Die meisten Pflichten gelten ab August 2026
- Doppelbelastung: Schweizer nDSG + EU DSGVO + EU AI Act erfordern eine koordinierte Strategie
- KI beschleunigt Compliance: mazdek's spezialisierte Agenten reduzieren Aufwand und Kosten um bis zu 70%
Die gute Nachricht: Mit dem richtigen Partner ist AI-Act-Compliance kein Mammut-Projekt. mazdek kombiniert Schweizer Praezision mit KI-gestuetzter Effizienz — damit Sie sich auf Ihr Kerngeschaeft konzentrieren koennen, waehrend unsere 19 Agenten die Compliance sicherstellen.