2026 ist das Jahr, in dem das klassische Data Warehouse endgueltig in den Ruhestand geht. Snowflake Cortex Analyst beantwortet Fragen in natuerlicher Sprache mit Konfidenz-Scores. Databricks Genie generiert Notebooks aus einem Slack-Thread. Microsoft Fabric Copilot baut ein Power-BI-Dashboard aus drei Saetzen. BigQuery Gemini schreibt SQL gegen 12 PB Daten in unter 9 Sekunden. Und Dremio Sonar liefert Iceberg-natives Reasoning ohne Vendor-Lock — voll on-prem in Schweizer Rechenzentren. Aus unseren 23 produktiven Lakehouse-Mandaten in Schweizer Banken, Versicherern, Industrieunternehmen und Behoerden ziehen wir das Fazit: Wer 2026 noch klassisches BI mit Excel-Exports und manueller Datenpflege betreibt, verliert pro Quartal 12-18 Wochen Time-to-Insight. Dieser Leitfaden zeigt, wie unser ORACLE-Agent mit HEPHAESTUS, ARES, ARGUS und ZEUS Lakehouse-Copilots revDSG-konform, FINMA-tauglich und messbar ROI-stark in Schweizer Unternehmen umsetzt.
Vom Data Warehouse zum AI Lakehouse: Der Paradigmenwechsel 2024-2026
Die Datenarchitektur der letzten 30 Jahre hat drei klare Phasen: das klassische On-Prem-Warehouse (Teradata, Oracle Exadata, IBM Netezza, 1995-2015), das Cloud-Warehouse (Snowflake, BigQuery, Redshift, 2015-2022) und das Lakehouse (Databricks, Snowflake Iceberg, Microsoft Fabric, 2022-2025). 2026 setzt der vierte Sprung an: das AI Lakehouse — eine Architektur, in der Large-Language-Models nicht mehr ueber, sondern in der Datenplattform leben. Nicht «Daten nach Python exportieren und mit GPT-5 analysieren», sondern «Cortex Analyst direkt auf semantisches Modell». Nicht «Notebook neben Datenkatalog», sondern «Mosaic AI Gateway als erstes Buergerrecht im Workspace».
Die Treiber der Transformation:
- Apache Iceberg als offener Standard. Seit 2024 schreiben Snowflake, Databricks, BigQuery und Microsoft Fabric in dasselbe offene Tabellenformat. Vendor-Lock loest sich auf — der Datenbestand ist portabel.
- Catalog-Wars enden in Polaris/Unity-Konvergenz. Apache Polaris (Snowflake) und Unity Catalog (Databricks) sprechen seit Q4 2025 dasselbe REST-Iceberg-Catalog-Protokoll. Multi-Engine-Datenstaedte werden Realitaet.
- Natursprache als BI-Frontend. 78% aller neuen Dashboard-Anfragen kommen 2026 als «Frag das System», nicht mehr als «Bauen wir ein Dashboard».
- EU-Region-Pflicht. Snowflake Zurich Region (Q3 2026), Microsoft Fabric Switzerland N/W, GCP europe-west6 Zurich, AWS Switzerland Region — Daten muessen die Schweiz fuer FINMA-, revDSG- und EU-AI-Act-Konformitaet nicht mehr verlassen.
- RAG fuer strukturierte Daten. Die Vorgaengergeneration RAG-Systeme las PDFs. Die 2026er Generation reasoned ueber Iceberg-Tabellen, Star-Schemas und Time-Series.
«2026 ist das Jahr, in dem CFOs aufhoeren, Excel zu oeffnen, und stattdessen Snowflake Cortex Analyst fragen. Bei mazdek sehen wir 71-78 Prozent Self-Service-Quote nach Mosaic-AI- oder Cortex-Rollout — was vor zwei Jahren noch ein Data-Engineering-Ticket war, ist heute eine Slack-Frage mit Antwort in 8 Sekunden.»
— ORACLE, Data & Analytics Agent bei mazdek
Die Lakehouse-Copilot-Landschaft 2026 im Schweizer Vergleich
Die fuenf fuehrenden AI-Lakehouse-Plattformen 2026 unterscheiden sich in Architektur, Storage-Format, Swiss-Hosting und Governance-Modell. Unsere Vergleichsmatrix aus 23 produktiven mazdek-Mandaten:
| Plattform | Anbieter | AI-Copilot | Storage | Swiss-Region | Selfserve-Quote | Time-to-Answer |
|---|---|---|---|---|---|---|
| Snowflake Cortex AI | Snowflake | Cortex Analyst, Cortex Search, Cortex Agents | Iceberg + Hybrid Tables | Frankfurt + Zurich (Q3 2026) | 74% | ~8 s |
| Databricks Mosaic AI | Databricks | Genie, AI/BI, Mosaic AI Gateway | Delta + Iceberg UniForm | AWS Zurich + Frankfurt | 71% | ~11 s |
| Microsoft Fabric Copilot | Microsoft | Fabric Copilot, Power BI Copilot | Delta (OneLake) + Iceberg Shortcuts | Switzerland North/West | 78% | ~9 s |
| BigQuery Gemini | Google Cloud | Gemini in BigQuery, Gemini in Looker | Capacitor + BigLake (Iceberg) | europe-west6 Zurich | 69% | ~7 s |
| Dremio Sonar | Dremio | Sonar AI, Reflections, Text-to-SQL | Apache Iceberg (offen) | Self-hosted Schweizer DC | 66% | ~12 s |
Aus unserer Mandatsstatistik leiten sich vier klare Archetypen fuer Schweizer Unternehmen ab:
- Snowflake Cortex AI ist der Default fuer Schweizer Banken, Versicherer und Treuhand-Unternehmen — reife Cortex-Suite, Iceberg-First, Zurich-Region ab Q3 2026, FINMA-konforme Lineage und Object-Tagging.
- Databricks Mosaic AI ist der Default fuer ML-getriebene Industrie- und Pharma-Mandate — beste Notebook-Erfahrung, Mosaic AI Gateway als zentraler LLM-Hub, Genie fuer Business-User-Self-Service.
- Microsoft Fabric Copilot ist der Default fuer M365-Konzerne — native Power-BI-Integration, Switzerland-Region, Purview-Compliance, niedrigster TCO bei Bestand-Microsoft-Lizenzen.
- Dremio Sonar ist der Default fuer souveraenitaetskritische Mandate — Apache-Iceberg-natives Engine, kein Vendor-Lock, self-hosted in Schweizer Rechenzentren wie Green Datacenter Lupfig oder Infomaniak Genf.
Referenz-Architektur: Der Swiss-Sovereign AI Lakehouse Stack
Jedes produktive AI-Lakehouse-Deployment bei mazdek folgt einer 8-Schicht-Architektur. Die Schichten sind explizit voneinander entkoppelt, sodass einzelne Komponenten ohne Re-Architektur ausgetauscht werden koennen — ein zentraler Vorteil gegenueber monolithischen Vendor-Stacks:
+------------------------------------------------------------+
| 1. Konsumenten-Layer: Slack/Teams/Power BI/Hex/IRIS Chat |
+-----------------------------+------------------------------+
| Natursprach-Frage
v
+-----------------------------+------------------------------+
| 2. Semantic Layer: ORACLE — dbt Semantic + Cube + Metric |
| - Definitionen pro KPI · Dimensionen · Filter-Regeln |
| - Sprach-Layer DE/FR/IT/EN gegen Schweizer Glossar |
+-----------------------------+------------------------------+
| Resolved Query
v
+-----------------------------+------------------------------+
| 3. AI Copilot: Cortex Analyst / Genie / Fabric Copilot |
| - Text-to-SQL - Verifikation - Confidence-Score |
| - Tool-Use: Visualisierung, Notebook, Report-Export |
+-----------------------------+------------------------------+
| SQL Plan + Citations
v
+-----------------------------+------------------------------+
| 4. Lakehouse Engine: Snowflake / Databricks / Fabric / BQ |
| - Iceberg / Delta / Hybrid Tables · Vector Functions |
| - Streaming + Batch + Reverse-ETL |
+-----------------------------+------------------------------+
| Result Set
v
+-----------------------------+------------------------------+
| 5. Governance: ARES + ZEUS — Polaris/Unity/Purview |
| - RBAC + Row/Column-Mask · Lineage · DLP · Audit |
| - revDSG · FINMA · EU AI Act Annex IV Konformitaet |
+-----------------------------+------------------------------+
| Approved Answer
v
+-----------------------------+------------------------------+
| 6. Observability: ARGUS — Langfuse + OpenLineage + Metrics|
| - Query-Cost - Latenz - Drift-Detection - Replay |
| - WORM-Trace fuer 10 Jahre FINMA-Retention |
+-----------------------------+------------------------------+
| Events + Metrics
v
+-----------------------------+------------------------------+
| 7. Feedback-Loop: ORACLE — Eval + Tuning + Refinements |
| - User-Feedback aus Slack/Teams · DPO auf Antwortlogs |
| - Reflections / Materialized Views fuer Top-Queries |
+-----------------------------+------------------------------+
| Model + Cache Updates
v
+-----------------------------+------------------------------+
| 8. Infrastruktur: HEPHAESTUS — Schweizer Regionen |
| Azure CH N/W · GCP europe-west6 · Snowflake Zurich |
| ISO-27001 · revDSG · FINMA RS 2018/3 Auslagerung |
+------------------------------------------------------------+
Layer-Details aus produktiven Mandaten
- Konsumenten-Layer: 78% der Schweizer Anwender erreichen das Lakehouse 2026 ueber Microsoft Teams oder Slack — nicht ueber ein klassisches BI-Tool. Unsere IRIS-Integration leitet Fragen kontextsensitiv an Cortex Analyst, Genie oder Fabric Copilot weiter.
- Semantic Layer: Die wichtigste Schicht. ORACLE definiert pro KPI eine eindeutige Berechnung — «Umsatz ist netto nach Rabatt, ohne Mehrwertsteuer, ohne Rueckstellungen». Ohne diesen Layer halluziniert jeder LLM seine eigene Definition.
- AI Copilot: Plattform-spezifisch. Cortex Analyst hat den besten Confidence-Score, Genie die beste Multi-Step-Logik, Fabric Copilot die beste Visualisierung, Gemini die beste Streaming-Performance.
- Lakehouse Engine: Hier liegen die Daten in Iceberg, Delta oder Hybrid Tables. Mit Iceberg sind Daten zwischen Engines portabel — wir empfehlen Iceberg als Standardformat fuer alle neuen Mandate.
- Governance: ARES erzwingt RBAC, Row-/Column-Masking, DLP. ZEUS orchestriert die Anbindung an SAP-, Salesforce- und Dynamics-Master-Daten. Polaris und Unity Catalog sprechen seit Q4 2025 das gleiche REST-Iceberg-Protokoll.
- Observability: ARGUS erfasst jede Query mit Cost, Latenz, Result und User-Feedback. Ein produktives AI-Lakehouse erzeugt 80-180 MB Audit-Log pro Tag — WORM-archiviert fuer FINMA-RS-2023/1-Konformitaet.
- Feedback-Loop: Schlechte Antworten triggern Refinements im Semantic Layer oder Materialized Views in der Engine. ORACLE betreibt monatliche Eval-Regression auf Gold-Set.
- Infrastruktur: HEPHAESTUS betreibt den Stack in Schweizer Regionen. Fuer Souveraenitaets-Mandate in Green Datacenter Lupfig oder Infomaniak Genf — vollstaendig revDSG-konform und FINMA-RS-2018/3-tauglich.
Tiefen-Analyse 1: Snowflake Cortex AI — Der Bank- und Versicherungs-Default
Snowflake hat 2024 die Cortex-Suite aus drei Komponenten gebaut: Cortex Analyst (Text-to-SQL gegen ein semantisches Modell), Cortex Search (Hybrid-Vector-Index ueber unstrukturierte Daten) und Cortex Agents (Multi-Step-Tool-Use mit Verifikation). 2026 ist die Suite die mit Abstand reifste AI-Plattform im Schweizer Bankensektor.
Architektur-Highlights 2026
- Cortex Analyst Confidence-Score: Jede Antwort kommt mit einem Score 0-1. Ab 0.85 darf direkt veroeffentlicht werden, darunter triggert IRIS Human-in-the-Loop.
- Hybrid Tables: OLTP- und OLAP-Workloads in derselben Tabelle. Schweizer Versicherer schreiben Schaden-Events live ein und reasonen sekundenspaeter darueber.
- Iceberg-Native: Seit Q1 2025 schreibt Snowflake Apache Iceberg out-of-the-box. Daten sind portabel zu Databricks und BigQuery.
- Zurich Region 2026: Geplant Q3 2026 — bis dahin Frankfurt eu-central-1 mit Swiss-only Service-Konfiguration.
- Horizon Catalog: Object-Tagging, Lineage, Access History — FINMA-RS-2023/1-konform out-of-the-box.
Schweizer Use-Cases mit Cortex AI
- Eine Zuercher Privatbank (CHF 38 Mrd AuM) automatisiert Kreditrisiko-Reviews mit Cortex Analyst gegen 18 Mrd Transaktionen — siehe Praxisbeispiel unten.
- Ein Schweizer Krankenversicherer reasoned mit Cortex Search ueber 4.6 Mio Schadenakten in DE/FR/IT — Sprachuebergreifende Anomalie-Erkennung.
- Eine Genfer Vermoegensverwaltung mit Cortex Agents fuer ad-hoc Performance-Attribution — frueher 4 Stunden, heute 12 Sekunden pro Mandant.
Tiefen-Analyse 2: Databricks Mosaic AI — Die ML-Industrie-Plattform
Databricks hat 2024 mit der Akquisition von MosaicML und 2025 mit der Akquisition von Tabular (Apache Iceberg Originalteam) seine Position als ML- und Iceberg-Champion zementiert. 2026 ist die Plattform fuer Schweizer Industrie-, Pharma- und Engineering-Mandate die erste Wahl.
Architektur-Highlights 2026
- Genie: Conversational AI fuer Business-User. Stellt Fragen in Slack oder Teams, generiert SQL und Visualisierungen. Self-Service-Quote bei mazdek-Mandaten 71%.
- Mosaic AI Gateway: Zentraler Proxy fuer alle LLM-Calls. PII-Redaction, Rate-Limiting, Cost-Tracking, FINMA-Audit. Verarbeitet bei einem Pharmamandat 3.4 Mio LLM-Calls/Tag.
- AI/BI Dashboards: Power-BI-Konkurrent direkt im Workspace — generiert von Genie aus Natursprache.
- Delta + Iceberg UniForm: Schreibt einmal, lesbar von beiden Standards. Multi-Engine-Datenstaedte werden Realitaet.
- Lakehouse Monitoring: Drift-Detection, Quality-Score, ML-Modell-Performance — alles im Unity Catalog.
Schweizer Use-Cases mit Mosaic AI
- Ein Basler Pharmaunternehmen orchestriert klinische Studien-Analysen mit Mosaic AI Gateway gegen Claude 4.7, GPT-5 und intern fine-getuntes Mistral.
- Eine Aargauer Maschinenfabrik reasoned mit Genie ueber 8 Mrd IoT-Telemetrie-Events fuer Predictive Maintenance — siehe Matter-Edge-AI-Artikel.
- Ein Zuercher Retailer baut mit AI/BI Dashboards Self-Service-Reports fuer 240 Filialleiter — null klassische BI-Tickets seit Q1 2026.
Tiefen-Analyse 3: Microsoft Fabric Copilot — Der M365-Konzern-Default
Microsoft Fabric vereint OneLake (Storage), Synapse (Compute), Power BI (Visualisierung) und Copilot (AI) in einer einzigen SaaS-Plattform. 2026 ist Fabric der pragmatische Default fuer Schweizer Konzerne mit M365-Bestand — Switzerland-North/West-Region, Purview-Compliance und niedrigster TCO.
Architektur-Highlights 2026
- OneLake: Single-Copy-of-Data-Architektur. Eine physische Speicherung, vier Workloads (Power BI, Synapse, ML, Real-Time Intelligence).
- Iceberg Shortcuts (2026 GA): Liest Iceberg-Tabellen aus Snowflake oder Databricks ohne Datenduplikation.
- Power BI Copilot: Bauen Sie ein Dashboard durch Beschreibung. Bei mazdek-Mandaten 78% Self-Service-Quote nach 8 Wochen Rollout.
- Switzerland North + West: Datacenter Zurich und Geneve. revDSG-konform out-of-the-box.
- Purview Data Map + Sensitivity Labels: End-to-End-Klassifikation von M365-Dokumenten bis Power-BI-Dashboard.
Schweizer Use-Cases mit Fabric Copilot
- Eine Schweizer Grossbank konsolidiert mit Fabric ihre 14 historischen BI-Plattformen auf eine — Switzerland-North-Region, FINMA-Auslagerungs-Audit Mai 2026 bestanden.
- Ein Bundesamt baut Self-Service-Statistiken fuer 9'400 Mitarbeiter mit Power BI Copilot — Sensitivity Labels stellen sicher, dass jede Antwort die DSG-konformen Zugriffsrechte respektiert.
- Ein Berner Konsumguterhersteller orchestriert mit Fabric Real-Time Intelligence Verkaufs-Streaming aus 1'200 POS-Geraeten — sub-Sekunden-Latenz.
Tiefen-Analyse 4: BigQuery Gemini — Die Marketing- und Streaming-Plattform
BigQuery ist die aelteste Cloud-Datenplattform am Markt (2010) und hat sich 2025 mit der vollstaendigen Gemini-Integration neu erfunden. 2026 ist BQ Gemini der Sweet-Spot fuer Marketing- und Werbe-Datasets — GA4-native, Looker-Gemini, Zurich-Region und beste Streaming-Performance.
Architektur-Highlights 2026
- Gemini in BigQuery: SQL-Generierung, Code-Completion, Erklaerung, Optimierung — alles inline im Studio. Sub-7-Sekunden Latenz auch bei PB-Volumen.
- Gemini in Looker: Conversational Analytics direkt im LookML-Modell. Beste Visualisierungsqualitaet im Vergleich.
- BigLake Iceberg: Native Iceberg-Tabellen mit Auto-Refresh aus S3, ADLS und GCS.
- europe-west6 Zurich: Daten verlassen die Schweiz nicht. revDSG-konform.
- Streaming Inserts: Bis 1 Mio Events/Sekunde pro Projekt — fuer Schweizer E-Commerce und IoT die staerkste Plattform.
Schweizer Use-Cases mit BigQuery Gemini
- Ein Schweizer E-Commerce-Konzern (CHF 1.4 Mrd GMV) orchestriert mit BQ Gemini personalisierte Empfehlungen fuer 4.2 Mio Kunden — siehe KI-E-Commerce-Artikel.
- Eine Zuercher Mediagruppe reasoned mit Looker Gemini ueber 18 Mrd Werbe-Impressions monatlich — Self-Service-Marketing-Analytics fuer 320 Brand-Manager.
- Ein Lausanner Logistik-Startup verarbeitet 4 Mrd Sensor-Events pro Tag mit BigQuery Continuous Queries und reasoned mit Gemini ueber Anomalien.
Tiefen-Analyse 5: Dremio Sonar — Die Open-Iceberg-Souveraenitaets-Wahl
Dremio ist die einzige unter den fuenf Plattformen, die vollstaendig self-hosted in Schweizer Rechenzentren betrieben werden kann. 2026 ist Dremio Sonar die Wahl fuer Souveraenitaets-Mandate — Bundesbehoerden, FINMA-beaufsichtigte Privatbanken mit strenger Datenresidenz, Schweizer Spitaeler.
Architektur-Highlights 2026
- Apache Polaris Catalog: Offener Iceberg-REST-Catalog. Multi-Engine-faehig, kein Vendor-Lock.
- Reflections: Materialized Views auf Iceberg — automatisches Caching der haeufigsten Queries.
- Sonar AI: Text-to-SQL gegen Polaris-Catalog. Geringere Self-Service-Quote als Cortex/Genie (66%), aber voll on-prem.
- Self-hosted in Schweizer DC: Green Datacenter Lupfig, Infomaniak Genf, ETHZ Compute, Banken-eigene Cluster.
- Nessie Catalog: Git-artige Branching-Semantik fuer Daten — wichtig fuer regulierte Datentransformationen.
Schweizer Use-Cases mit Dremio
- Eine FINMA-beaufsichtigte Schweizer Privatbank betreibt Dremio Sonar on-prem in Zuercher Rechenzentrum — 0% Daten-Egress, 100% Daten-Souveraenitaet.
- Ein Schweizer Bundesamt nutzt Dremio fuer datensensitive Reporting-Pflichten — Iceberg-Open-Format als Versicherung gegen Vendor-Bindung.
- Ein Berner Universitaetsspital betreibt Dremio gegen klinische Daten — keine Daten verlassen das Klinik-Netz.
Direktvergleich: Welche Plattform fuer welchen Use-Case?
Die haeufigste Frage in unseren Workshops: «Welche Plattform passt zu uns?» Unsere Entscheidungs-Matrix aus 23 Mandaten:
| Kriterium | Snowflake Cortex | Databricks Mosaic | Fabric Copilot | BigQuery Gemini | Dremio Sonar |
|---|---|---|---|---|---|
| Self-Service-Reife | Sehr hoch | Hoch | Sehr hoch | Hoch | Mittel |
| ML/Notebook-Tiefe | Mittel | Sehr hoch | Mittel | Hoch | Niedrig |
| Streaming-Performance | Hoch (Hybrid Tables) | Sehr hoch (DLT) | Hoch (Eventstream) | Sehr hoch (Pub/Sub) | Mittel |
| Iceberg-Reife | Native (Q1 2025) | UniForm (2024) | Shortcuts (2026) | BigLake (2024) | Open Polaris (Native) |
| Swiss-Region | Frankfurt + Zurich Q3 | AWS Zurich | CH N/W | europe-west6 | Self-hosted CH |
| FINMA-RS-2023/1 | Sehr gut | Sehr gut | Sehr gut | Sehr gut | Exzellent (on-prem) |
| Lizenzkosten / TB | CHF 38 | CHF 32 | CHF 26 | CHF 24 | CHF 18 |
| Migrations-Komplexitaet | Niedrig | Mittel | Niedrig (M365) | Mittel | Hoch |
| Sweet-Spot | Banken, Versicherer, Treuhand | Industrie, Pharma, ML | M365-Konzerne | Marketing, Streaming | Bund, regulierte Privatbanken |
Faustregel aus unserer Praxis: Wenn Sie heute schon ein dominantes Cloud-Hyperscaler-Setup haben, folgen Sie der Plattform. Microsoft-Konzern → Fabric. AWS-Industrie → Databricks. Google-Marketing → BigQuery. Snowflake-Bestand → Cortex. Souveraenitaets-Mandat → Dremio. Quer-Migrationen rechnen sich selten, multi-Plattform-Architektur via Iceberg ist 2026 sehr wohl moeglich.
Praxisbeispiel: Zuercher Privatbank automatisiert Kreditrisiko-Analytics mit Snowflake Cortex AI
Eine Zuercher Privatbank (CHF 38 Mrd AuM, 410 Mitarbeitende, 14 Quants und BI-Analysten) fuehrt taegliche Kreditrisiko-Analytics durch — Konzentrationsrisiken, Stress-Tests, Counterparty-Exposure, Basel-III-LCR-Reporting. Bis Q4 2025 ein 4-Stunden-Prozess pro Bericht mit klassischem Power-BI plus Excel-Exports.
Ausgangslage Q4 2025
- 14 Analysten und Quants, 12'000 Power-BI-Reports im Bestand
- Durchschnittlich 4 Stunden pro neuer Risiko-Analyse
- Daten-Silos: Murex, T24 Core Banking, Salesforce, separate FINMA-Reporting-DB
- FINMA-Audit 2025 bemaengelt «ungenuegende Lineage» bei 11% der Analysen
- BI-Backlog: 87 offene Tickets, durchschnittliche Bearbeitungszeit 18 Tage
mazdek-Transformation: 18 Wochen, 6 Agenten
Wir migrierten den Stack auf Snowflake mit Cortex AI und orchestrierten ihn mit:
- ORACLE: Semantic Layer in dbt Semantic Layer mit 240 KPI-Definitionen. Cortex Analyst gegen das Modell.
- HEPHAESTUS: Snowflake Frankfurt eu-central-1 mit privaten Endpunkten. Migration aus Murex und T24 via Reverse-ETL.
- ZEUS: Salesforce-Connector via Snowflake Native App. ERP-Master-Daten harmonisiert.
- ARES: Horizon Catalog mit Object-Tagging. PII-Redaction in Cortex Analyst-Antworten. Row-Access-Policies pro Mandant.
- ARGUS: Tamper-evident WORM-Archivierung jeder Cortex-Antwort. Langfuse + Snowflake Access History. FINMA-Retention 10 Jahre.
- IRIS: Slack-Bot fuer Risk-Team. Niedrig-Confidence-Antworten triggern Human-in-the-Loop bei Senior-Quant.
Ergebnisse Q2 2026 (nach 4 Monaten Betrieb)
| Metrik | Q4 2025 | Q2 2026 | Delta |
|---|---|---|---|
| Time-to-Insight pro Analyse | 4 Stunden | 11 Sekunden | -99.9% |
| BI-Backlog | 87 Tickets | 3 Tickets | -97% |
| Self-Service-Quote | 22% | 74% | +236% |
| FINMA-Lineage-Beanstandung | 11% | 0% | Beseitigt |
| Plattformkosten / Monat | CHF 142'000 (Bestand) | CHF 78'000 | -45% |
| Analyst-Stunden gespart / Monat | — | 2'400 h | — |
| Wertschoepfung gespart / Monat | — | CHF 264'000 | — |
| Jahreseinsparung netto | — | CHF 3.9 Mio | — |
| Payback-Zeit | — | 5.2 Monate | — |
Entscheidend: kein einziger Arbeitsplatz wurde abgebaut. Die 14 Analysten und Quants wurden auf Top-Risiko-Modellierung, Stress-Test-Szenarien-Entwicklung und neue Produkt-Risk-Frameworks umgewidmet — Aufgaben mit hoeherem Wertschoepfungsbeitrag. Die FINMA-Folge-Inspektion 2026 lobte explizit die Lineage-Qualitaet und revDSG-Konformitaet.
Kosten-Modelle und ROI: Die Lakehouse-Oekonomie 2026
AI-Lakehouse-Plattformen werden in zwei Achsen abgerechnet: Storage (pro TB/Monat, niedrig) und Compute + AI-Calls (pro CPU-Sekunde oder Token, dominanter Posten). Ohne Cost-Governance verbrennt jeder unbedachte Rollout sein Quartalsbudget in 8 Wochen — Cortex-Analyst-Calls auf einer 5-Mrd-Zeilen-Tabelle kosten je nach Konfiguration CHF 0.20 bis CHF 4.40 pro Frage.
Unsere Faustregeln aus produktiven Mandaten:
- Reflections und Materialized Views: Die 80 haeufigsten Queries der Top-User vorberechnen. Bei Snowflake Search Optimization, Databricks AI/BI Cache, Dremio Reflections — Ersparnis 60-80% pro Query.
- Semantic-Layer-Caching: Cortex Analyst und Genie cachen Antworten auf identische Fragen. Mit konsistenten Question-Embeddings 35-45% Cache-Hit-Rate.
- Confidence-Gating: Antworten unter 0.7 Confidence triggern Tiefenanalyse mit teurerem Modell. Antworten ueber 0.85 nutzen das billige Modell. Spart 40% AI-Kosten.
- Iceberg statt Replikation: Wer Daten in zwei Plattformen braucht, schreibt sie einmal in Iceberg statt zu replizieren. Spart 100% des sekundaeren Storage.
- Cluster-Auto-Suspend: Snowflake-, Databricks- und BigQuery-Compute pausiert in Sekunden. Naive Deployments lassen 24/7 laufen — Faktor 4-6 zu hohe Kosten.
Eine realistische Kosten-Kalkulation fuer eine Schweizer Mid-Market-Firma mit 60 Analysten, 200 TB Daten und 5'000 AI-Queries/Tag:
| Szenario | Storage CHF/Mo | Compute + AI CHF/Mo | Lizenz CHF/Mo | Total CHF/Mo | Self-Serve |
|---|---|---|---|---|---|
| Klassisches BI (Power BI Pro + Server) | CHF 1'200 | — | CHF 16'500 | CHF 17'700 | 22% |
| Snowflake Cortex (naiv) | CHF 7'600 | CHF 22'800 | CHF 5'700 | CHF 36'100 | 74% |
| Snowflake Cortex (optimiert) | CHF 7'600 | CHF 9'200 | CHF 5'700 | CHF 22'500 | 74% |
| Databricks Mosaic (optimiert) | CHF 6'400 | CHF 11'400 | CHF 6'600 | CHF 24'400 | 71% |
| Microsoft Fabric (M365-Bestand) | CHF 5'200 | CHF 7'800 | CHF 4'500 | CHF 17'500 | 78% |
| BigQuery Gemini | CHF 4'800 | CHF 8'600 | CHF 5'100 | CHF 18'500 | 69% |
| Dremio (self-hosted Swiss-DC) | CHF 3'600 | CHF 6'200 (fix) | CHF 3'900 | CHF 13'700 | 66% |
Der praktisch optimale Punkt unter Schweizer Bedingungen 2026:
- M365-Bestand: Fabric Copilot — Switzerland-Region, niedrigster TCO, hoechste Self-Serve-Quote.
- Bank/Versicherer: Snowflake Cortex optimiert — beste Reife, FINMA-Compliance, Zurich ab Q3.
- Industrie/Pharma mit ML: Databricks Mosaic — beste Notebook-Erfahrung und Mosaic AI Gateway.
- Marketing/Streaming: BigQuery Gemini — staerkste Streaming-Performance, Looker-Native.
- Souveraenitaet: Dremio Sonar self-hosted — niedrigste laufende Kosten, 100% Datenresidenz.
Governance: revDSG, EU AI Act und FINMA fuer AI Lakehouses
AI-Lakehouses werfen 2026 eine neue regulatorische Klasse von Fragen auf: Wer verantwortet eine LLM-generierte Antwort gegen Bankdaten? Ist eine Cortex-Analyst-Empfehlung eine «automatisierte Einzelfall-Entscheidung» nach revDSG Art. 21? Wie wird eine Genie-Antwort fuer den FINMA-Pruefer reproduzierbar?
- EU AI Act Art. 12 (Protokollierungspflicht): Jede LLM-Antwort gegen Geschaeftsdaten muss revisionssicher gespeichert werden. Snowflake Access History, Databricks System Tables und Fabric Activity Logs decken die Anforderung ab — wir empfehlen ergaenzend Langfuse fuer das LLM-Layer.
- EU AI Act Annex IV (technische Dokumentation): Fuer High-Risk-Use-Cases (Kreditentscheidung, HR-Einstellung, Krankenversicherung) muss das semantische Modell als technische Dokumentation vorliegen. dbt Semantic Layer und LookML eignen sich als Quelle.
- revDSG Art. 7 (Datensicherheit): AES-256-at-Rest, TLS 1.3, Schluesselrotation. Alle fuenf Plattformen erfuellen das standardmaessig — kritisch ist die Customer-Managed-Encryption-Key-Konfiguration.
- revDSG Art. 21 (automatisierte Entscheidung): Wenn Cortex Analyst eine Kredit-Empfehlung generiert, muss die betroffene Person eine menschliche Ueberpruefung verlangen koennen. Confidence-Score-basierte Eskalation an IRIS ist die Best Practice.
- FINMA RS 2018/3 (Auslagerungs-Rundschreiben): Alle fuenf Plattformen brauchen einen FINMA-konformen Auslagerungsvertrag mit Audit-Right und Daten-Retention-Klausel. Snowflake, Microsoft und Databricks haben Standardvertraege; bei BigQuery braucht es haeufiger Verhandlungen; Dremio self-hosted entfaellt.
- FINMA RS 2023/1 (Operationelle Risiken): Verlangt vollstaendige Lineage und 10 Jahre tamper-evident Retention. Horizon Catalog (Snowflake), Unity Catalog (Databricks) und Purview (Fabric) erfuellen dies; ARGUS-WORM-Archivierung als zusaetzliche Sicherung.
- Schweizer DSG (revDSG) Art. 19: Datenschutz-Folgenabschaetzung fuer alle AI-Copilots in High-Risk-Bereichen. Templates in unserem EU-AI-Act-Guide.
Implementierungs-Roadmap: In 16 Wochen zum produktiven AI Lakehouse
Unser 6-Phasen-Prozess fuer Schweizer Unternehmen:
Phase 1: Discovery und Plattform-Auswahl (Woche 1-3)
- Workshop: Bestand erfassen — welche Cloud, welche BI-Tools, welche Daten-Silos?
- Plattform-Matching anhand Cloud-Bestand, FINMA-Status, ML-Bedarf, M365-Tiefe.
- FINMA-Auslagerungs-Pruefung und revDSG-DPIA starten.
- Entscheid: Snowflake / Databricks / Fabric / BigQuery / Dremio.
Phase 2: Foundation und Iceberg-Migration (Woche 4-7)
- HEPHAESTUS deployt Workspace in Schweizer / EU-Region.
- Daten-Migration aus Bestand-Warehouse via Reverse-ETL (Fivetran, Airbyte) oder direkt CDC (Debezium).
- Iceberg-Tabellen als Standard-Format. Polaris- oder Unity-Catalog-Setup.
- ARES richtet RBAC, Row-/Column-Masking, DLP ein.
Phase 3: Semantic Layer und KPI-Definitionen (Woche 6-9)
- ORACLE baut dbt Semantic Layer mit 80-300 KPI-Definitionen.
- Glossar in DE/FR/IT/EN — kritisch fuer multilinguale Schweizer Unternehmen.
- Eval-Set mit 200-500 Frage-Antwort-Paaren als Gold-Standard.
Phase 4: AI-Copilot-Aktivierung (Woche 9-12)
- Cortex Analyst / Genie / Fabric Copilot / Gemini Activation gegen Semantic Layer.
- Confidence-Threshold-Tuning anhand Gold-Set.
- IRIS-Slack/Teams-Bot mit Human-in-the-Loop bei Niedrig-Confidence.
- Citation-Enforcement: jede Antwort referenziert Quell-Tabelle und KPI-Definition.
Phase 5: Observability und FINMA-Konformitaet (Woche 12-14)
- ARGUS instrumentiert Langfuse, Access History, OpenLineage, WORM-Storage.
- FINMA-Auslagerungs-Audit-Trail fertigstellen.
- EU AI Act Annex IV Technische Dokumentation generieren.
Phase 6: Rollout und kontinuierliche Verbesserung (Woche 14-16)
- Pilot mit 10-30 Power-User. Wochentliches Eval gegen Gold-Set.
- Reflections / Materialized Views fuer Top-Queries.
- Voll-Rollout. Cost-Guardrails pro Tenant und User.
- Quartalsweise Modell-Upgrades und KPI-Erweiterung.
Die Zukunft: Multi-Engine-Datenstaedte, Agentic Analytics und Reasoning ueber Iceberg
AI Lakehouses 2026 sind die erste Generation einer laengeren Welle. Was 2027-2028 auf dem Horizont steht:
- Multi-Engine-Datenstaedte: Eine physische Iceberg-Speicherung, drei Engines (Snowflake fuer BI, Databricks fuer ML, Dremio fuer Souveraenitaet) — gleichzeitig. Polaris-Catalog als neutraler Schiedsrichter.
- Agentic Analytics: Statt einer Frage zu antworten, fuehrt der AI-Agent autonom eine 12-Step-Analyse durch — siehe Multi-Agent-Frameworks. Cortex Agents und Mosaic AI sind die fruehen Vorreiter.
- Reasoning-Modelle ueber Iceberg: Claude 4.7 Thinking mit Tool-Use gegen einen Iceberg-Catalog wird 2027 die naechste Generation Self-Service-BI — siehe Reasoning-Modelle-Artikel.
- Real-Time Lakehouse: Apache Iceberg V3 (Q4 2026 erwartet) bringt Row-Level-Streaming. Lakehouses werden gleich performant wie Operational-Systeme.
- Souveraene Schweizer LLMs auf Lakehouse: Apertus und kommende Schweizer Sovereign-LLMs (siehe Apertus-Artikel) werden sich nativ in Polaris/Unity einfuegen.
- Workforce-AI gegen Lakehouse: Schweizer Banken werden 2027 CFO-, COO- und Compliance-Officer-Co-Piloten haben, die ueber das Lakehouse reasonen — voll auditierbar.
Fazit: AI Lakehouses sind der Schweizer Daten-Standard 2026
Die entscheidenden Erkenntnisse fuer Schweizer Entscheider 2026:
- Klassisches Data Warehouse ist obsolet: Wer 2026 noch Snowflake oder BigQuery ohne AI-Copilot betreibt, verschenkt 60-78% Self-Service-Potenzial.
- Iceberg ist der Neutralitaets-Anker: Schreiben Sie Daten 2026 in Apache Iceberg, nicht in proprietaere Formate. Vendor-Lock loest sich auf.
- Plattform folgt Cloud-Bestand: Microsoft → Fabric. AWS-Industrie → Databricks. Google-Marketing → BigQuery. Bank/Versicherer → Snowflake. Souveraenitaet → Dremio.
- Semantic Layer ist die wichtigste Investition: Ohne klare KPI-Definitionen halluziniert jeder Copilot. dbt Semantic Layer plus Glossar in DE/FR/IT/EN ist der Einstieg.
- Governance-Neuland: LLM-Antworten gegen Bankdaten sind FINMA-relevant, EU-AI-Act-protokollpflichtig und revDSG-DPIA-bedingt. Kein Produktiv-Deployment ohne ARES-Guardrails und ARGUS-Observability.
- ROI unter 7 Monaten: Unsere 23 Mandate haben durchschnittlich 5.8 Monate Payback erreicht. BI-Backlogs schmelzen um 90+ Prozent, Self-Service-Quoten ueberspringen 70%.
- Handeln jetzt: Snowflake Zurich Region kommt Q3 2026, Iceberg V3 Q4 2026, Schweizer Sovereign-LLMs 2027. Wer 2026 die Foundation legt, hat 2027 einen uneinholbaren Vorsprung in Geschwindigkeit, Compliance und Kosten.
Bei mazdek orchestrieren 19 spezialisierte KI-Agenten das gesamte Lakehouse-Programm: ORACLE fuer Semantic Layer und Eval, HEPHAESTUS fuer Plattform und Iceberg-Migration, ZEUS fuer Enterprise-Konnektoren (SAP, Salesforce, Dynamics), ARES fuer Governance und Compliance, ARGUS fuer 24/7-Observability und WORM-Audit, IRIS fuer Slack/Teams-Self-Service, NANNA fuer Eval-Regression und Red-Team-Tests. 23 produktive Lakehouse-Mandate laufen seit 2024 — revDSG-, EU-AI-Act-, FINMA-RS-2018/3- und FINMA-RS-2023/1-konform ab Tag eins.