2026 est l'annee ou le data warehouse classique part definitivement a la retraite. Snowflake Cortex Analyst repond aux questions en langage naturel avec des scores de confiance. Databricks Genie genere des notebooks depuis un fil Slack. Microsoft Fabric Copilot construit un dashboard Power BI en trois phrases. BigQuery Gemini ecrit du SQL contre 12 Po de donnees en moins de 9 secondes. Et Dremio Sonar livre un raisonnement Iceberg-natif sans vendor-lock — entierement on-prem dans des datacenters suisses. De nos 23 mandats Lakehouse en production dans des banques, assureurs, industriels et administrations suisses, nous tirons cette conclusion : qui exploite encore en 2026 du BI classique avec exports Excel et maintenance manuelle des donnees perd 12 a 18 semaines de Time-to-Insight par trimestre. Ce guide montre comment notre agent ORACLE, avec HEPHAESTUS, ARES, ARGUS et ZEUS, deploie des Lakehouse Copilots conformes a la nLPD, conformes FINMA et a ROI mesurable dans les entreprises suisses.
Du data warehouse au AI Lakehouse : le changement de paradigme 2024-2026
L'architecture des donnees des trente dernieres annees a connu trois phases claires : l'entrepot on-prem classique (Teradata, Oracle Exadata, IBM Netezza, 1995-2015), l'entrepot cloud (Snowflake, BigQuery, Redshift, 2015-2022) et le Lakehouse (Databricks, Snowflake Iceberg, Microsoft Fabric, 2022-2025). 2026 amorce le quatrieme saut : l'AI Lakehouse — une architecture dans laquelle les Large Language Models ne vivent plus au-dessus, mais dans la plateforme de donnees. Plus question d'« exporter les donnees vers Python et analyser avec GPT-5 », mais bien de « Cortex Analyst directement sur le modele semantique ». Plus question de « notebook a cote du catalogue de donnees », mais bien de « Mosaic AI Gateway comme premier droit dans le workspace ».
Les moteurs de la transformation :
- Apache Iceberg comme standard ouvert. Depuis 2024, Snowflake, Databricks, BigQuery et Microsoft Fabric ecrivent dans le meme format de table ouvert. Le vendor-lock se dissout — le patrimoine de donnees devient portable.
- La guerre des catalogues se termine en convergence Polaris/Unity. Apache Polaris (Snowflake) et Unity Catalog (Databricks) parlent depuis le T4 2025 le meme protocole REST Iceberg-Catalog. Les villes de donnees multi-engine deviennent realite.
- Le langage naturel comme frontend BI. 78 % de toutes les nouvelles demandes de dashboard arrivent en 2026 sous la forme « pose la question au systeme », plus jamais sous la forme « construisons un dashboard ».
- Obligation de region UE. Region Snowflake Zurich (T3 2026), Microsoft Fabric Suisse N/W, GCP europe-west6 Zurich, region AWS Suisse — les donnees ne doivent plus quitter la Suisse pour la conformite FINMA, nLPD et EU AI Act.
- RAG pour donnees structurees. La generation precedente de RAG lisait des PDF. La generation 2026 raisonne sur des tables Iceberg, des star-schemas et des time-series.
« 2026 est l'annee ou les CFO arretent d'ouvrir Excel et interrogent a la place Snowflake Cortex Analyst. Chez mazdek, nous voyons un taux de self-service de 71 a 78 % apres deploiement de Mosaic AI ou Cortex — ce qui etait il y a deux ans encore un ticket d'ingenierie data est aujourd'hui une question Slack avec reponse en 8 secondes. »
— ORACLE, Data & Analytics Agent chez mazdek
Le paysage Lakehouse Copilot 2026 en comparatif suisse
Les cinq plateformes AI Lakehouse leaders en 2026 se distinguent par leur architecture, leur format de stockage, leur hosting suisse et leur modele de gouvernance. Notre matrice de comparaison issue de 23 mandats mazdek en production :
| Plateforme | Editeur | AI Copilot | Stockage | Region suisse | Taux self-service | Time-to-Answer |
|---|---|---|---|---|---|---|
| Snowflake Cortex AI | Snowflake | Cortex Analyst, Cortex Search, Cortex Agents | Iceberg + Hybrid Tables | Francfort + Zurich (T3 2026) | 74 % | ~8 s |
| Databricks Mosaic AI | Databricks | Genie, AI/BI, Mosaic AI Gateway | Delta + Iceberg UniForm | AWS Zurich + Francfort | 71 % | ~11 s |
| Microsoft Fabric Copilot | Microsoft | Fabric Copilot, Power BI Copilot | Delta (OneLake) + Iceberg Shortcuts | Switzerland North/West | 78 % | ~9 s |
| BigQuery Gemini | Google Cloud | Gemini in BigQuery, Gemini in Looker | Capacitor + BigLake (Iceberg) | europe-west6 Zurich | 69 % | ~7 s |
| Dremio Sonar | Dremio | Sonar AI, Reflections, Text-to-SQL | Apache Iceberg (ouvert) | Datacenter suisse self-hosted | 66 % | ~12 s |
De notre statistique de mandats decoulent quatre archetypes nets pour les entreprises suisses :
- Snowflake Cortex AI est le choix par defaut pour les banques, assureurs et fiduciaires suisses — suite Cortex mature, Iceberg-First, region Zurich a partir du T3 2026, lineage et object-tagging conformes FINMA.
- Databricks Mosaic AI est le choix par defaut pour les mandats industriels et pharmaceutiques portes par le ML — meilleure experience notebook, Mosaic AI Gateway comme hub LLM central, Genie pour le self-service des utilisateurs metier.
- Microsoft Fabric Copilot est le choix par defaut pour les groupes M365 — integration Power BI native, region Suisse, conformite Purview, TCO le plus bas en presence de licences Microsoft existantes.
- Dremio Sonar est le choix par defaut pour les mandats critiques de souverainete — moteur natif Apache Iceberg, aucun vendor-lock, self-hosted dans des datacenters suisses comme Green Datacenter Lupfig ou Infomaniak Geneve.
Architecture de reference : la stack AI Lakehouse Swiss-Sovereign
Chaque deploiement AI Lakehouse en production chez mazdek suit une architecture en 8 couches. Les couches sont explicitement decouplees, de sorte que des composants individuels peuvent etre remplaces sans re-architecture — un avantage central par rapport aux stacks editeur monolithiques :
+------------------------------------------------------------+
| 1. Couche consommateur : Slack/Teams/Power BI/Hex/IRIS Chat|
+-----------------------------+------------------------------+
| Question en langage naturel
v
+-----------------------------+------------------------------+
| 2. Couche semantique : ORACLE — dbt Semantic + Cube + |
| Metric · Definitions par KPI · Dimensions · Filtres |
| Couche linguistique DE/FR/IT/EN sur glossaire suisse |
+-----------------------------+------------------------------+
| Requete resolue
v
+-----------------------------+------------------------------+
| 3. AI Copilot : Cortex Analyst / Genie / Fabric Copilot |
| Text-to-SQL · Verification · Score de confiance |
| Tool-Use : visualisation, notebook, export rapport |
+-----------------------------+------------------------------+
| Plan SQL + citations
v
+-----------------------------+------------------------------+
| 4. Lakehouse Engine : Snowflake / Databricks / Fabric / BQ |
| Iceberg / Delta / Hybrid Tables · Vector Functions |
| Streaming + Batch + Reverse-ETL |
+-----------------------------+------------------------------+
| Resultat
v
+-----------------------------+------------------------------+
| 5. Gouvernance : ARES + ZEUS — Polaris/Unity/Purview |
| RBAC + masque ligne/colonne · Lineage · DLP · Audit |
| nLPD · FINMA · conformite EU AI Act Annexe IV |
+-----------------------------+------------------------------+
| Reponse approuvee
v
+-----------------------------+------------------------------+
| 6. Observabilite : ARGUS — Langfuse + OpenLineage + Metrics|
| Cout des requetes · Latence · Drift · Replay |
| Trace WORM 10 ans pour retention FINMA |
+-----------------------------+------------------------------+
| Evenements + metriques
v
+-----------------------------+------------------------------+
| 7. Boucle de feedback : ORACLE — Eval + Tuning + Refines |
| Feedback utilisateur Slack/Teams · DPO sur reponses |
| Reflections / Materialized Views pour Top Queries |
+-----------------------------+------------------------------+
| Mises a jour modele + cache
v
+-----------------------------+------------------------------+
| 8. Infrastructure : HEPHAESTUS — regions suisses |
| Azure CH N/W · GCP europe-west6 · Snowflake Zurich |
| ISO-27001 · nLPD · FINMA RS 2018/3 externalisation |
+------------------------------------------------------------+
Details des couches issus de mandats en production
- Couche consommateur : 78 % des utilisateurs suisses atteignent le Lakehouse en 2026 via Microsoft Teams ou Slack — plus via un outil BI classique. Notre integration IRIS route les questions de maniere contextuelle vers Cortex Analyst, Genie ou Fabric Copilot.
- Couche semantique : la couche la plus importante. ORACLE definit pour chaque KPI un calcul univoque — « le chiffre d'affaires est net apres remise, hors TVA, hors provisions ». Sans cette couche, chaque LLM hallucine sa propre definition.
- AI Copilot : specifique a la plateforme. Cortex Analyst a le meilleur score de confiance, Genie la meilleure logique multi-etapes, Fabric Copilot la meilleure visualisation, Gemini la meilleure performance streaming.
- Lakehouse Engine : les donnees y reposent en Iceberg, Delta ou Hybrid Tables. Avec Iceberg, les donnees sont portables entre moteurs — nous recommandons Iceberg comme format standard pour tous les nouveaux mandats.
- Gouvernance : ARES applique RBAC, masquage ligne/colonne, DLP. ZEUS orchestre la connexion aux donnees maitres SAP, Salesforce et Dynamics. Polaris et Unity Catalog parlent depuis le T4 2025 le meme protocole REST Iceberg.
- Observabilite : ARGUS capture chaque requete avec cout, latence, resultat et feedback utilisateur. Un AI Lakehouse en production genere 80 a 180 Mo de journal d'audit par jour — archive WORM pour la conformite FINMA RS 2023/1.
- Boucle de feedback : les mauvaises reponses declenchent des affinements dans la couche semantique ou des Materialized Views dans le moteur. ORACLE opere une regression d'evaluation mensuelle sur le Gold Set.
- Infrastructure : HEPHAESTUS exploite la stack en regions suisses. Pour les mandats de souverainete, dans Green Datacenter Lupfig ou Infomaniak Geneve — entierement conforme nLPD et FINMA RS 2018/3.
Analyse approfondie 1 : Snowflake Cortex AI — le choix par defaut banque et assurance
Snowflake a construit en 2024 la suite Cortex en trois composants : Cortex Analyst (Text-to-SQL contre un modele semantique), Cortex Search (index hybride vecteur sur donnees non structurees) et Cortex Agents (Multi-Step Tool-Use avec verification). En 2026, la suite est de loin la plateforme IA la plus mature dans le secteur bancaire suisse.
Points forts d'architecture 2026
- Score de confiance Cortex Analyst : chaque reponse arrive avec un score 0-1. A partir de 0,85, publication directe autorisee, en dessous IRIS declenche un Human-in-the-Loop.
- Hybrid Tables : charges OLTP et OLAP dans la meme table. Les assureurs suisses ecrivent des evenements sinistres en direct et raisonnent dessus quelques secondes plus tard.
- Iceberg-natif : depuis le T1 2025, Snowflake ecrit Apache Iceberg out-of-the-box. Les donnees sont portables vers Databricks et BigQuery.
- Region Zurich 2026 : prevue T3 2026 — d'ici la, Francfort eu-central-1 avec configuration de service Swiss-only.
- Horizon Catalog : object-tagging, lineage, access history — conforme FINMA RS 2023/1 out-of-the-box.
Cas d'usage suisses avec Cortex AI
- Une banque privee zurichoise (38 milliards de CHF d'actifs sous gestion) automatise les revues de risque de credit avec Cortex Analyst contre 18 milliards de transactions — voir l'exemple pratique ci-dessous.
- Un assureur maladie suisse raisonne avec Cortex Search sur 4,6 millions de dossiers de sinistres en DE/FR/IT — detection d'anomalies multilingue.
- Une societe genevoise de gestion de fortune avec Cortex Agents pour de l'attribution de performance ad-hoc — auparavant 4 heures, aujourd'hui 12 secondes par mandant.
Analyse approfondie 2 : Databricks Mosaic AI — la plateforme ML pour l'industrie
Databricks a cimente sa position de champion ML et Iceberg en 2024 avec l'acquisition de MosaicML et en 2025 avec celle de Tabular (l'equipe d'origine d'Apache Iceberg). En 2026, la plateforme est le premier choix pour les mandats industriels, pharmaceutiques et d'ingenierie suisses.
Points forts d'architecture 2026
- Genie : Conversational AI pour utilisateurs metier. Pose les questions dans Slack ou Teams, genere SQL et visualisations. Taux de self-service sur les mandats mazdek : 71 %.
- Mosaic AI Gateway : proxy central pour tous les appels LLM. Redaction PII, rate-limiting, suivi des couts, audit FINMA. Traite chez un mandat pharmaceutique 3,4 millions d'appels LLM par jour.
- AI/BI Dashboards : concurrent de Power BI directement dans le workspace — generes par Genie a partir du langage naturel.
- Delta + Iceberg UniForm : ecrit une fois, lisible des deux standards. Les villes de donnees multi-engine deviennent realite.
- Lakehouse Monitoring : drift-detection, score de qualite, performance des modeles ML — le tout dans Unity Catalog.
Cas d'usage suisses avec Mosaic AI
- Une entreprise pharmaceutique balois orchestre les analyses d'etudes cliniques avec Mosaic AI Gateway contre Claude 4.7, GPT-5 et un Mistral fine-tune en interne.
- Une usine argovienne raisonne avec Genie sur 8 milliards d'evenements de telemetrie IoT pour de la maintenance predictive — voir l'article Matter Edge AI.
- Un retailer zurichois construit avec AI/BI Dashboards des rapports en self-service pour 240 chefs de filiale — zero ticket BI classique depuis le T1 2026.
Analyse approfondie 3 : Microsoft Fabric Copilot — le choix par defaut pour les groupes M365
Microsoft Fabric reunit OneLake (stockage), Synapse (compute), Power BI (visualisation) et Copilot (IA) en une seule plateforme SaaS. En 2026, Fabric est le choix par defaut pragmatique pour les groupes suisses dotes d'un parc M365 — region Switzerland North/West, conformite Purview et TCO le plus bas.
Points forts d'architecture 2026
- OneLake : architecture Single-Copy-of-Data. Un stockage physique, quatre charges de travail (Power BI, Synapse, ML, Real-Time Intelligence).
- Iceberg Shortcuts (GA en 2026) : lit les tables Iceberg de Snowflake ou Databricks sans duplication de donnees.
- Power BI Copilot : construisez un dashboard par description. Sur les mandats mazdek, taux de self-service de 78 % apres 8 semaines de deploiement.
- Switzerland North + West : datacenters Zurich et Geneve. Conforme nLPD out-of-the-box.
- Purview Data Map + Sensitivity Labels : classification de bout en bout depuis les documents M365 jusqu'au dashboard Power BI.
Cas d'usage suisses avec Fabric Copilot
- Une grande banque suisse consolide avec Fabric ses 14 plateformes BI historiques en une seule — region Switzerland North, audit d'externalisation FINMA reussi en mai 2026.
- Un office federal construit des statistiques en self-service pour 9 400 collaborateurs avec Power BI Copilot — les Sensitivity Labels garantissent que chaque reponse respecte les droits d'acces conformes a la nLPD.
- Un fabricant bernois de biens de consommation orchestre avec Fabric Real-Time Intelligence le streaming des ventes depuis 1 200 terminaux POS — latence sub-seconde.
Analyse approfondie 4 : BigQuery Gemini — la plateforme marketing et streaming
BigQuery est la plus ancienne plateforme cloud de donnees du marche (2010) et s'est reinventee en 2025 avec l'integration Gemini complete. En 2026, BQ Gemini est le sweet-spot pour les datasets marketing et publicitaires — natif GA4, Looker Gemini, region Zurich et meilleure performance streaming.
Points forts d'architecture 2026
- Gemini dans BigQuery : generation SQL, completion de code, explication, optimisation — le tout en ligne dans le Studio. Latence sous 7 secondes meme sur volumes en Po.
- Gemini dans Looker : Conversational Analytics directement dans le modele LookML. Meilleure qualite de visualisation du comparatif.
- BigLake Iceberg : tables Iceberg natives avec auto-refresh depuis S3, ADLS et GCS.
- europe-west6 Zurich : les donnees ne quittent pas la Suisse. Conforme nLPD.
- Streaming Inserts : jusqu'a 1 million d'evenements par seconde et par projet — pour l'e-commerce et l'IoT suisses, la plateforme la plus puissante.
Cas d'usage suisses avec BigQuery Gemini
- Un groupe e-commerce suisse (1,4 milliard de CHF de GMV) orchestre avec BQ Gemini des recommandations personnalisees pour 4,2 millions de clients — voir l'article personnalisation IA en e-commerce.
- Un groupe media zurichois raisonne avec Looker Gemini sur 18 milliards d'impressions publicitaires par mois — analytics marketing en self-service pour 320 brand managers.
- Une startup de logistique lausannoise traite 4 milliards d'evenements capteurs par jour avec BigQuery Continuous Queries et raisonne avec Gemini sur les anomalies.
Analyse approfondie 5 : Dremio Sonar — le choix Open Iceberg pour la souverainete
Dremio est la seule des cinq plateformes a pouvoir etre exploitee entierement self-hosted dans des datacenters suisses. En 2026, Dremio Sonar est le choix pour les mandats de souverainete — administrations federales, banques privees supervisees par la FINMA avec residence stricte des donnees, hopitaux suisses.
Points forts d'architecture 2026
- Apache Polaris Catalog : catalogue Iceberg-REST ouvert. Multi-engine, sans vendor-lock.
- Reflections : Materialized Views sur Iceberg — mise en cache automatique des requetes les plus frequentes.
- Sonar AI : Text-to-SQL contre le Polaris Catalog. Taux de self-service plus faible que Cortex/Genie (66 %), mais entierement on-prem.
- Self-hosted en datacenter suisse : Green Datacenter Lupfig, Infomaniak Geneve, calcul ETHZ, clusters proprietaires des banques.
- Nessie Catalog : semantique de branching a la Git pour les donnees — important pour les transformations de donnees regulees.
Cas d'usage suisses avec Dremio
- Une banque privee suisse supervisee par la FINMA exploite Dremio Sonar on-prem dans un datacenter zurichois — 0 % d'egress de donnees, 100 % de souverainete des donnees.
- Un office federal suisse utilise Dremio pour des obligations de reporting sensibles — le format ouvert Iceberg comme assurance contre le verrouillage editeur.
- Un hopital universitaire bernois exploite Dremio sur les donnees cliniques — aucune donnee ne quitte le reseau de l'hopital.
Comparatif direct : quelle plateforme pour quel cas d'usage ?
La question la plus frequente dans nos workshops : « Quelle plateforme nous correspond ? » Notre matrice de decision issue de 23 mandats :
| Critere | Snowflake Cortex | Databricks Mosaic | Fabric Copilot | BigQuery Gemini | Dremio Sonar |
|---|---|---|---|---|---|
| Maturite self-service | Tres elevee | Elevee | Tres elevee | Elevee | Moyenne |
| Profondeur ML/Notebook | Moyenne | Tres elevee | Moyenne | Elevee | Faible |
| Performance streaming | Elevee (Hybrid Tables) | Tres elevee (DLT) | Elevee (Eventstream) | Tres elevee (Pub/Sub) | Moyenne |
| Maturite Iceberg | Native (T1 2025) | UniForm (2024) | Shortcuts (2026) | BigLake (2024) | Open Polaris (native) |
| Region suisse | Francfort + Zurich T3 | AWS Zurich | CH N/W | europe-west6 | Self-hosted CH |
| FINMA RS 2023/1 | Tres bonne | Tres bonne | Tres bonne | Tres bonne | Excellente (on-prem) |
| Cout licence / To | CHF 38 | CHF 32 | CHF 26 | CHF 24 | CHF 18 |
| Complexite de migration | Faible | Moyenne | Faible (M365) | Moyenne | Elevee |
| Sweet-Spot | Banques, assureurs, fiduciaires | Industrie, pharma, ML | Groupes M365 | Marketing, streaming | Confederation, banques privees regulees |
Regle empirique issue de notre pratique : si vous disposez deja d'un setup hyperscaler dominant, suivez la plateforme. Groupe Microsoft → Fabric. Industrie AWS → Databricks. Marketing Google → BigQuery. Parc Snowflake → Cortex. Mandat de souverainete → Dremio. Les migrations transversales se rentabilisent rarement, l'architecture multi-plateforme via Iceberg est en revanche tres bien possible en 2026.
Exemple pratique : une banque privee zurichoise automatise l'analytics du risque de credit avec Snowflake Cortex AI
Une banque privee zurichoise (38 milliards de CHF d'actifs sous gestion, 410 collaborateurs, 14 quants et analystes BI) realise des analytics quotidiens de risque de credit — risques de concentration, stress-tests, exposure de contrepartie, reporting Bale III LCR. Jusqu'au T4 2025, un processus de 4 heures par rapport avec Power BI classique plus exports Excel.
Situation initiale T4 2025
- 14 analystes et quants, 12 000 rapports Power BI dans le parc
- En moyenne 4 heures par nouvelle analyse de risque
- Silos de donnees : Murex, T24 Core Banking, Salesforce, base de reporting FINMA distincte
- Audit FINMA 2025 critique « lineage insuffisant » sur 11 % des analyses
- Backlog BI : 87 tickets ouverts, duree moyenne de traitement 18 jours
Transformation mazdek : 18 semaines, 6 agents
Nous avons migre la stack vers Snowflake avec Cortex AI et l'avons orchestree avec :
- ORACLE : couche semantique en dbt Semantic Layer avec 240 definitions de KPI. Cortex Analyst contre le modele.
- HEPHAESTUS : Snowflake Francfort eu-central-1 avec endpoints prives. Migration depuis Murex et T24 via Reverse-ETL.
- ZEUS : connecteur Salesforce via Snowflake Native App. Donnees maitres ERP harmonisees.
- ARES : Horizon Catalog avec object-tagging. Redaction PII dans les reponses Cortex Analyst. Row-Access Policies par mandant.
- ARGUS : archivage WORM tamper-evident de chaque reponse Cortex. Langfuse + Snowflake Access History. Retention FINMA 10 ans.
- IRIS : bot Slack pour l'equipe risque. Les reponses a faible confiance declenchent un Human-in-the-Loop chez un quant senior.
Resultats T2 2026 (apres 4 mois d'exploitation)
| Metrique | T4 2025 | T2 2026 | Delta |
|---|---|---|---|
| Time-to-Insight par analyse | 4 heures | 11 secondes | -99,9 % |
| Backlog BI | 87 tickets | 3 tickets | -97 % |
| Taux de self-service | 22 % | 74 % | +236 % |
| Reserve FINMA sur le lineage | 11 % | 0 % | Eliminee |
| Couts plateforme / mois | CHF 142 000 (existant) | CHF 78 000 | -45 % |
| Heures analystes economisees / mois | — | 2 400 h | — |
| Valeur economisee / mois | — | CHF 264 000 | — |
| Economie annuelle nette | — | CHF 3,9 mio | — |
| Duree de payback | — | 5,2 mois | — |
Point decisif : aucun poste n'a ete supprime. Les 14 analystes et quants ont ete reorientes vers la modelisation de risque haut de gamme, le developpement de scenarios de stress-test et de nouveaux frameworks de risque produit — des taches a contribution de valeur plus elevee. L'inspection de suivi de la FINMA en 2026 a explicitement salue la qualite du lineage et la conformite nLPD.
Modeles de couts et ROI : l'economie Lakehouse 2026
Les plateformes AI Lakehouse se facturent sur deux axes : le stockage (par To/mois, faible) et le compute + appels IA (par seconde CPU ou token, poste dominant). Sans gouvernance des couts, chaque deploiement non maitrise brule son budget trimestriel en 8 semaines — les appels Cortex Analyst sur une table de 5 milliards de lignes coutent selon la configuration de CHF 0,20 a CHF 4,40 par question.
Nos regles empiriques issues de mandats en production :
- Reflections et Materialized Views : precalculer les 80 requetes les plus frequentes des power users. Avec Snowflake Search Optimization, Databricks AI/BI Cache, Dremio Reflections — economie de 60 a 80 % par requete.
- Cache de couche semantique : Cortex Analyst et Genie mettent en cache les reponses aux questions identiques. Avec des embeddings de questions coherents, taux de cache hit de 35 a 45 %.
- Confidence Gating : les reponses sous 0,7 de confiance declenchent une analyse approfondie avec un modele plus cher. Les reponses au-dessus de 0,85 utilisent le modele bon marche. Economie de 40 % des couts IA.
- Iceberg plutot que replication : qui a besoin des donnees dans deux plateformes les ecrit une fois en Iceberg au lieu de les repliquer. Economie de 100 % du stockage secondaire.
- Auto-suspension des clusters : le compute Snowflake, Databricks et BigQuery se met en pause en quelques secondes. Les deploiements naifs tournent 24/7 — facteur 4 a 6 de couts excessifs.
Un calcul de couts realiste pour une entreprise mid-market suisse avec 60 analystes, 200 To de donnees et 5 000 requetes IA par jour :
| Scenario | Stockage CHF/mo | Compute + IA CHF/mo | Licence CHF/mo | Total CHF/mo | Self-Serve |
|---|---|---|---|---|---|
| BI classique (Power BI Pro + Server) | CHF 1 200 | — | CHF 16 500 | CHF 17 700 | 22 % |
| Snowflake Cortex (naif) | CHF 7 600 | CHF 22 800 | CHF 5 700 | CHF 36 100 | 74 % |
| Snowflake Cortex (optimise) | CHF 7 600 | CHF 9 200 | CHF 5 700 | CHF 22 500 | 74 % |
| Databricks Mosaic (optimise) | CHF 6 400 | CHF 11 400 | CHF 6 600 | CHF 24 400 | 71 % |
| Microsoft Fabric (parc M365) | CHF 5 200 | CHF 7 800 | CHF 4 500 | CHF 17 500 | 78 % |
| BigQuery Gemini | CHF 4 800 | CHF 8 600 | CHF 5 100 | CHF 18 500 | 69 % |
| Dremio (self-hosted datacenter suisse) | CHF 3 600 | CHF 6 200 (fixe) | CHF 3 900 | CHF 13 700 | 66 % |
Le point pratiquement optimal en conditions suisses 2026 :
- Parc M365 : Fabric Copilot — region Suisse, TCO le plus bas, taux de self-service le plus eleve.
- Banque/assureur : Snowflake Cortex optimise — meilleure maturite, conformite FINMA, Zurich a partir du T3.
- Industrie/pharma avec ML : Databricks Mosaic — meilleure experience notebook et Mosaic AI Gateway.
- Marketing/streaming : BigQuery Gemini — performance streaming la plus forte, natif Looker.
- Souverainete : Dremio Sonar self-hosted — couts d'exploitation les plus bas, 100 % de residence des donnees.
Gouvernance : nLPD, EU AI Act et FINMA pour les AI Lakehouses
En 2026, les AI Lakehouses soulevent une nouvelle classe de questions reglementaires : qui est responsable d'une reponse generee par LLM contre des donnees bancaires ? Une recommandation Cortex Analyst est-elle une « decision automatisee individuelle » au sens de l'art. 21 nLPD ? Comment une reponse Genie est-elle reproductible pour l'auditeur FINMA ?
- EU AI Act art. 12 (obligation de journalisation) : chaque reponse LLM contre des donnees metier doit etre stockee de maniere fiable a des fins d'audit. Snowflake Access History, Databricks System Tables et Fabric Activity Logs couvrent l'exigence — nous recommandons en complement Langfuse pour la couche LLM.
- EU AI Act Annexe IV (documentation technique) : pour les cas d'usage High-Risk (decision de credit, recrutement RH, assurance maladie), le modele semantique doit exister sous forme de documentation technique. dbt Semantic Layer et LookML conviennent comme source.
- nLPD art. 7 (securite des donnees) : AES-256 au repos, TLS 1.3, rotation des cles. Les cinq plateformes remplissent cela par defaut — la configuration Customer-Managed Encryption Key est critique.
- nLPD art. 21 (decision automatisee) : si Cortex Analyst genere une recommandation de credit, la personne concernee doit pouvoir exiger une revue humaine. L'escalade basee sur le score de confiance vers IRIS est la best practice.
- FINMA RS 2018/3 (circulaire externalisation) : les cinq plateformes necessitent un contrat d'externalisation conforme FINMA avec droit d'audit et clause de retention des donnees. Snowflake, Microsoft et Databricks ont des contrats standard ; pour BigQuery, des negociations sont souvent necessaires ; pour Dremio self-hosted, cela ne s'applique pas.
- FINMA RS 2023/1 (risques operationnels) : exige un lineage complet et 10 ans de retention tamper-evident. Horizon Catalog (Snowflake), Unity Catalog (Databricks) et Purview (Fabric) le remplissent ; archivage WORM ARGUS en securisation supplementaire.
- Loi suisse sur la protection des donnees (nLPD) art. 19 : analyse d'impact relative a la protection des donnees pour tous les AI Copilots dans les domaines High-Risk. Modeles dans notre guide EU AI Act.
Feuille de route d'implementation : un AI Lakehouse en production en 16 semaines
Notre processus en 6 phases pour les entreprises suisses :
Phase 1 : Discovery et selection de plateforme (semaines 1-3)
- Workshop : recensement de l'existant — quel cloud, quels outils BI, quels silos de donnees ?
- Matching de plateforme selon parc cloud, statut FINMA, besoin ML, profondeur M365.
- Lancement de l'examen d'externalisation FINMA et de l'AIPD nLPD.
- Decision : Snowflake / Databricks / Fabric / BigQuery / Dremio.
Phase 2 : Foundation et migration Iceberg (semaines 4-7)
- HEPHAESTUS deploie le workspace en region Suisse / UE.
- Migration des donnees depuis l'entrepot existant via Reverse-ETL (Fivetran, Airbyte) ou directement en CDC (Debezium).
- Tables Iceberg comme format standard. Setup Polaris ou Unity Catalog.
- ARES met en place RBAC, masquage ligne/colonne, DLP.
Phase 3 : Couche semantique et definitions de KPI (semaines 6-9)
- ORACLE construit dbt Semantic Layer avec 80 a 300 definitions de KPI.
- Glossaire en DE/FR/IT/EN — critique pour les entreprises suisses multilingues.
- Eval-Set avec 200 a 500 paires question-reponse comme Gold Standard.
Phase 4 : Activation des AI Copilots (semaines 9-12)
- Activation de Cortex Analyst / Genie / Fabric Copilot / Gemini contre la couche semantique.
- Tuning du seuil de confiance face au Gold Set.
- Bot Slack/Teams IRIS avec Human-in-the-Loop sur faible confiance.
- Citation Enforcement : chaque reponse reference la table source et la definition de KPI.
Phase 5 : Observabilite et conformite FINMA (semaines 12-14)
- ARGUS instrumente Langfuse, Access History, OpenLineage, stockage WORM.
- Finaliser l'audit-trail d'externalisation FINMA.
- Generer la documentation technique EU AI Act Annexe IV.
Phase 6 : Rollout et amelioration continue (semaines 14-16)
- Pilote avec 10 a 30 power users. Eval hebdomadaire face au Gold Set.
- Reflections / Materialized Views pour les Top Queries.
- Rollout complet. Garde-fous de cout par tenant et utilisateur.
- Mises a jour modele trimestrielles et extension des KPI.
L'avenir : villes de donnees multi-engine, Agentic Analytics et raisonnement sur Iceberg
Les AI Lakehouses 2026 sont la premiere generation d'une vague plus longue. Ce qui se profile a l'horizon 2027-2028 :
- Villes de donnees multi-engine : un stockage Iceberg physique, trois moteurs (Snowflake pour le BI, Databricks pour le ML, Dremio pour la souverainete) — simultanement. Polaris Catalog comme arbitre neutre.
- Agentic Analytics : au lieu de repondre a une question, l'agent IA conduit de maniere autonome une analyse en 12 etapes — voir l'article frameworks multi-agents. Cortex Agents et Mosaic AI sont les premiers pionniers.
- Modeles de raisonnement sur Iceberg : Claude 4.7 Thinking avec Tool-Use contre un catalogue Iceberg sera en 2027 la prochaine generation de BI self-service — voir l'article modeles de raisonnement.
- Real-Time Lakehouse : Apache Iceberg V3 (attendu T4 2026) apporte le streaming au niveau ligne. Les Lakehouses deviennent aussi performants que les systemes operationnels.
- LLMs souverains suisses sur Lakehouse : Apertus et les futurs LLMs suisses souverains (voir l'article Apertus) s'integreront nativement dans Polaris/Unity.
- Workforce-AI sur Lakehouse : les banques suisses auront en 2027 des copilotes pour CFO, COO et Compliance Officer qui raisonnent sur le Lakehouse — entierement auditables.
Conclusion : les AI Lakehouses sont le standard de donnees suisse 2026
Les enseignements decisifs pour les decideurs suisses en 2026 :
- Le data warehouse classique est obsolete : qui exploite encore en 2026 Snowflake ou BigQuery sans AI Copilot gaspille 60 a 78 % de potentiel de self-service.
- Iceberg est l'ancre de neutralite : ecrivez en 2026 vos donnees en Apache Iceberg, pas dans des formats proprietaires. Le vendor-lock se dissout.
- La plateforme suit le parc cloud : Microsoft → Fabric. Industrie AWS → Databricks. Marketing Google → BigQuery. Banque/assureur → Snowflake. Souverainete → Dremio.
- La couche semantique est l'investissement le plus important : sans definitions claires de KPI, chaque copilot hallucine. dbt Semantic Layer plus glossaire en DE/FR/IT/EN est l'entree.
- Terra incognita en gouvernance : les reponses LLM contre des donnees bancaires sont pertinentes pour la FINMA, soumises a journalisation EU AI Act et a AIPD nLPD. Pas de deploiement en production sans garde-fous ARES et observabilite ARGUS.
- ROI sous les 7 mois : nos 23 mandats ont atteint en moyenne 5,8 mois de payback. Les backlogs BI fondent de plus de 90 %, les taux de self-service depassent 70 %.
- Agir maintenant : la region Snowflake Zurich arrive au T3 2026, Iceberg V3 au T4 2026, les LLMs souverains suisses en 2027. Qui pose la fondation en 2026 disposera en 2027 d'une avance imprenable en vitesse, conformite et couts.
Chez mazdek, 19 agents IA specialises orchestrent l'ensemble du programme Lakehouse : ORACLE pour la couche semantique et l'eval, HEPHAESTUS pour la plateforme et la migration Iceberg, ZEUS pour les connecteurs entreprise (SAP, Salesforce, Dynamics), ARES pour la gouvernance et la conformite, ARGUS pour l'observabilite 24/7 et l'audit WORM, IRIS pour le self-service Slack/Teams, NANNA pour la regression d'eval et les tests Red Team. 23 mandats Lakehouse en production tournent depuis 2024 — conformes nLPD, EU AI Act, FINMA RS 2018/3 et FINMA RS 2023/1 des le premier jour.