Retour au journal
Carnet de terrain plateforme

Construire une plateforme data à laquelle les équipes se fient vraiment

Le sujet n'est pas tant de choisir un warehouse que d'obtenir quelque chose de plus rare : des équipes qui arrêtent enfin de discuter le chiffre.

Plateforme datadbtSnowflakeGouvernance
PubliéTemps de lecture8 min de lecture

Principe de travail

Une plateforme devient crédible le jour où le KPI cesse d'être un sujet de débat et redevient un outil de décision.

Risque

La dérive sémantique

Routine utile

Une revue coût mensuelle

Cap

Des modèles gold fiables

Un joli schéma n'achète pas la confiance

Les plateformes data d'entreprise ont souvent l'air cohérentes dans les présentations bien avant de l'être dans la vraie vie.

Sur le papier, tout est simple : ingestion, warehouse, transformation, BI. Dans la réalité, le test est beaucoup plus brut. L'équipe finance ouvre un dashboard, l'équipe opérations en ouvre un autre, et si la discussion repart sur "le bon chiffre", alors la plateforme n'est pas encore au niveau, quel que soit le nombre d'outils branchés derrière.

C'est pour ça que je regarde moins la beauté du schéma que les habitudes d'exploitation qui rendent le système crédible au quotidien.

Réduire le nombre d'outils est déjà une décision d'architecture

La plupart des douleurs de plateforme ne viennent pas d'un choix catastrophique. Elles viennent d'un empilement de solutions "pas mal" qui se marchent à moitié dessus.

Je préfère un noyau simple : une plateforme principale pour le stockage et le compute, une couche de transformation lisible, un chemin d'ingestion par grande famille de sources, et le moins de sophistication possible dans l'orchestration. C'est moins séduisant dans un discours commercial, mais beaucoup plus tenable une fois la plateforme lancée.

Ce que j'essaie de protéger en premier

  • les compétences réelles de l'équipe, pas l'outillage idéal sur le papier ;
  • des mécanismes de gouvernance qui fonctionnent sans six mois de plomberie ;
  • une lecture claire des coûts par warehouse et par usage ;
  • une répartition des responsabilités compréhensible pour les métriques et le lineage.
Snowflake, Databricks ou BigQuery peuvent tous faire le travail. La vraie question est plutôt : est-ce qu'on comprendra encore la plateforme dans douze mois ?

dbt tient bien quand les règles sont simples et assumées

dbt est puissant parce qu'il fait entrer la transformation dans un cadre logiciel. Il devient pénible dès qu'on le transforme en tiroir fourre-tout pour chaque SQL écrit dans l'urgence.

Les projets qui vieillissent bien ont presque toujours la même discipline :

  • des couches de modèles clairement séparées ;
  • des conventions de nommage que tout le monde peut suivre ;
  • des tests sur les modèles sensibles, sans remettre ça à "plus tard" ;
  • des responsables identifiés sur les domaines qui portent les chiffres critiques.
Je préfère un projet dbt plus petit mais net, plutôt qu'un énorme ensemble truffé d'exceptions. Les modèles ennuyeux sont plus faciles à maintenir, à relire et à transmettre.

Les deux alertes qui comptent d'abord : fraîcheur et dépense

Les premiers incidents qui remontent au métier sont souvent très terre à terre.

Soit la donnée n'arrive pas quand elle devrait. Soit la facture commence à partir dans le décor.

La fraîcheur se voit immédiatement. Une équipe commerciale remarque vite que les chiffres du jour ne sont pas là. Le coût, lui, dérive plus silencieusement, mais il finit par faire aussi mal. Un warehouse peut sembler sain alors que certaines requêtes doublent la dépense en quelques semaines.

Les routines que je garde

  • des contrôles de fraîcheur sur les tables qui comptent vraiment ;
  • des budgets et resource monitors avec un propriétaire clair ;
  • une revue mensuelle des requêtes et dashboards les plus coûteux ;
  • des politiques de compute séparées pour l'ETL, la BI et l'ad hoc.
Ce n'est pas spectaculaire. C'est précisément pour ça que ça tient.

La gouvernance n'arrive pas après coup

On parle souvent de gouvernance comme d'une étape qui viendra "plus tard". En pratique, c'est ce qui évite qu'une plateforme devienne ingérable alors même qu'on est encore en train de la livrer.

Au minimum, je veux du contrôle d'accès par rôle dès le départ, une gestion claire des colonnes sensibles, et assez de lineage pour répondre rapidement à une question pourtant banale : "si cette métrique est fausse, qu'est-ce qu'il faut regarder en amont ?"

Si cette réponse prend une heure à reconstituer en incident, la gouvernance n'est pas encore au bon niveau.

Le sujet n'est pas l'outil BI, mais la cohérence métier

On me demande souvent quel outil de restitution je préfère. Dans la plupart des cas, ce n'est pas le vrai sujet.

La difficulté consiste à figer ce que veulent dire "chiffre d'affaires", "client actif" ou "stock disponible", puis à exposer ces définitions de façon cohérente entre les équipes. Quand cette couche sémantique n'est pas tenue, aucun dashboard ne sauve la situation.

C'est pour ça que j'aime rapprocher au maximum la définition des métriques de la couche de transformation, avec des responsabilités explicites. On limite ainsi les recalculs maison et les KPI parallèles.

Ce que je remettrais en place le premier mois

  1. ouvrir les environnements de dev et de prod avec les garde-fous de coût déjà activés ;
  2. livrer un premier flux complet entre une vraie source et un vrai dashboard ;
  3. fixer tout de suite les règles de nommage, de test et de responsabilité ;
  4. brancher le monitoring de fraîcheur sur les tables que les décideurs regarderont en premier ;
  5. poser le contrôle d'accès avant que la donnée sensible circule partout.
Ce n'est pas le chemin le plus spectaculaire, mais c'est celui qui encaisse le mieux l'adoption. Tout le reste peut venir ensuite. Les fondamentaux, eux, deviennent très coûteux à reconstruire s'ils ont été négligés au départ.

Les plateformes data qui vieillissent bien ne sont presque jamais celles qui impressionnent le plus au jour un. Ce sont celles où les définitions restent stables, où les pipelines restent lisibles, et où l'équipe sait expliquer la qualité comme la dépense sans broder.

Autres notes

Carnet de prod IA

RAG en production : chunking, qualité du retrieval et les problèmes que la démo ne montre pas

Limites de fenêtre contextuelle, découpage sous-optimal, évaluation du retrieval, recherche hybride, observabilité et maîtrise des coûts — l'ingénierie réelle derrière un système RAG qui tient après la démo.

7 min de lecture
Lire l'article