Un joli schéma n'achète pas la confiance
Les plateformes data d'entreprise ont souvent l'air cohérentes dans les présentations bien avant de l'être dans la vraie vie.
Sur le papier, tout est simple : ingestion, warehouse, transformation, BI. Dans la réalité, le test est beaucoup plus brut. L'équipe finance ouvre un dashboard, l'équipe opérations en ouvre un autre, et si la discussion repart sur "le bon chiffre", alors la plateforme n'est pas encore au niveau, quel que soit le nombre d'outils branchés derrière.
C'est pour ça que je regarde moins la beauté du schéma que les habitudes d'exploitation qui rendent le système crédible au quotidien.
Réduire le nombre d'outils est déjà une décision d'architecture
La plupart des douleurs de plateforme ne viennent pas d'un choix catastrophique. Elles viennent d'un empilement de solutions "pas mal" qui se marchent à moitié dessus.
Je préfère un noyau simple : une plateforme principale pour le stockage et le compute, une couche de transformation lisible, un chemin d'ingestion par grande famille de sources, et le moins de sophistication possible dans l'orchestration. C'est moins séduisant dans un discours commercial, mais beaucoup plus tenable une fois la plateforme lancée.
Ce que j'essaie de protéger en premier
- les compétences réelles de l'équipe, pas l'outillage idéal sur le papier ;
- des mécanismes de gouvernance qui fonctionnent sans six mois de plomberie ;
- une lecture claire des coûts par warehouse et par usage ;
- une répartition des responsabilités compréhensible pour les métriques et le lineage.
dbt tient bien quand les règles sont simples et assumées
dbt est puissant parce qu'il fait entrer la transformation dans un cadre logiciel. Il devient pénible dès qu'on le transforme en tiroir fourre-tout pour chaque SQL écrit dans l'urgence.
Les projets qui vieillissent bien ont presque toujours la même discipline :
- des couches de modèles clairement séparées ;
- des conventions de nommage que tout le monde peut suivre ;
- des tests sur les modèles sensibles, sans remettre ça à "plus tard" ;
- des responsables identifiés sur les domaines qui portent les chiffres critiques.
Les deux alertes qui comptent d'abord : fraîcheur et dépense
Les premiers incidents qui remontent au métier sont souvent très terre à terre.
Soit la donnée n'arrive pas quand elle devrait. Soit la facture commence à partir dans le décor.
La fraîcheur se voit immédiatement. Une équipe commerciale remarque vite que les chiffres du jour ne sont pas là. Le coût, lui, dérive plus silencieusement, mais il finit par faire aussi mal. Un warehouse peut sembler sain alors que certaines requêtes doublent la dépense en quelques semaines.
Les routines que je garde
- des contrôles de fraîcheur sur les tables qui comptent vraiment ;
- des budgets et resource monitors avec un propriétaire clair ;
- une revue mensuelle des requêtes et dashboards les plus coûteux ;
- des politiques de compute séparées pour l'ETL, la BI et l'ad hoc.
La gouvernance n'arrive pas après coup
On parle souvent de gouvernance comme d'une étape qui viendra "plus tard". En pratique, c'est ce qui évite qu'une plateforme devienne ingérable alors même qu'on est encore en train de la livrer.
Au minimum, je veux du contrôle d'accès par rôle dès le départ, une gestion claire des colonnes sensibles, et assez de lineage pour répondre rapidement à une question pourtant banale : "si cette métrique est fausse, qu'est-ce qu'il faut regarder en amont ?"
Si cette réponse prend une heure à reconstituer en incident, la gouvernance n'est pas encore au bon niveau.
Le sujet n'est pas l'outil BI, mais la cohérence métier
On me demande souvent quel outil de restitution je préfère. Dans la plupart des cas, ce n'est pas le vrai sujet.
La difficulté consiste à figer ce que veulent dire "chiffre d'affaires", "client actif" ou "stock disponible", puis à exposer ces définitions de façon cohérente entre les équipes. Quand cette couche sémantique n'est pas tenue, aucun dashboard ne sauve la situation.
C'est pour ça que j'aime rapprocher au maximum la définition des métriques de la couche de transformation, avec des responsabilités explicites. On limite ainsi les recalculs maison et les KPI parallèles.
Ce que je remettrais en place le premier mois
- ouvrir les environnements de dev et de prod avec les garde-fous de coût déjà activés ;
- livrer un premier flux complet entre une vraie source et un vrai dashboard ;
- fixer tout de suite les règles de nommage, de test et de responsabilité ;
- brancher le monitoring de fraîcheur sur les tables que les décideurs regarderont en premier ;
- poser le contrôle d'accès avant que la donnée sensible circule partout.
Les plateformes data qui vieillissent bien ne sont presque jamais celles qui impressionnent le plus au jour un. Ce sont celles où les définitions restent stables, où les pipelines restent lisibles, et où l'équipe sait expliquer la qualité comme la dépense sans broder.