Accueil
Europe/Paris
Projets

CDP luxe sur GCP: 18M+ contacts, 32 pays, activation marketing globale

CDP sur GCP pour 18M+ contacts, 32 pays: comment augmenter un RCU Adobe Campaign existant avec enrichissement, segmentation avancée et gouvernance multi-pays.
CDP & Platform
March 9, 2026· 11 min de lecture
CDP luxe sur GCP: 18M+ contacts, 32 pays, activation marketing globale
Stack technique
GCPBigQueryAirflowPythonSQLAdobe CampaignDataikuPower BI
Dans les grands groupes, la difficulté n'est pas de trouver un outil de plus. Elle consiste surtout à faire fonctionner ensemble des systèmes qui se sont empilés au fil du temps, avec leurs logiques locales, leurs usages historiques et leurs compromis devenus invisibles. Les données clients existent en abondance, mais elles restent souvent fragmentées entre canaux, marchés et équipes, sans base suffisamment cohérente pour activer vite et piloter correctement. C'est dans ce contexte que je contribue à structurer une plateforme CDP globale pour une maison internationale de beauté de luxe. Le périmètre couvre plus de 18 millions de contacts, 32 pays, plus de 500 M€ d'e-commerce, et des usages marketing liés à plus d'1 Md€ de ventes globales. L'enjeu n'est pas de remplacer l'existant à marche forcée. Il faut rendre la donnée client exploitable, accélérer l'activation marketing, mieux encadrer les flux et poser une gouvernance qui tient à cette échelle. Le fil rouge du projet: garder ce qui fonctionne côté métier, et ajouter la profondeur data et la rigueur industrielle qui manquent. Le point de départ est classique mais redoutable: un même client peut exister plusieurs fois selon son canal d'entrée. E-commerce, boutique, formulaire marketing, opération événementielle ou autre point de collecte local... à cela s'ajoutent des historiques partiels, des consentements gérés différemment selon les pays et une qualité de données variable d'un canal et d'un marché à l'autre. D'un pays à l'autre, les bases légales de collecte, les mécanismes d'opt-in et les règles de conservation divergent. Les formulaires ont été conçus à des époques différentes, avec des niveaux de granularité inégaux. Harmoniser ces pratiques sans casser l'existant ni ralentir les équipes locales suppose un vrai travail de fond avec les équipes juridiques et DPO, notamment sur la stratégie d'opt-in multi-pays. Côté qualité, nous ne faisons pas semblant de pouvoir tout résoudre à la source. Nous mettons aussi en place des contrôles dans la plateforme elle-même: tests de cohérence sur les volumes, détection d'anomalies sur les attributs clés, alerting en cas de dérive. Ce monitoring automatisé de la qualité des données permet de sécuriser l'exploitation sans dépendre d'un niveau de maturité homogène dans tous les marchés. Le sujet ne relève donc pas seulement de centralisation. Il faut composer avec un référentiel client unique déjà en place dans Adobe Campaign, référentiel qui reste le socle opérationnel de l'activation marketing. En parallèle, les attentes métier ont changé. Les équipes ne veulent plus seulement exécuter des campagnes, elles veulent segmenter, enrichir, personnaliser, mesurer, et le faire vite. Nous n'avons ni CIAM global vraiment homogène, ni dispositif de qualité de données suffisamment robuste à la source sur tout le périmètre. La plateforme doit donc absorber une partie de cette complexité, sans faire semblant qu'elle n'existe pas. L'arbitrage clé du projet: assumer le rôle d'Adobe Campaign pour ce qu'il est vraiment, le référentiel client historique et la brique centrale d'activation marketing. Google Cloud Platform n'a pas vocation à remplacer ce socle. Son rôle est de l'augmenter. C'est dans GCP que nous structurons la chaîne de traitement, centralisons les flux, enrichissons les profils, produisons les attributs calculés, préparons les données analytiques et réinjectons dans Adobe Campaign ce qui doit être activé côté marketing. Cette approche permet de conserver l'existant métier tout en ajoutant la puissance de calcul, la profondeur analytique et la discipline d'industrialisation qu'il ne peut pas porter seul. Il serait tentant de raconter ce projet comme une transformation idéale dans laquelle un nouveau socle remplacerait proprement l'ancien. Ce serait plus spectaculaire, mais moins vrai. Adobe Campaign reste très pertinent pour l'orchestration et l'activation. En revanche, lui faire porter seul des logiques avancées de consolidation, d'enrichissement massif, de calcul analytique ou de structuration cross-canal à l'échelle d'une maison internationale atteint vite ses limites. Le bon choix consiste à lui laisser son rôle central côté activation, tout en déportant dans GCP la logique lourde de préparation, de calcul et d'enrichissement. Sur le plan technique, la plateforme repose sur Google Cloud Platform, avec BigQuery comme socle analytique, Airflow pour l'orchestration, Python et SQL pour les traitements, et un framework groupe capable de générer automatiquement des DAGs à partir de fichiers de configuration. À cette échelle, chaque besoin traité comme un pipeline spécifique devient rapidement une dette de maintenance. La génération standardisée de DAGs permet de gagner en cohérence, en vitesse d'exécution et en capacité de passage à l'échelle. Sur une plateforme qui traite plus de 10 millions d'événements par jour pour 32 marchés, un pipeline cassé le vendredi soir peut bloquer une campagne le lundi matin. L'architecture suit une logique simple et lisible. La couche RAW absorbe les flux entrants sans chercher à les embellir trop tôt. Elle garantit la traçabilité, l'historisation et la possibilité de rejouer les traitements. La couche ODS normalise l'opérationnel: formats, nomenclatures, champs de consentement, identifiants et structures de données qui varient selon les marchés. La couche Data Warehouse porte la consolidation, la préparation analytique et les enrichissements. C'est là que la donnée devient réellement exploitable, parce qu'elle gagne en stabilité, en lisibilité et en valeur d'usage. Enfin, les datamarts exposent des vues orientées usages, notamment pour la BI, le marketing et certains cas d'usage analytiques. Cela évite de brancher les outils métiers directement sur des couches techniques trop complexes et limite la prolifération des exports artisanaux, toujours charmants jusqu'au jour où plus personne ne sait d'où viennent les chiffres. À mesure que les tables, les attributs calculés et les segments se multiplient, la question de la découvrabilité devient centrale. La mise en place d'un data catalogue avec descriptions, propriétaires, lignage et niveaux de certification permet aux utilisateurs marketing de trouver et comprendre les données disponibles sans passer systématiquement par l'équipe data. GCP permet surtout de séparer nettement les données sources des données dérivées. BigQuery offre la puissance de calcul pour produire des enrichissements à grande échelle sans peser sur le RCU opérationnel. Airflow garantit la reproductibilité et la traçabilité des traitements. En pratique, ça donne une distinction concrète entre ce qu'on collecte et ce qu'on calcule. Une date de naissance est une donnée collectée. L'âge est une donnée calculée. Un historique d'achat est une donnée source. Une segmentation VIC ou un indicateur de time to repurchase sont des objets dérivés. Un consentement est une information collectée et encadrée. Un score ou une segmentation comportementale résulte d'un traitement analytique.
Donnée collectée• Email · date de naissance• Consentements · transactions
Donnée dérivée• Âge · RFM · segments VIC• Time to repurchase
Donnée prédite• Score churn · propension achat• LTV prédictive
Cette distinction change beaucoup de choses. Côté gouvernance, on évite de mélanger attributs bruts, enrichissements, scores et segments activables. Côté métier, on voit clairement ce qui vient de la collecte, ce qui est calculé et ce qui est prêt à être activé. Surtout, elle permet de construire un modèle propre d'enrichissement du RCU existant: Adobe Campaign conserve le rôle opérationnel, tandis que GCP produit les attributs calculés, les enrichissements et les nouvelles segmentations ensuite réinjectés dans Adobe Campaign pour être utilisés en campagne.
Donnée collectée• Profil · email · date de naissance• Transactions, consentements, événements
Donnée calculée• Identity resolution · RFM · VIC• Time to Purchase · scoring Dataiku
Donnée activable• 100+ segments/mois · self-service• Triggers · campagnes multicanales
La plateforme ouvre aussi la voie à des usages plus avancés de segmentation et de data science, notamment via Dataiku. L'enjeu n'est pas de produire des modèles pour alimenter des slides de comité, c'est de créer des objets activables. La plateforme permet de calculer de nouvelles segmentations, de produire des attributs dérivés, d'alimenter des scores ou indicateurs de propension, puis de réinjecter ces résultats dans Adobe Campaign pour le ciblage, la personnalisation et l'orchestration. C'est dans ce cadre que nous travaillons sur des enrichissements comme les segmentations VIC, les logiques de time to purchase, de time to send et de time to repurchase. L'important n'est pas seulement la sophistication du calcul. C'est la continuité entre analytics et activation. Une donnée enrichie ne vaut pas grand-chose si elle reste dans un coin de la plateforme à prendre la poussière. Elle prend de la valeur quand elle revient dans le moteur marketing sous une forme directement exploitable. La plateforme n'est pas pensée uniquement pour le marketing. Les datamarts exposés dans GCP alimentent également Power BI, avec une logique plus stable de restitution et de pilotage. Concrètement, les équipes marketing, les directions de marché et le COMEX peuvent consulter des tableaux de bord construits sur les mêmes définitions que celles utilisées dans les campagnes et les segmentations. Un "client actif" dans Power BI correspond au même périmètre que le "client actif" ciblé dans Adobe Campaign. Les datamarts couvrent plusieurs axes: performance par marché, analyse des cohortes, suivi des taux d'opt-in par canal et par pays, pilotage du cycle de vie client. Dans beaucoup d'organisations, la BI, le marketing automation et les usages analytiques évoluent en parallèle, avec des jeux de données différents et des définitions parfois divergentes. Les réunions de pilotage se transforment alors en débats sur les chiffres plutôt qu'en décisions sur les actions. Un des apports du projet, c'est justement de relier ces briques pour que les chiffres en BI, en campagne et en analytics racontent la même histoire. La valeur du projet ne tient pas seulement à la stack. Elle tient aussi au cadre mis autour d'elle. Une partie importante de mon rôle consiste à structurer la gouvernance de la plateforme: documentation, conventions de nommage, règles de construction, patterns de delivery réutilisables et manière plus industrielle de faire évoluer les flux. Avant cela, beaucoup de traitements sont réalisés de manière ponctuelle, parfois manuelle, avec des pratiques variables selon les équipes et les besoins. Ce mode de fonctionnement peut survivre un temps. Il ne tient pas longtemps à 32 pays. Le sujet conformité suit la même logique. Je travaille avec les équipes DPO, juridiques et métiers pour faire évoluer les formulaires de collecte, préparer les collaborateurs et clarifier les règles d'usage de la donnée selon les contextes locaux, dans le cadre d'un programme privacy pensé comme une discipline opérationnelle et non comme un exercice ponctuel. Dans ce type de projet, la conformité bien pensée n'est pas un frein. C'est surtout un moyen d'éviter d'industrialiser du désordre. Et, si l'on connaît les bons leviers et les spécificités locales, la conformité peut même devenir un accélérateur. Le projet a permis de poser un socle robuste pour:
18M+ contactsActivés sur 32 pays
10M+ événements/jourIngérés et traités quotidiennement
50+ utilisateurs marketingCréant 100+ segments/mois
< 24h time-to-marketContre 3 à 7 jours avant
Le changement le plus visible concerne le time-to-market. Avant, lancer une nouvelle campagne segmentée passait par l'équipe data: extraction, préparation, qualification, puis transfert manuel vers Adobe Campaign. Comptez 3 à 7 jours. Maintenant, les segments sont directement disponibles dans le moteur d'activation et les équipes métier les créent elles-mêmes. Mais au-delà des KPI, le vrai changement est ailleurs. La plateforme n'est plus un empilement de flux et de traitements ponctuels. C'est un système documenté et gouverné, sur lequel le marketing, la BI et les analytics s'appuient au quotidien. Bref, elle ne se contente plus d'exister. Elle sert. Si vous êtes confronté à un sujet similaire, structurer une plateforme data client, industrialiser des flux marketing ou mettre en place une gouvernance qui tient à l'échelle, vous pouvez me contacter.
Partager cet article :
Projets similaires
Vue client 360°, activation cross-canale, segmentation et privacy optimisée business, tous délivrés en production pour le retail et le luxe.

38M+

Contacts gérés

5 Md€+

Revenue sous gestion

32+

Pays

7+

Ans d'expertise plateforme data

Opt-in Groupe Luxe: Partage de Données Multi-Maisons et Coordination Juridique

Privacy & Compliance
Optimisation et déploiment opt-in partage données groupe entre enseignes luxe au niveau mondial avec challenge éléments langage et coordination équipes juridiques/techniques.

Monitoring Qualité de Données: Tests Automatisés et Alerting Time-to-Market

Data Engineering
Mise en place tests automatisés de données pour optimisation time-to-market des devs, vérification automatique du travail data engineers et alerting temps réel sur anomalies qualité.

Workflow Data Teams: Agile, CI/CD et Optimisation Time-to-Market

Data Engineering
Mise en place workflows développement avec data delivery manager et data engineers : processus agile/kanban, gestion priorités, tests automatisés, CI/CD et optimisation time-to-market et vélocité de delivery.

Campagnes d'Enrichissement Données: Progressive Profiling et Stratégie Consent-Aware

Marketing Activation
Campagnes marketing/service pour enrichissement données clients avec filtres ciblage par pays/enseignes, arbitrage message service vs marketing selon consentements et optimisation taux complétion profils.

Datamarts Customer 360°: Single Source of Truth et Dashboards COMEX

BI & Analytics
Mise en place datamarts et dashboards BI avec single source of truth, architecture par domaine métier et dashboards pilotage COMEX.

Data Catalogue: Découvrabilité, Gouvernance et Adoption Self-Service

Data Governance
Mise en place data catalogue avec alignement définitions métiers/techniques, stratégie adoption et amélioration découvrabilité et qualité de données.

Optimisation User Journeys: Campagnes Cross-Canal et Ciblage Comportemental

Marketing Activation
Moteur de segmentation comportementale et déclencheurs de campagnes automatisés, optimisés selon le parcours utilisateur.

Framework Gouvernance Multi-Enseignes: RACI et Pilotage Transverse Groupe

Data Governance
Framework de data gouvernance multi-enseignes et multi-pays avec RACI stakeholders, rôles/responsabilités, processus gestion données et pilotage transverse maisons/équipes techniques.

Opt-in Marketing Multi-Pays: Stratégie Opt-in/Opt-out par Pays

Privacy & Compliance
Mise en place d'un framework de gestion des consentements sur 32 pays avec optimisation des taux d'opt-in (+18-22%) et activation marketing 100% compliant générant 70-85% d'audience adressable.

Audience Sharing Multi-Enseignes: Priorisation et Impact Conversion

Marketing Activation
Mise en place partage d'audience marketing entre enseignes via tiers (Plateforme retail media) avec priorisation audiences, process privacy-safe et impact mesurable sur conversion et ROI campagnes.

Analyse Cannibalisation Multi-Enseignes: Optimisation Valeur Client Globale

BI & Analytics
Analyse de cannibalisation/complémentarité clients communs entre enseignes d'un groupe retail, avec mesure CLV multi-marques et stratégies d'optimisation valeur client globale.

CDP Multi-Enseignes: 20M+ Contacts et 4 Md€ de Ventes Unifiées

CDP & Platform
Architecture et construction d'une plateforme CDP groupe mutualisant 20M+ contacts et algorithmes de plusieurs enseignes (4 Md€+ ventes couvertes) avec graphe de déduplication client et infrastructure as code complète.
Sur cette page