Pour analyser et optimiser l’efficacité de ses actions marketing sur ses différents produits et marchés, le groupe Pernod Ricard a conçu un outil basé sur les données, dénommé Matrix. Un produit digital phare, fruit d’une collaboration étroite entre métiers, data scientists et data engineers. (Bérénice Mercier (à gauche) et Violette Gaillard (à droite), membres du projet Matrix)

Les données tiennent depuis longtemps une place centrale dans la stratégie du groupe Pernod Ricard. Pour le producteur de vins et spiritueux, qui distribue 240 marques dans plus de 160 pays, les données sont en effet essentielles pour proposer « dans chacun de ses marchés, le bon produit, au bon moment, au bon consommateur et au bon prix ». Le projet Matrix, développé pour les équipes de marketing, illustre la façon dont l’entreprise met les données au service de ses métiers, grâce aux expertises combinées de ses data scientists et data engineers.

Il y a environ trois ans, le groupe a lancé trois grands programmes autour des données dans le cadre de sa transformation numérique, les Key Digital Products (KDP). Parmi eux, le projet Matrix. « Celui-ci avait pour objectif d’aider les équipes marketing à optimiser leurs campagnes et l’allocation de leur budget, en fonction des différentes marques et canaux publicitaires présents dans leur marché », explique Violette Gaillard, data engineer chez Pernod Ricard. Le groupe s’appuie en effet sur de nombreux canaux pour toucher des clients potentiels, parmi lesquels des plates-formes numériques, mais aussi des médias traditionnels.

Un modèle alimenté par des données propres à chaque marché

Pour optimiser les campagnes marketing, il fallait notamment connaître l’impact réel de chaque canal sur les ventes. « Pour cela, nous essayons de décrire ce qui s’est passé sur les campagnes précédentes, en vue d’obtenir des recommandations pour les budgets marketing futurs », indique Bérénice Mercier, data scientist chez Pernod Ricard. Ce modèle est alimenté par des données collectées dans les différents marchés, sur les ventes, la finance et les produits. Des données remontent également depuis les plateformes digitales, et d’autres par le biais des agences de publicité ou de marketing. Mais il s’agit de données brutes. Or les data scientists ont besoin de données « prêtes à l’emploi », pour alimenter leurs modèles, souligne Bérénice Mercier.

En amont, des ingénieurs data interviennent donc afin de transformer les données brutes en données directement exploitables par le modèle. Pour cela, les équipes bâtissent des pipelines de données avec différentes technologies, exploitant notamment Python, Spark ou SQL pour transformer, nettoyer et préparer les données, le tout dans le cloud Azure. « Nous utilisons également des bibliothèques et outils développés en interne pour accélérer, en particulier le Data Portal co-développé avec JC Decaux », indique Violette Gaillard, qui a depuis rejoint l’équipe chargée de cette solution. L’un des enjeux consiste également à industrialiser la collecte, encore en partie basée sur des processus manuels. « Nous mettons en place des processus basés sur des flux ETL (extract, transform & load) afin de faciliter la tâche aux équipes de data science », décrit la data engineer. « Mais ce sont les data scientists qui connaissent les données et nous décrivent leurs besoins », rappelle-t-elle.

Des master data pour unifier les données

Pour la préparation des données, les ingénieurs data se basent sur quatre piliers : la couverture du spectre, l’historique, la granularité et les métriques disponibles. « Sur les canaux digitaux, nous pouvons disposer de métriques assez précises, qui nous permettent d’emblée d’évaluer les données que nous recevons », pointe Violette Gaillard. Des master data ont été définies pour unifier les données et préserver la cohérence du modèle : les données d’entrée de chaque marché sont mappées vers ces données de référence, ce qui évite de modifier le modèle à chaque nouveau déploiement. « Nous faisons en sorte que tous les modèles soient alignés en termes de logique », explique Violette Gaillard. Les master data peuvent toutefois être amenées à s’enrichir, par exemple lorsqu’il faut ajouter un nouveau canal. Le modèle est alors réentraîné, « mais le but est d’avoir un modèle stable, qu’il ne faut pas redéployer tous les quinze jours », note Bérénice Mercier.

En cas d’écart avec les données souhaitées en entrée du modèle, l’équipe d’ingénierie étudie avec les data scientists les solutions de contournement possibles, qui sont ensuite soumises à une validation des métiers. « Parfois, nous pouvons transformer les données existantes afin d’être en mesure d’alimenter le modèle, mais parfois les données nécessaires ne sont pas disponibles dans certaines zones géographiques, auquel cas nous ne pouvons pas y déployer la solution », explique Bérénice Mercier.

Autonomie des utilisateurs dans la décision

De telles situations demeurent cependant peu fréquentes. Matrix a d’ores et déjà pu être mis en place dans plusieurs pays, et les équipes disposent aujourd’hui d’un certain recul sur les premiers marchés déployés. « Nous disposons de plusieurs KPI et métriques pour savoir si les recommandations sont pertinentes, et les premiers résultats se sont révélés très satisfaisants, avec des hausses des ventes observées », confie Bérénice Mercier. Par exemple, aux États-Unis, une nouvelle allocation des budgets basée sur les préconisations de Matrix a permis de multiplier par deux les ventes additionnelles sur la marque de whiskey irlandais Jameson, en l’espace de deux ans.

Un aspect clef dans le succès du projet concerne la façon dont les recommandations issues du modèle sont mises à la disposition des utilisateurs cibles, en l’occurrence les équipes marketing. Celles-ci disposent d’une application web développée en interne, qui leur permet de visualiser l’historique de toutes les campagnes passées et leurs contributions respectives sur les ventes. « Nous fournissons également une solution d’optimisation dans laquelle les utilisateurs peuvent spécifier différentes contraintes. Par exemple, ils peuvent indiquer les budgets prévus, ou se limiter à certaines marques ou certains canaux », détaille la data scientist. Dernier point essentiel, les équipes peuvent tester différents scénarios et sont autonomes dans la prise de décision finale. « Ce n’est pas l’algorithme qui pousse celle-ci », précise Violette Gaillard.

Des profils complémentaires, techniques et métiers

Le projet est désormais dans une phase de déploiement international et à l’échelle. « Nous mettons l’accent sur l’onboarding et les explications aux utilisateurs potentiels, afin qu’ils utilisent la solution. Le volet d’accompagnement au changement est important », souligne Bérénice Mercier. La cohérence du code entre les différentes régions se révèle également précieuse pour cette phase. « Cela permet d’avoir les mêmes discussions, les mêmes analyses, ce qui facilite et accélère le déploiement », fait observer la data scientist.

Matrix, comme les autres KDP, ont permis de réunir et de faire travailler ensemble tout un ensemble de profils et de métiers différents autour d’un programme data-driven : environ 150 collaborateurs au total sur l’ensemble des projets, incluant data scientists, ingénieurs data, designers, équipes IT, analystes data, ingénieurs en machine learning, représentants métiers et responsables du déploiement dans les différents marchés. Une dimension soulignée tant par Bérénice Mercier que Violette Gaillard, qui ont apprécié de pouvoir s’impliquer sur des sujets métiers.

Aurélie Chandeze

Article original à retrouver sur le site de notre publication sœur CIO