SlideShare una empresa de Scribd logo
1 de 112
Descargar para leer sin conexión
DATA-DRIVEN
COMPANY
SYNTHÈSE
DES ATELIERS
2017
1
DATA-DRIVEN
COMPANY
SYNTHÈSE DES ATELIERS
2017
2
PRÉAMBULE
Le big data est mort, vive le big data !
Les annonceurs semblent entrer dans
une nouvelle phase de maturité vis-à-
vis de l’utilisation qu’ils font de la data
client. La course au stockage effrénée
est pour beaucoup révolue, et le nerf
de la guerre réside aujourd’hui dans
la capacité à activer la data de façon
rapide et innovante.
Dans la bataille, les lignes des organi-
sations vacillent et s’ouvrent néces-
sairement, l’enjeu étant de croiser les
données au-delà des silos de l’entre-
prise : c’est la fameuse data-driven
company qui émerge. Soit dit entre
nous, le terme est un euphémisme,
car la data n’a de valeur qu’à partir
du moment où elle permet de faire
entendre la voix du client, encore et
toujours roi, plus exigeant que jamais.
Le nouvel eldorado, c’est peut-être la
customer-driven company.
Finalement, les choix technologiques
derrière l’élaboration d’infrastructures
big data ne sont qu’une composante
de chantiers éminemment stratégiques
et dont l’enjeu est simple : continuer
d’exister face au client dans un contexte
de transformation des usages.
3
Pour réfléchir aux meilleures
manières de résoudre le défi, pour
la 3ème année consécutive, l’EBG a
conduit en association avec 55, Turn
et IBM, un cycle de 7 événements,
pour permettre à 150 décideurs mar-
keting, data et digital de partager
leurs retours d’expérience autour de
l’avancée de leurs projets big data.
Le présent livret restitue les enseigne-
ments du cycle, cette année intitulé
Data-Driven Company, à travers sept
grandes synthèses des rencontres,
parsemées de citations des partici-
pants, de chiffres éloquents, d’avis
d’experts et enrichies d’entretiens
complémentaires.
L’EBG remercie l’ensemble des adhé-
rents contributeurs aux rencontres
et aux interviews complémentaires
d’avoir joué le jeu du partage d’expé-
riences. Merci également à nos
partenaires de 55, Turn et IBM avec
qui nous avons bâti le cycle et qui ont
parfaitement su animer ou éclairer les
rencontres de leurs avis experts.
Bonne lecture !
4
P.18
PRÉAMBULEP.02 P.06
P.20
P.08
P.22
P.32
P.34
P.36
P.46
CHAPITRE 1 :
COMMENT EXPLOITER
LE BIG DATA
POUR AMÉLIORER
L'EXPÉRIENCE CLIENT ?
SYNTHÈSE
DE LA TABLE RONDE
DU 17.06.2016
ENTRETIEN AVEC
ALEXIS TRICHET,
ORANGE
CHAPITRE 2 :
QUELLES UTILISATIONS
DE LA DMP POUR
UN MARKETING
PERSONNALISÉ
ET CRÉATIF ?
SYNTHÈSE
DE L’ATELIER DU
20.09.2016
ENTRETIEN AVEC
NICOLAS CAPURON,
TF1
CHAPITRE 3 :
DATA LAKE, L’OUTIL
INDISPENSABLE DE LA
VISION CLIENT 360°?
SYNTHÈSE
DE L’ATELIER DU
16.10.2017
ENTRETIEN AVEC
GAUTHIER LE MASNE
DE CHERMONT,
AIR FRANCE
5
CONTRIBUTEURS
PARTENAIRESP.72
P.86
P.50 P.74
P.58
P.62
P.70
P.60
P.84
P.88
P.96
P.98
P.104
SOMMAIRECHAPITRE 4 :
ASSOCIER BIG DATA
ET PROGRAMMATIQUE
POUR DES CAMPAGNES
PLUS PERFORMANTES
SYNTHÈSE
DE L’ATELIER DU
13.12.2016
ENTRETIEN AVEC
JULIEN CAFEDE,
AUCHAN.FR
CHAPITRE 5 :
METTRE LA DATA
SCIENCE AU SERVICE
DES MÉTIERS
SYNTHÈSE
DE L’ATELIER DU
17.01.2017
ENTRETIEN AVEC
ÉLISABETH ZEHNDER,
KIABI
CHAPITRE 6 :
INTERNALISATION
DE L'ACHAT MÉDIA :
UNE TENDANCE
DE FOND ?
SYNTHÈSE
DE LA TABLE RONDE
DU 17.03.2017
ENTRETIEN AVEC
SIMON VIVIEN,
WARNER BROS
CHAPITRE 7 :
LA DATA AU SERVICE
DE L'EFFICACITÉ
MARKETING
SYNTHÈSE
DE L’ATELIER DU
17.05.2017
ENTRETIEN AVEC
JULIEN-HENRI
MAURICE,
BAZARCHIC
P.48
6
Comment exploiter
le big data pour améliorer
l'expérience client ?
La montée en puissance des canaux digitaux réinterroge la proximité
entre la marque et le client. Beaucoup d’annonceurs ont gardé trace
des interactions à distance qu’ils entretenaient avec leurs cibles, et qu’ils ont
transformées en masses de données éclatées dans diverses bases.
Depuis, le big data est passé par là. Dès lors, comment repenser
sa stratégie marketing pour mobiliser ses données au service
du nerf de la guerre : l’expérience client ?
7
1.
8
Conférence d'ouverture
Cycle Data-Driven Company
Comment exploiter le big data
pour améliorer l'expérience client ?
Synthèse de la table ronde du 17.06.2016
9 9
PROGRAMME
Le big data est capable de traiter de très forts volumes de données
et de prendre en charge des types d’informations très hétérogènes.
Comment peut-il contribuer à pousser un cran plus loin l’optimisation
de l’expérience client, et à la décliner dans une logique omnicanale ?
• Comment globaliser la gestion de l’expérience client avec le
big data ?
• Visualisation, tableaux de bord : comment suivre en temps réel
les comportements des clients ?
• Comment croiser efficacement données internes et externes
dans une perspective big data ?
ANIMATEURS
• LA MUTUELLE GÉNÉRALE, Stéphane Barde, Responsable big data,
Information Management
• ORANGE, Alexis Trichet, Directeur Anticipation et Connaissance Client
• VOYAGES-SNCF.COM, Béatrice Tourvieille, Directrice Marketing
INTERVENANTS
• FIFTY-FIVE
Samboy Camara,
Practice Leader : Tech, Insurance
 Utilities
• IBM
Yan Lemoigne, Head of Sales
Analytics Platform
10
L’EXPÉRIENCE CLIENT,
3 ENJEUX, 1 MÊME
PRIORITÉ
La montée en puissance des canaux
digitaux réinterroge la proximité entre
la marque et le client. La question de
l’expérience en ligne devient absolument
décisive. Essentielle, même, pour tout pure
player. Chez voyages-sncf.com, Béatrice
Tourvieille considère d’ailleurs que « c'est
le premier driver de préférence et de choix
du service de réservations. » Cette priorité
révèle un fort enjeu de personnalisation.
« L'an passé (en 2015), nous avons lancé
un grand projet de refonte de notre service
avec une stratégie axée autour de la notion
de smart tourisme. Cette dernière repose
sur plusieurs piliers : un accès fluide aux
inventaires, un accompagnement sans
couture du voyage. Pour soutenir cette
stratégie, l'expérience client et la data sont
les deux blocs majeurs.
Voyages-sncf.com est le site de tous
les Français. Les 12 millions de visiteurs
mensuels n'attendent pas la même chose.
Le voyage est une expérience impliquante
et on a tous des besoins différents. Les
niveaux de maturité des clients sont très
hétérogènes. C'est pour cela que le besoin
de personnalisation est très puissant. La
convergence de l'expérience client et de la
data vise à répondre à ces enjeux-là. »
Hyperconnecté et de moins
en moins engagé envers une
marque ou un fournisseur,
le consommateur cherche
non seulement des prix
avantageux, mais aussi à
faire de son acte d’achat une
expérience affinitaire auprès
d’un vendeur qui le connaît,
le reconnaît et anticipe ses
besoins.
À ce titre, l’amélioration de
l’expérience client reste plus
que jamais essentielle pour
attirer et retenir les
consommateurs.
11
Chez Orange, c’est la satisfaction client qui
préside à la recherche d’une « expérience
incomparable », notion centrale du plan
Essentiel 2020, rapporte Alexis Trichet.
« Si on veut parvenir à piloter l'expérience
client comme on pilote aujourd'hui le CA ou
la conquête de clients, il faut se donner un
objectif clair. Pour nous l’objectif c’est de
diminuer le nombre de clients insatisfaits
et d’augmenter le nombre de clients très
satisfaits. Si l’on parle des clients insa-
tisfaits, aujourd'hui, ils sont environ 20 %.
Les entreprises les plus performantes
sont plutôt autour de 10 %. Ce sont ces
niveaux que nous voulons atteindre. C'est
une rupture par rapport aux périodes
précédentes où l'on s'attaquait à la notion
d'expérience client par petites touches et
sans objectif global. »
Mais la révolution de la relation client se
joue à la fois du physique et du digital. C’est
particulièrement le cas dans le monde de
l’assurance. « Historiquement, rappelle
Stéphane Barde (La Mutuelle Générale),
les contacts se sont faits en agence, puis
en call-center. Désormais, nous sommes
dans l'ère de la multicanalité. » Dès lors,
avant même de penser personnalisation,
un premier enjeu s’impose, celui de la
« cohérence de l'expérience que l'on fait
vivre à nos clients. Les interactions sont
peu fréquentes, et lorsque l'on appelle son
assureur, c'est généralement parce qu'il
y a un problème. L'interaction est donc
connotée assez négativement. L'enjeu
consiste à avoir davantage d'interactions
positives. »
ENRICHIR LES DONNÉES
INTERNES DE LA VOIX
DU CLIENT
Les canaux digitaux ont permis aux marques
d’accumuler foultitude de données depuis
plusieurs années, sans doute davantage
qu’elles n’étaient réellement capables de
traiter. Le big data en permet maintenant
une exploitation suffisamment rapide parfois
même en temps réel. Belle promesse, mais
qui ne saurait suffire.
Pour Alexis Trichet, les data internes à
l’entreprise doivent impérativement être
croisées avec « la voix du client ». Au
regard de l’enjeu d’Orange de maximiser
la satisfaction client, il s’en explique. « On
note trois grands motifs d'insatisfaction
des clients : le réseau, l'offre et la
relation client. Le premier produit d'un
opérateur, c'est le réseau. On considère
que les principaux efforts doivent se
concentrer sur ce point. Cela passe par
une compréhension fine des attentes des
clients. Cela a modifié la vision des équipes
techniques. Typiquement sur le mobile,
40 %
RÉCONCILIATION / AGRÉGATION
DE DONNÉES HÉTÉROGÈNES
32 %
COMMUNICATION / COMPRÉHENSION ENTRE
LES INTERVENANTS TECHNIQUES ET MÉTIERS
31 %
PROCESSUS DE COLLECTE
DE LA DONNÉE COMPLEXE
31 %
MANQUE DE COMPÉTENCES TECHNIQUES OU
DE RESSOURCES QUALIFIÉES
QUELLES SONT LES PRINCIPALES DIFFICULTÉS À SURMONTER CONCERNANT
VOS PROJETS STRATÉGIQUES AUTOUR DE LA DATA ? (Plusieurs réponses possibles)
Source : Baromètre EBG « Data Driven Entreprise » conduit auprès de 800 répondants, novembre 2016
12
cela nous a obligés à revoir l’importance
de la couverture vs les débits, et de revenir
à des évidences : les gens veulent être
connectés partout et aujourd’hui cette
demande n’est pas encore totalement
satisfaite. Il y a donc une grande mutation
en cours : le marketing, qui était jusque-
là concentré sur l'ingénierie tarifaire, doit
désormais éclairer les porteurs de coûts,
soit les équipes techniques et relation
client, sur les projets prioritaires pour tenir
nos objectifs de satisfaction. »
Voyages-sncf.com a « également vécu
cette phase de remise au centre des
attentes clients » confie Béatrice Tourvieille.
« Il y a une grande complémentarité
entre la partie data et la partie études
pour permettre aux équipes de mieux
s'approprier les attentes des clients. Notre
communication était très centrée sur les
tarifs ; il a fallu faire davantage remonter
des éléments liés au voyage en tant que
tel. La voix du client a été un élément très
fédérateur et mobilisateur pour les équipes,
à travers des KPIs très clairs. »
Le big data porte peut-être mal son nom.
À l’heure du marketing personnalisé, son
principal avantage n’est pas tant de permettre
l’exploitation de larges bases de données,
mais de savoir faire parler des données
de diverses sources et recelant des
informations variées. « L'expérience client
est également un moyen de capter des
données qui, aujourd'hui, nous manquent.
Ces données, une fois travaillées, nous
permettront de personnaliser ce que l'on
apporte aux clients, avant et après la vente. »
observe ainsi Stéphane Barde (La Mutelle
Générale).
SOURCES DE DONNÉES :
FAUT-IL ALLER VOIR
AILLEURS ?
Une fois la « voix du client » captée, faut-
il se tourner vers les multiples sources de
données externes, aujourd’hui disponibles,
en accès libre ou payant ?
Chez voyages-sncf.com, qui a « la chance
de ne pas manquer de données (CRM,
usage, navigation), le cœur de ce qui est
utilisé, ce sont les données internes. »
Ce qui n’empêche pas d’aller voir ailleurs.
« Nous utilisons aussi des données
externes, comme les données de ciblage
que peuvent nous apporter tous les outils
d'acquisition. Nous avons aussi recours à
des données autour du voyage (référentiels
géographiques, points d'intérêts, données
météorologiques, etc.). »
Une logique similaire prévaut chez Orange,
où la priorité va d’abord à l’exploitation des
données internes. « Nous faisons quelques
achats pour ce qui concerne l'activation
sur Internet. Mais sur l'amélioration du
service rendu, ce sont avant tout nos
propres données qu'il convient de scruter.
88 % des entreprises estiment disposer
d’une bonne connaissance de leurs clients
13
Les équipes techniques n'ont pas manqué
l'arrivée d'Hadoop il y a quelques années.
Elles étaient plutôt en avance sur nous. »
Le recours aux données externes vient
donc dans un second temps. Il importe
avant cela de savoir capter soi-même les
bonnes données. En 2016, La Mutuelle
Générale travaillait sur ce chantier. « Il y a de
nombreuses réflexions menées autour de
la donnée. Il nous manque énormément de
matière pour faire de la personnalisation.
Il convient donc d'identifier les données
clefs qui nous manquent et de modifier nos
parcours clients pour capter ces données.
Des projets de personnalisation de la page
d’accueil, du tunnel de vente, de l'espace
client sont en cours et la Data Management
Platform devrait nous y aider.
Pour l'heure, nous n'avons pas tellement
eu recours à des données externes. Sur
l'open data, on reste sur de grand classique
(données INSEE, densité de professionnels
de santé par km², etc.). Une expérience
intéressante en cours vise à avoir un
thermomètre sur le mécontentement en
analysant des forums. On n'en est encore
qu'au stade du balbutiement sur ce point. »
UN EFFORT DE
DÉSILOTAGE CHEZ TOUT
LE MONDE ENGAGÉ
Une fois les données captées ou acquises,
le chantier ne fait que débuter. Et puisque
l’expérience client implique de près ou de
loin toutes les fonctions, la transformation
sera collaborative ou ne sera pas. Pour
Stéphane Barde (La Mutuelle Générale),
« l'enjeu de l'expérience client est avant tout
un enjeu de prise de conscience sur le fait
que cela ne concerne pas que le marketing !
Il s'agit donc de travailler de manière
transverse autour du concept de parcours
client et d'amélioration de l'expérience. »
Béatrice Tourvieille (voyages-sncf.com)
dresse un constat similaire. « La partie data
a été placée au marketing. Ensuite, il y a
un vrai enjeu de rayonnement de cette data
au sein de l'organisation. Nous sommes
organisés autour de feature teams, qui
sont des équipes multi-compétences
chargées de gérer des fonctionnalités du
site. Aujourd'hui, la data doit être injectée
au sein de chacune de ces feature teams. »
Chez Orange, la transversalité est aussi de
mise, avec pour objectif d’aligner chaque
direction autour des mêmes objectifs
de satisfaction client. « Au point de vue
organisationnel, témoigne Alexis Trichet,
il a fallu s'appuyer sur une gouvernance
destinée à traiter les problèmes de
1. Source : Talend
Mais seulement 61%des consommateurs
pensent que les entreprises comprennent leurs
besoins1
14
satisfaction client. Elle réunit la Direction
Technique, la Direction de la Relation Client
et la Direction Marketing. Tous les quinze
jours, nous analysons les indicateurs de
qualité tournés clients. »
Cet alignement dépasse la question de
l’organisation et de la gouvernance. Les
outils utilisés doivent également évoluer
pour permettre un pilotage plus customer-
centric. « Ce que nous cherchons à faire
c’est à piloter pour chacun de nos clients
leur satisfaction. Cela nécessite une
évolution notable de notre CRM qui, jusqu’à
présent, était plutôt orienté historiques des
interactions, offres et options. Notre vision
c’est qu’il contienne tous les éléments qui
nous permettront de considérer ce client
comme satisfait ou insatisfait pour pouvoir
agir en conséquence.
Il y a évidemment des fiches clients sur
lesquelles sont inscrites quasiment toutes
les interactions. Il s'agit ici de construire une
vue à 360 degrés en inscrivant également
ce que l'on a compris de l'expérience
technique telle que le client l'a vécue.
Nous n'en sommes qu'aux prémices, mais
l'interaction avec le produit/service doit
être résumable. »
DEPUIS 2016, PREMIERS
PAS VERS LA DMP
Interrogés sur leurs recours à la DMP,
les intervenants confient tous trois s’être
lancés. Mais Béatrice Tourvieille avertit,
« pour bien utiliser la DMP, il faut déjà avoir
un niveau de compréhension des canaux
assez fin. On travaille ainsi sur des scénarii
d'activation en cross-canal. » Elle précise le
contexte du recours de voyages-sncf.com à
la DMP. « L'acquisition est assez centrale
dans le modèle, avec des degrés
d'importance différents dans le business.
En France, on est davantage dans une
approche CRM ; à l'international on est plus
dans une logique de conquête. La DMP
nous permet d'avoir une activation la plus
fine possible pour activer en acquisition et
sur des canaux externes des clients que
nous connaissons déjà. Il a d'abord fallu
passer par une phase de mise à niveau de
tous les canaux d'activation. »
À La Mutuelle Générale, la DMP est
également vue comme un levier d’optimi-
sation de la stratégie d’acquisition. « Pour
l’acquisition, explique Stéphane Barde, en
fonction des canaux d'entrée, on essaie
déjà de comprendre comment les clients
vont se révéler appartenir à tel ou tel type
de profil. L'idée consiste à faire les bons
investissements médias en amont, en
TOP 3 DES OUTILS D’ANALYSE DE LA DATA (Plusieurs réponses possibles)
OUTILS DE WEB ANALYTICS
OUTILS CLASSIQUES DE REPORTING
OUTILS D’ANALYSE STATISTIQUE / DATAMINING
55 %
48 %
45 %
Source : Baromètre EBG « Data Driven Entreprise » conduit auprès de 800 répondants, novembre 2016
15
fonction du type de clients que l'on aimerait
avoir. La DMP nous servira à atteindre cet
objectif, en faisant le lien entre différents
segments de données. »
NOUVELLES
COMPÉTENCES : LES
ATTIRER…ETLESRETENIR
On l’a vu, repenser l’expérience client
grâce au big data, c’est savoir capter les
bonnes données et par la suite, repenser
l’organisation, la gouvernance et ses outils.
Mais ce n’est pas tout. Le nerf de la guerre,
ce sont les compétences.
Des remarques récurrentes à ce propos
pointent la difficulté à trouver des profils de
data scientists. La compétence est sans
doute d’autant plus rare qu’elle requiert
tout à la fois une bonne compréhension des
enjeux métiers et la maîtrise d’outils pointus.
À La Mutuelle Générale, la compétence
est d’ailleurs « partagée entre différentes
équipes travaillant en mode agile ». Aussi
Stéphane Barde confie-t-il. « Le premier
challenge, avec les data scientists, c'est
de parvenir à les recruter ! Les vrais
profils sont assez rares et le monde de la
data science est actuellement très petit.
Il y a peu de seniors dans ce domaine.
Quand on n'est pas un pure player et que
l'on se lance dans la data science, c'est
difficile. Nous avons choisi de valoriser les
compétences internes et de prendre un
ou deux très bons data scientists. Nous
avons aussi pris des stagiaires issus de
très bonnes écoles que nous formons.
Cette formule fonctionne plutôt bien. Tout
l'enjeu consiste à les faire rester en rendant
les missions intéressantes. »
Pour disposer des compétences suffisantes,
Béatrice Tourvieille (voyages-sncf.com) mise
elle aussi sur la montée en compétences,
avec le développement d’un écosystème
de profils. « Il est en effet très difficile
de recruter, puis de retenir des data
scientists. Nous avons recruté des juniors
et seniors avec cette logique de montée en
compétences. Des prestataires travaillent
également avec nous pour compléter les
équipes. Nous tenons à mettre en place
une certaine porosité entre les équipes
datamining et les équipes data science
pour offrir de la montée en compétences.
La confrontation des équipes data science
avec des contraintes business, des con-
traintes d'implémentation ne se fait pas
naturellement. Nous avons créé des
nouveaux rôles, comme par exemple celui
de product owner d'algorithme, pour jouer
un rôle de facilitateur. Un écosystème de
profils se crée et évolue dans le temps ; il
convient de le faire vivre régulièrement. »
Pour les quelques acteurs qui, comme
Orange, ont la chance de pouvoir capitaliser
sur une expertise historique d’analyse de la
donnée, la data science peut également être
vue comme une chance de nourrir une partie
d’équipe en sujets nouveaux et entrainants.
« Historiquement, rappelle Alexis Trichet, il
y a toute une partie recherche de France
En 2016
19% des annonceurs français affirmaient s’être déjà dotés d’une DMP
23% y travaillaient 25% y réfléchissaient
0
0
60 %
48 %
47 %
46 %
Source : Forrester Consulting pour Accenture Interactive, Juin 2016, Via EMarketer
DÉVELOPPER/AMÉLIORER LES CANAUX DIGITAUX
DÉVELOPPER/AMÉLIORER LES CANAUX
TRADITIONNELS
AMÉLIORER SES CAPACITÉS D’ANALYSE POUR
AMÉLIORER LES INSIGHTS
CRÉER DAVANTAGE DE CONTENUS PERTINENTS
POUR LES CLIENTS
Télécom qui était très pointue dans le
domaine des statistiques. Nous avons
donc la chance d’avoir une expertise très
solide depuis de nombreuses années.
L’équipe de datamining/datascience, qui
traditionnellement au marketing était
concentré sur des sujets de pricing et
d’évaluation de ROI, est depuis 2 ans
redéployée en partie sur le sujet de la
satisfaction, sujet passionnant pour les
équipes. »
LA CONFIANCE AU CŒUR
DES DÉBATS
La condition essentielle pour une expé-
rience client incomparable est sans conteste
le maintien du lien de confiance entre
l’utilisateur et la marque. Le client n’autorisera
pas la manipulation à distance de ses
données personnelles sans contreparties ;
en premier lieu, il exigera de se voir apporter
un supplément de valeur. Un pure player
comme voyages-sncf.com en a pleinement
pris conscience. « Nous utilisons les données
clients pour travailler des éléments de
personnalisation et améliorer la satisfaction.
On reste donc dans des enjeux d'apport de
valeur ajoutée. C'est d'ailleurs notre sujet
principal, il n'y a donc aucune tentation de
diverger de cette ligne.
L'expérience client est globalement en
train de se disperser, de s’éclater. Il y a un
enjeu fort à porter notre message et notre
service à l'endroit où sont nos clients.
Pour apporter de la valeur ajoutée partout,
c'est la connaissance client qui constitue
le socle. C'est là-dessus que se fonde la
pertinence de nos interactions. »
La deuxième contrepartie pour avoir
légitimité à manipuler à distance les
données personnelles du client, c’est
d’être transparent sur l’usage que l’on fait
des data – ainsi que le prévoit d’ailleurs la
réglementation. Alexis Trichet rappelle pour
Orange : « Dès que l'on entre dans des
démarches commerciales, on demande
évidemment l'accord du consommateur.
La CNIL est prise au pied de la lettre et on
reste bien à distance des terrains glissants. »
Stéphane Barde (La Mutuelle Générale)
résume en concluant qu’il y a pour eux
« deux garde-fous naturels : les contraintes
légales et la nature même de l'entreprise.
Une des valeurs essentielles des mutuelles,
c'est la solidarité. Nous avons donc une
barrière éthique qui s'impose naturellement
à nous-mêmes. Par exemple, nous avons
refusé d'établir un score qui prenne en
compte le prénom.
Par défaut, les données sont anonymisées.
Ce parti-pris fort coûte de l'argent et de
l'énergie. Pour chaque data set traité, une
fiche sécurité est créée pour mentionner
les données sensibles qui s'y rapportent. »
PRINCIPALES INITIATIVES POUR AMÉLIORER L’EXPÉRIENCE CLIENT
(Étude internationale)
17
Nicolas Vaudran
55
L’analyse et l’activation des données ont désormais des applications infinies à chaque
étape du parcours client, que ce soit en phase :
• d’acquisition : scoring de lead, ciblage, segmentation, personnalisation des canaux
proposés selon les préférences du client…
• d’engagement et de conversion : pilotage des parcours grâce à l’analytics, up-sell
et cross-sell ciblé…
• ou de fidélisation / rétention : campagnes de fidélisation personnalisées, programmes
prédictifs anti-churn…
L’exploitation des données permet de mettre en perspective les comportements des clients
pour adapter sa stratégie de marque, et de mesurer la juste performance des actions menées.
Face à cette richesse, l’enjeu est de proposer une expérience client différenciante par
rapport aux concurrents et cohérente du point de vue client, à l’heure où celle-ci devient
centrale dans la stratégie de marque.
Le pilotage de l’expérience client par la donnée dépasse maintenant le seul cadre du digital :
ainsi, l’utilisation de bases de données tierces, par exemple celle de Facebook et ses
30 millions d’utilisateurs en France, permet de recouper les informations contenues dans
les programmes de fidélité des commerçants (nom, prénom, adresse email) et les données
de navigation digitales, décrivant ainsi les parcours client digitaux en amont de l’achat en
boutique.
De nouvelles notions voient alors le jour, comme le super chiffre d’affaires (CA)
rassemblant CA digital et CA en magasin, ou encore les contributions des campagnes
mobiles aux conversions en magasin, qui constituent autant d’outils de pilotage de
l’amélioration de l’expérience client globale, à la fois physique et digitale.
Comment exploiter le big data pour améliorer
l'expérience client ?
AVIS D'EXPERT
18
« Le potentiel
est gigantesque »
ORANGE
ALEXIS TRICHET
Directeur Anticipation
et Connaissance Client
Alexis Trichet partage ses impressions
sur la conférence d’ouverture et insiste
sur le potentiel de l’utilisation des
données internes dans l’amélioration
de la satisfaction client.
Entretien
QUE VOUS INSPIRENT LES PROJETS
DE VOYAGES-SNCF.COM, LA
MUTUELLEGÉNÉRALEETVOUS-MÊME?
Ce qui m’a marqué, c’est que nous avons
tous décidé de prendre le sujet du big data
par les use cases. Nous partageons l’idée
qu’il faut avoir une question business à
résoudre.
J’ai également observé que nous sommes
tous en train de nous réapproprier nos
propres données : il y a déjà tant à faire
avec ce dont nous disposons. Le potentiel
est gigantesque et alimentera sans doute
fortement les 2-3 prochaines années.
COMMENT SÉLECTIONNEZ-VOUS LA
BONNE DONNÉE ?
Nous faisons quelques achats pour ce
qui concerne l'activation sur Internet.
Mais sur l'amélioration du service rendu,
ce sont avant tout nos propres données
qu'il convient de scruter. Les équipes
techniques n'ont pas manqué l'arrivée
d'Hadoop il y a quelques années. Elles
étaient plutôt en avance sur nous.
VOUS AVEZ DÉCRIT LA SATISFACTION
CLIENT COMME UN ÉLÉMENT CENTRAL
DU PLAN ESSENTIEL 2020 ?
Nous sommes en plein effort pour
comprendre ce qui est déterminant dans
la satisfaction de nos clients. Le fait de
croiser la voix du client et les données
internes à l’entreprise se révèle donc
absolument essentiel pour poser les bons
diagnostics. Et sans bon diagnostic, pas
de bon remède.
Si l’on n'est pas en mesure d'aller loin
dans la résolution de nos problèmes de
qualité, c'est parce que jusqu'à présent,
les équipes s'attachaient soit aux données
internes, soit au client, mais pas à ces
deux éléments simultanément. La réunion
de ces deux axes permet d'avoir une
vision autrement plus pertinente.
AVEZ-VOUS, VOUS AUSSI, FAIT LE
CHOIX DE LA DMP ?
Nous avons aussi décidé de mettre
en place une DMP qui tourne depuis
quelques mois sur deux cas : la fibre
et Sosh. Nous sommes encore en
rodage mais les premiers résultats sont
prometteurs.
18
19
CONCLUSION
Les directeurs marketing seraient en passe de devenir les gardiens du temple
de l’expérience client. Une affirmation à nuancer, au moins deux fois.
Tout d’abord, parce que les métiers du marketing devront accélérer leur
mutation, autour du triptyque personnalisation, contenus et data. Ces trois
ambitions sollicitent des compétences et des savoir-faire nouveaux : la maîtrise
des outils issus du big data, la capacité à entraîner les agences vers une
créativité sans cesse renouvelée, le bagage technique pour dialoguer avec des
profils davantage math que mad men…
De plus, pour faire de l’expérience client l’alpha et l’oméga de sa stratégie
marketing, la transformation des métiers du marketing ne saurait y suffire.
Il revient aussi aux équipes IT, digitales, data, ou encore, des opérations, de
se changer en éclaireuses au-delà des silos ; car ce dernier obstacle empêche
encore de disposer d’un réel panorama clients, prélude indispensable à la
qualité de l’expérience.
20
Quelles utilisations de la DMP
pour un marketing
personnalisé et créatif ?
Les consommateurs ont adopté toute une série de tactiques
pour contourner les messages publicitaires.
La DMP peut-elle aider les équipes marketing
à construire des messages plus percutants
qui sachent (re)conquérir l’attention de leur audience ?
21
2.
22
Workshop
Cycle Data-Driven Company
Quelles utilisations de la DMP pour un
marketing personnalisé et créatif ?
Synthèse de l’atelier du 20.09.2016
23 23
• TURN, Kamal Mouhcine, Sales Director South Europe
• TURN, Eymeric Chateau, Country manager Central  Southern Europe
ANIMATEURS
PROGRAMME
La DMP promet de maximiser la connaissance de chaque client et
prospect pour produire une interaction hyper-individualisée. Mais dans
le même temps, les équipes marketing doivent repenser leur stratégie
éditoriale et trouver de nouvelles façons d’engager l’utilisateur tout au
long du tunnel de conversion.
• Comment la data peut-elle nourrir une stratégie de marketing
de contenus créative ?
• Scénarisation : quelles bonnes pratiques pour construire
des campagnes imaginatives et engageantes ?
• Quels sont les apports et les limites de la DMP dans ce nouveau
marketing personnalisé et créatif ?
PARTICIPANTS
• TRANSAT FRANCE
Roberta Graser, Responsable Pôle
Audience  Acquisition
• FRANCE TÉLÉVISIONS
Skander Essid, Responsable
Technique Data et Digital Marketing
• SPECIALCHEM
Éric Escure, Directeur Technique
• IBM
Bertrand Douriez, IBM Software Sales
• CRÉDIT MUTUEL NORD EUROPE
Rémi Deltombe,
Responsable Data Management
• BOURSORAMA
Caroline Baldeyrou, Directrice Média
• BOURSORAMA
Aurélie Rossignol,
Responsable Datamining
• FNAC
Camille Berland, Responsable
Marketing Digital Relationnel
• UBISOFT
Gwenn Berhault, EMEA CRM Manager
• FIFTY-FIVE
Mike Bettan, Media Analytics
Senior Manager
• FIFTY-FIVE
Gwenn Charlot, Project Lead
• CABINET HOCHE
Régis Carral, Avocat Associé
• RENAULT
Servane Corot,
Chef de projet PRM
• CHANEL
Laura Yedid, Responsable
Fidélisation e-commerce
• ORANGE
Valérie Pernelle,
Head of Customer Value
Management  Big data
• KIABI
Arnaud Mandon, Trafic Manager
24
RÉPONDRE À UN DEVOIR
D’INSTANTANÉITÉ
Avant de débuter les échanges, Kamal
Mouhcine (Turn) rappelle la raison d’être de
la DMP.
« Une Data Management Platform est, en
quelque sorte, un entrepôt de données
dans lequel seront stockées un maximum
d’informations issues de sources différen-
tes. Le principal enjeu consiste à unifier
ces sources d’informations afin de les
mettre au service de l’amélioration de
la connaissance client. La grande force
d’une bonne DMP, c’est d’avoir un
maximum de connexions préétablies, afin
de faciliter le fonctionnement du dispositif
global. Tout ce système doit répondre à
un devoir d’instantanéité : bien souvent,
une information (par exemple, le signe
d’une volonté de résiliation du contrat d’un
consommateur) doit nécessiter une réaction
marketing immédiate (appeler l’abonné pour
faire le point sur sa situation, selon le même
exemple). Malheureusement, l’insight est
bien souvent assez peu valorisé, les acteurs
tendent à rechercher le ROI immédiat… Le
grand défi n’est pas de récolter toujours
davantage de données, mais de parvenir à
identifier les bons insights.
Concernant la notion de programmatique,
l’écosystème n’en est encore qu’aux
balbutiements. Mais l’objectif ultime consiste
à disposer d’une vision véritablement unifiée
(social, vidéo, mobile, display, etc.). »
Par Kamal Mouhcine
et Eymeric Chateau, Turn
« La notion de big data ouvre
la voie à la collecte d’un
nombre très important de
données, peut-être même
trop important… Au cours
des dernières années, de
plus en plus d’internautes
ont adopté les dispositifs
adblockers, car ils estiment
que les messages ne sont
pas adaptés, ou sont trop
peu créatifs. Aujourd’hui, il
est nécessaire de parvenir à
déclencher une véritable
conversation avec les
consommateurs, sinon le
message sera noyé parmi
des centaines d’autres… »
25
DE LA CONNAISSANCE À
L’ENGAGEMENT CLIENT
Kamal Mouhcine (Turn) prolonge ses propos
introductifs.
« Comment la data peut-elle vous aider à
proposer des campagnes plus intelligentes ?
La donnée brute relève de la notion de
connaissance client, alors que la créativité
se propose de toucher à la notion
d’engagement. En un mot, la créativité
permet d’optimiser l’expérience de marque.
Du côté de l’annonceur, l’enjeu principal
consisteàrationalisertouteslesdonnéesafin
d’aller rapidement à l’essentiel : commencer
par des choses simples, identifier une
poignée de données clefs, regrouper cette
donnée en cibles marketing, rechercher
des insights utiles. Dans ce contexte,
les créatifs doivent impérativement être
intégrés dans l’ensemble de cette chaîne.
Turn a interrogé environ 250 créatifs présents
au Royaume-Uni. Le premier grand ensei-
gnement de cette étude, c’est que le
concept de data est bien peu maîtrisé par
cette population, alors même qu’il est d’une
très grande utilité et que les data ont tout
intérêt à être partagées avec la totalité de la
chaîne de valeur.
Cette étude contribue également à montrer
qu’il existe de très grands écarts en fonction
des générations de créatifs. Jeunesse
ne rime pas forcément avec sagesse, car
pour les millennials ou la génération Y,
la donnée n’est pas jugée absolument
nécessaire… Or, bien comprendre son
audience à travers les data permet de
proposer des formats beaucoup plus
impactants. Il convient donc d’évangéliser
ces populations en proposant davantage de
transparence, en les impliquant beaucoup
plus dans la réflexion, en fluidifiant au
maximum le partage. »
PERSONNALISER LES
MESSAGES GRÂCE À
LA DMP
L’objet de l’atelier était de réfléchir aux
usages de la DMP au service de campagnes
imaginatives et engageantes. Il convient
donc de sortir des messages standardisés.
L’importance de la personnalisation à l’ère
du marketing digital n’est plus à démontrer :
début 2014, une étude Terradata révélait
déjà que 80 % des directions marketing
digital y voyaient la clé de succès de leurs
initiatives1
.
Skander Essid (France Télévisions) partage
un cas d’usage de la DMP en ce sens. « Sur
la plateforme Culturebox qui regroupe
toute l’offre culturelle de France Télévisions,
la newsletter proposait auparavant à tous
les abonnés les mêmes sujets présentés
de la même façon... Depuis quelques
temps, grâce à la DMP, nous sommes en
1. Teradata 2014, Étude « Digital Marketing Insight Report » menée auprès de 1506 décideurs marketing
à travers le monde.
Début 2014, 80%des directions marketing
digital voyaient déjà dans la personnalisation la
clé de succès de leurs initiatives1
.
mesure de proposer une personnalisation.
Une analyse du parcours sur Culturebox
et sur les autres sites du groupe France
Télévisions permet de segmenter les
appétences : théâtre, cinéma, comédies
musicales, etc. Il s’agit de données
comportementales et anonymes, car il
n’est pas nécessaire d’être logué pour
naviguer sur nos sites.
Aujourd’hui, l’objet de la newsletter
ainsi que l’article présenté à la une sont
personnalisés en fonction du profil de
chaque abonné. Le dispositif nous a permis
de multiplier par cinq le taux d’ouverture. »
La DMP peut donc être utilisée pour affiner
en continu le ciblage de l’audience et en
ce sens, scénariser une succession de
messages plus percutants, plus vivants.
Eymeric Chateau (Turn) détaille ce principe
de scénarisation. « Au-delà de la data,
l’enjeu est de créer différents segments.
Sur le marché, une grande tendance
émerge : le dispositif d’analyse de clusters.
Le premier constat, c’est qu’il y a plein
de caractéristiques contradictoires dans
l’audience, et le risque est d’entrer bien
trop dans le détail. Autant d’opportunités
manquées pour les marques…
L’ambition de l’analyse de clusters consiste
à identifier quelques grandes tendances
dans des populations très larges afin
de former, ensuite, des sous-groupes
représentatifs dotés d’une poignée de
caractéristiques définies.
Cette analyse offre la possibilité de voir
subtilementdequellemanièrelesaudiences
réagissent aux messages créatifs. C’est
l’opportunité de créer des contenus qui
vont faire écho à votre audience.
Il s’agit également de comprendre la
complexité du fameux customer journey :
on porte une analyse macro sur chacun
des groupes afin de déterminer quelle
fréquence de messages paraît la plus
appropriée, par exemple.
Enfin, l’objectif ultime consiste à prédire les
prochains intérêts de vos clients et de vos
prospects. À terme, nous parviendrons à
déployer des outils qui soient en mesure de
tout intégrer : CRM, vidéo, mobile, social… »
ADAPTER SA PUBLICITÉ À LA GÉNÉRATION : RÉPARTITION DE
L’INVESTISSEMENT MÉDIA PAR CANAL
Les annonceurs investissent 500 % de plus auprès de la génération Y que de toute autre audience
Dans le display Dans les réseaux
sociaux
Dans les appareils
mobiles
Dans les vidéos
26
27
Régis Carral
Cabinet Hoche
L’ŒIL DE L’AVOCAT
« Vouloir mieux connaître son client ne doit
pas avoir pour conséquence de limiter
ses droits et libertés »
La DMP a pour objet d’améliorer la qualité de la relation client, notamment en centralisant
l’ensemble des données le concernant collectées par différents moyens au cours de la
relation. Une fois centralisées, ces données peuvent être analysées et classées afin d’établir
le profil du client et lui proposer des services adaptés et personnalisés. Les informations
analysées sont de plus en nombreuses et précises en vue d’élaborer ces profils clients
qui se veulent plus pertinents.
Toutefois, vouloir mieux connaitre son client ne doit pas avoir pour conséquence de limiter
ses droits et libertés en matière de protection des données personnelles, à plus forte raison
si les interactions avec le client et leurs contenus dépendent de l’appartenance à un profil
déterminé.
En effet, selon le Règlement UE n°2016/679 du 27 avril 2016 relatif à la protection des
données personnelles, applicable à compter du 25 mai 2018, le profilage consiste à traiter
des données personnelles pour analyser, évaluer certains aspects personnels ou prédire
les préférences et les comportements d’une personne. Le principe est l’interdiction de
recourir au profilage puisque le texte prévoit le droit ne pas faire l’objet d’une décision
exclusivement fondée sur le profilage, sous réserve des quelques dérogations prévues par
ce texte. Dans l’hypothèse d’un profilage, la personne concernée doit être informée de son
existence, des conséquences et de son droit de s’opposer à celui-ci.
Enfin, en cas d’évaluation systématique et approfondie d’aspects personnels, notamment
grâce au profilage, le Règlement prévoit qu’une analyse d’impact relative à la protection
des données est requise.
Source : Résultats de l’analyse des données provenant de la plateforme Turn, 2016
28
MÉDIAS VS. CRM :
QUI PILOTE LA DMP ?
Comme Gwenn Berhault (Ubisoft) le rappelle,
« on tend généralement à opérer une
distinction assez nette entre DMP CRM
et DMP Média. Pourtant, il semble que le
grand enjeu consiste justement à fondre
ces deux environnements, sinon les
organisations verront les silos perdurer…
Pour l’heure, le média semble dans le
flou ; il a besoin de la connaissance client
pour pouvoir déclencher des campagnes
véritablement optimisées. »
Eymeric Chateau (Turn) consent qu’il existe
en effet « des DMP qui ont un ADN média,
et d’autres qui ont un ADN plutôt CRM.
S’ajoute à cette distinction la complexité
liée à la question de la privacy. Mais
évidemment, le grand enjeu qui doit nous
animer, c’est que demain la DMP soit aussi
performante côté CRM que côté média. »
Ce qui amène à la question centrale, posée
par Kamal Mouchine (Turn), « qui pilote la
DMP ? Ce ne doit pas être une équipe
CRM ni une équipe média, mais une équipe
véritablement unifiée. »
Eymeric Chateau conclut alors : « au plan
organisationnel, l’objectif doit être de briser
les silos et de limiter les outils technologiques.
Pendant la phase d’exécution de la DMP, le
piège serait de recréer des silos… aussitôt,
tout l’avantage de la DMP serait réduit à
néant. »
BÉNÉFICES ET LIMITES
DE LA DMP
KamalMouhcine(Turn)poursuitlaconclusion
en ces termes.
« Même si nous n’en sommes encore
qu’aux balbutiements sur la DMP, les princi-
paux bénéfices sont les suivants :
• Segmenter
• Avoir une vision unifiée du customer
journey
• Casser les silos
• Améliorer la connaissance client
• Créer des sous-segments à transmettre
à l’agence créative (laquelle doit être
data approach)
• Réagir rapidement
• Faire travailler des équipes qui n’auraient
a priori jamais évolué ensemble
Dans ce contexte, demeurent quelques
limites :
• Risques de tiraillements au sein des
équipes
• L’implémentation représente un processus
long et complexe qui nécessite des
ingénieurs pour bien saisir l’ensemble
des enjeux
• Intégrer une technologie nouvelle à
l’existant est un véritable challenge
technologique et humain (d’autant que,
au sein de l’entreprise, certains métiers
peuvent être mis en péril) »
Au même titre que le design et le synopsis, font partie des
priorités d’une publicité digitale4
:
La pertinence, pour 67%des collaborateurs en agence
Le lieu, pour 60% La temporalité, pour 59%
4. Étude Morar Consulting pour Turn, mai 2016
29
Eymeric Chateau
Turn
Créativité et programmatique devraient être en symbiose. La programmatique peut
en effet donner aux créatifs les données dont ils ont besoin pour créer des publicités
efficaces et ciblées. Malheureusement, aujourd’hui, les équipes programmatiques et
créatives ne travaillent pas suffisamment ensemble. Dans le monde de l’entreprise, la
tendance est en effet de fonctionner en silos.
Les responsables créatifs pensent souvent que leur travail repose sur l’inspiration et
consiste à créer quelque chose de convaincant et d’émotif. Les données pourraient
pourtant renforcer cette créativité, tout en rendant leur approche moins intrusive. Au
cours des dernières années, de plus en plus d’internautes ont adopté les dispositifs
adblockers, jugeant les messages inadaptés ou trop peu créatifs. Aujourd’hui, il est
nécessaire de parvenir à déclencher une véritable conversation avec les consommateurs,
pour éviter que le message ne soit noyé parmi des centaines d’autres…
En parallèle, la notion de big data ouvre la voie à la collecte d’un nombre toujours
plus important de données, dont le principal enjeu consiste à unifier ces sources
d’informations afin de les mettre au service de l’amélioration de la connaissance client.
Les meilleures campagnes créatives ont souvent comme point de départ une analyse de
ces données. Pour optimiser l’impact de leurs campagnes, les marques doivent veiller
à ce que les équipes créatives d'une part, et les équipes de planification et d'exécution
de plan média d’autre part, travaillent ensemble et aient accès aux mêmes données et
informations.
AVIS D'EXPERT
35%des créatifs britanniques indiquent
que les marques ont du mal à partager leurs
données avec eux3
3. Étude Morar Consulting pour Turn, mai 2016
31
CONCLUSION
Les consommateurs ont adopté toute une série de tactiques pour contourner
les messages publicitaires, quel que soit le format : généralisation des
adblockers, fermeture immédiate des messages vidéos détection des
informercials… Les marques doivent donc développer des stratégies de
content marketing à valeur ajoutée, dont la promesse produit authentiquement
du sens pour le visiteur. Cette stratégie d’animation doit être à la fois créative
et omnicanale, avec une cohérence entre le message et la recherche du client,
ses besoins, son profil familial, sa localisation géographique ou sa CSP…
La DMP promet précisément de maximiser la connaissance de chaque client
et prospect pour produire une interaction hyper-individualisée. Mais comme
tout projet data de grande ampleur, la mise en place d’une DMP, avertit Kamal
Mouhcine (Turn), doit « être portée par des équipes communes, l’idée étant de
chercher toujours à fluidifier le partage. Il ne faut pas chercher à démontrer trop
de choses à la fois. La bonne pratique consiste à définir en amont un objectif
avec un impact clair et rapidement quantifiable. Sinon, on risque de bâtir des
usines à gaz dans lesquelles prennent part bien trop d’intervenants. »
« Mettre la technologie
au service du business »
TF1
NICOLAS CAPURON
Directeur Transformation Digitale,
Data  Marketing Digital
TF1 a fait le choix de la DMP
et de l’approche Data Lake. En 2017,
le déploiement de l’infrastructure
big data s’accélère.
Entretien POURQUOI AVOIR FAIT LE CHOIX
DE LA DMP ?
La DMP a été déployée chez TF1
dès 2016, sur l’ensemble de nos
services et de nos écrans. Ce choix
s’est inscrit dans le cadre de la mise
en place d’une infrastructure big data,
dans une approche data lake. Avec la
DMP, nous récupérons des données
comportementales que nous associons
depuis avril au SSO de mytf1, donc à
une donnée non plus anonymisée mais
associée à un nom, prénom et à un
e-mail.
QU’ALLEZ-VOUS FAIRE DE CETTE
DATA AINSI COLLECTÉE ?
Le bénéfice sera double : des
performances publicitaires optimisées,
bien évidemment, mais également, sur
notre activité d’éditeur, une meilleure
compréhension des usages et des
attentes qui va nous permettre de faire
de la recommandation personnalisée.
L’objectif final, c’est une augmentation
de l’audience et de la satisfaction client
grâce à une expérience optimisée.
32
QUELS SONT VOS PROCHAINS
DÉFIS ?
Nous connaissions déjà particulièrement
bien nos utilisateurs, l’authentification
va nous permettre d’aller encore
plus loin. Le niveau de finesse dans
la compréhension de notre audience
va nous permettre d’individualiser
l’expérience consommateur et de
développer des dispositifs innovants
pour nos partenaires annonceurs. Un
chantier important est également le
déploiement de notre infrastructure big
data qui va occasionner un changement
des métiers et des savoir faire, au-delà
du digital. Car notre approche data lake
implique de centraliser la donnée de
l’ensemble des métiers du groupe, le
digital, l’entertainment, la musique, les
spectacles mais aussi la télévision.
Pour ce faire, nous sommes entourés
de data scientists et d’architectes
techniques avec des compétences
pointues.
ALLEZ-VOUS AUSSI TRAVAILLER
SUR LE CONTENU DES MESSAGES ?
Notre principale préoccupation est
la compréhension des besoins des
annonceurs et notre capacité à répondre
à leurs demandes. Aujourd’hui, les
messages vidéo sont ciblés sur des
critères Socio-Demo ; la DMP et
notre data lake vont permettre de le
faire de manière encore plus efficace.
L’objectif à terme sera en effet d’adapter
également les créations et les messages
publicitaires au regard de notre
segmentation extrêmement fine.
À QUELLE ÉCHÉANCE ?
Nous le faisons d’ores et déjà et allons
amplifier le mouvement d’ici la fin de
l’année 2017.
AVEZ-VOUS DES DIFFICULTÉS À
TROUVER DES PROFILS SUR LES
COMPÉTENCES BIG DATA ?
Un peu moins qu’avant. On trouve
de plus en plus de compétences
techniques, les formations big data sont
aujourd’hui bien mieux adaptées qu’il y a
2 ou 3 ans. La difficulté, c’est de trouver
des personnes avec la double sensibilité
technique et business. Car l’enjeu majeur
de transformation des métiers, c’est la
mise à disposition de la technologie au
service du business.
33
34
Data lake,
l’outil indispensable
de la vision client 360°?
Prérequis au déploiement de nouvelles stratégies de conquête
et de fidélisation, la vision client 360° suppose de disposer de toutes
les données relatives aux consommateurs, quelles qu’en soient
la provenance et la fraîcheur.
Mais pour agréger cette masse considérable de données
souvent fortement hétérogènes, les traditionnels data marts
et data warehouses suffisent-ils encore ?
35
3.
36
Workshop
Cycle Data-Driven Company
Data lake, l’outil indispensable
de la vision client 360°?
Synthèse de l’atelier du 16.10.2017
37 37
• IBM, Jacques Milman, Executive Architect IBM Analytics
• IBM, Laurent Sergueenkoff, IBM Analytics Platform - Sales Manager
ANIMATEURS
PROGRAMME
Le data lake constitue un gisement de données brutes qui seront
ensuite retravaillées par les data scientists et exploitées en fonction des
différents besoins. La mise en œuvre initiale d’une vision client 360°
est sans doute envisageable sans data lake, mais ce dernier semble
s’imposer dès que les quantités de données manipulées augmentent.
• État des lieux : quelle est la valeur ajoutée à ce jour du data lake dans
la mise en place d’une vision client 360°?
• Quelles stratégies internes mettre en place pour s’assurer que le
data lake est bien alimenté par toutes les entités ?
• Le data lake est-il un composant inévitable ou existe-t-il des
alternatives ?
PARTICIPANTS
• GROUPE CHANTELLE
Amélie Le Deist, Responsable CRM
 Data Management
• LA MUTUELLE GÉNÉRALE
Yann-Erlé Le Roux, Dataminer
• SAINT-GOBAIN
Deniz Loué, Responsable Projets et
Veille Marketing Stratégique
• YVES ROCHER LABORATOIRES
David Ramond, Head of Data
Business Analyst / IT
• BOURSORAMA
Aurélie Rossignol,
Responsable Datamining
• COYOTE
Florian Servaux, Chef de Produit
Services  Smart Data
• FRANCE TÉLÉVISIONS
Valentin Vivier, Chef de Projets Data
• UBISOFT
Jérôme Durand,
Directeur, Data Science
• UBISOFT
Vincent Nicolas, Data Scientist
• ORANGE GROUPE
Anne-Sophie Gimenez,
Head of learning agency
• ORANGE
Éric Moison, Information based
strategy Program Manager
• CANAL + DISTRIBUTION
Fatma Kourar,
Responsable MOA Data
• BOUYGUES TÉLÉCOM
César Lagarde, Responsable
Pilotage  Planification CRM
• FIFTY-FIVE
Pierre Harand,
Directeur Général, France
• FIFTY-FIVE
Jean-Hubert Cornet,
Head of Automotive Practice
38
DENIZ LOUÉ
SAINT-GOBAIN
Au sein de l'équipe marketing, je suis
responsable des projets liés à la donnée.
Nous venons de lancer un projet relatif aux
données clients, et sommes surtout dans
une phase exploratoire.
AMÉLIE LE DEIST
GROUPE CHANTELLE
Je suis responsable CRM et data
management pour les marques Orcanta
et Passionata. Nous sommes aux
prémices d'un projet data lake. Nous
nous interrogeons encore sur ce que ce
dispositif pourrait réellement nous apporter.
DAVID RAMOND
YVES ROCHER LABORATOIRES
Nous sortons tout juste d'un prototype big
data mené autour de la vision de la cliente.
Cela a permis aux Métiers de concrétiser
les apports de ces nouvelles technologies
et tester la possibilité de nouveaux usages
autour de la data. Cela a été également
une étape indispensable pour faire
émerger un consensus parmi les différents
sponsors et préparer le lancement d’un
projet de nouvelle plateforme data orientée
omnicanale.
FLORIAN SERVAUX
COYOTE
Je suis responsable de l'équipe Smart
Data. Nous travaillons actuellement sur
la mise en place d'un data lake, avec
une double ambition : tendre vers cette
fameuse vision 360 de nos clients, et
faciliter le traitement et l'analyse de notre
historique de données volumineux.
YANN-ERLÉ LE ROUX
LA MUTUELLE GÉNÉRALE
Le terme data lake me semble
relativement récent, par rapport au data
warehouse ou au data mart. Dans ce
contexte, l'idée est d'identifier clairement
les spécificités du data lake en vue d'une
bonne exploitation.
VALENTIN VIVIER
FRANCE TÉLÉVISIONS
France Télévisions a mis en place une
cellule data depuis 2015. Celle-ci répond
aux besoins des métiers sous le prisme
de la data et du client et déploie les outils
nécessaires pour y arriver. Forts d’une DMP
et d’un data warehouse interconnectés à
notre écosystème d’outils, un projet data
lake est en cours. Celui-ci devrait nous
permettre notamment d’historiser la data et
d’avoir un grand niveau de granularité pour
croiser nos données. Nous souhaitons
donc recenser les meilleures pratiques,
identifier les écueils et affiner notre
compréhension des cas d’usage.
AURÉLIE ROSSIGNOL
BOURSORAMA
Un projet data lake mené par l'équipe
BI est actuellement en cours chez
Boursorama. Nous avons mis en place
différents PoCs avec l'ambition de repérer
les principaux écueils.
LE DATA LAKE VU PAR
LES PARTICIPANTS
39
ÉRIC MOISON
ORANGE
Je suis justement en charge de cette
vue à 360 du client pour le groupe, sur
les aspects métiers/business. Nous
définissons les orientations pour les pays,
avec les équipes ITN. Ce sur différents
aspects, dont les technologies comme le
data lake, qui contribuent à la vue 360° du
client. Il sera donc nécessaire d'en avoir
une parfaite maîtrise.
ANNE-SOPHIE GIMENEZ
ORANGE GROUPE
Mon client, c'est plutôt le salarié Orange.
Je suis à la tête de l'entité Learning
agency qui, pour le compte du client
interne, développe des projets de digital
learning. Dans ce cadre, il nous faut
structurer la donnée des employés,
avec de nombreuses problématiques de
sécurité. La RH accuse un certain retard
par rapport aux équipes marketing sur ce
sujet.
VINCENT NICOLAS
UBISOFT
Avant de rejoindre Ubisoft récemment,
j'étais data engineer chez Mille Mercis,
en charge notamment de la co-création
du data lake. Ubisoft ayant un projet de
data lake, ma mission est, entre autres, de
conduire les équipes dédiées.
JÉRÔME DURAND
UBISOFT
L'idée est de savoir dans quelle mesure le
data lake que l'on souhaite créer permettra
bel et bien d'ouvrir la donnée à tous les
départements... Le risque est que les silos
perdurent.
CÉSAR LAGARDE
BOUYGUES TELECOM
Notre objectif est d'acquérir une meilleure
vision à 360 degrés de nos clients, ainsi
qu'une meilleure perception de leur
ressenti, que ce soit en boutique, sur
le Web ou en mobilité... Nous avons
beaucoup de données, mais notre
organisation silotée nous empêche de les
exploiter de manière satisfaisante. L'enjeu
est justement de briser ces silos pour que
chacun puisse véritablement s'approprier
la donnée.
Au regard de la complexité de la structure
IT actuelle, le data lake est-il réellement
la solution ultime ? Aura-t-il une valeur
ajoutée, alors même que nous faisons par
exemple du trigger web avec notre data
warehouse actuel, que nous faisons des
emails de processus sur du comportement
sans data lake.
FATMA KOURAR
CANAL + DISTRIBUTION
Après un audit de quelques mois,
Canal+ s’est lancé en septembre dans
un grand plan de transformation data :
20 chantiers opérationnels et techniques
et une organisation data-driven, avec
la structuration d’un pôle dédié à la data
au sein du Marketing. Côté Canal+, nous
avons une bonne et longue culture de la
data avec un data warehouse riche et en
accès direct à différents métiers (analystes)
et une maitrise d’ouvrage décisionnelle
pour accompagner son évolution et
les utilisateurs métier. La mise en place
d’un data lake m’est présentée comme
complémentaire à notre data warehouse.
J’admets ne pas être au clair sur ce qui
les différencie : Quelle donnée est stockée
où ? Quel(le) retraitement/intelligence où ?
Temps réel ? Quel positionnement du data
lake dans l'architecture globale ?
Jacques MILMAN
IBM France
Le concept de data lake est généralement associé aux big data. Il permet d’analyser un
grand volume d’informations issues de sources multiples et hétérogènes, internes, externes,
structurées, non-structurées…
Pour beaucoup d’entreprises, le data lake est une évolution de l’entrepôt de données
traditionnel. Le big data et le machine learning poussent à organiser les données et les
traitements différemment. C’est là une évolution importante. À l’ère du big data, on ne connaît
pas toujours par avance la valeur et l’intérêt de toutes les données que l’on capture et l’usage
que l’on pourrait en faire dans le futur.
Le concept de data lake offre la possibilité de créer des plateformes d’innovation puissantes
et souples permettant très rapidement d’intégrer et d’analyser des données.
Ingérer des données à l’état le plus brut change la nature de la chaîne de traitement qui
prévalait jusqu’alors. D’une logique d’ETL (Extract, Transform, Load), on passe à un mode
'ELT', où l’on extrait les données, on les charge et on les transforme seulement après.
Enfin, dernier argument de poids, le coût d’une telle solution est inférieure à celle d’un data
warehouse dans un facteur d’un à dix, même si l’intégration des applications existantes peut
révéler d’importants coûts cachés.
Pour les aider à mettre en œuvre un data lake, les entreprises peuvent s’appuyer sur
des approches progressives et des méthodes agiles permettant de limiter les risques et
d’apporter au plus vite de la valeur aux métiers tout en aidant les équipes informatiques à
prendre en main ces technologies innovantes.
AVIS D'EXPERT
A DATA LAKE IS . . .
AN ENVIRONMENT WHERE USERS CAN ACCESS
VAST AMOUNTS OF RAW DATA
AN ENVIRONMENT FOR DEVELOPING AND PROVING AN
ANALYTICS MODEL, AND THEN MOVING IT INTO PRODUCTION
AN ANALYTICS SANDBOX FOR EXPLORING DATA
TO GAIN INSIGHT
AN ENTERPRISE-WIDE CATALOG THAT HELPS USERS FIND DATA
AND LINK BUSINESS TERMS WITH TECHNICAL METADATA
AN ENVIRONMENT FOR ENABLING REUSE OF DATA
TRANSFORMATIONS AND QUERIES
A DATA LAKE IS NOT . . .
A DATA WAREHOUSE OR DATA MART FOR HOUSING ALL OF THE
DATA IN AN ENTERPRISE
A REPLACEMENT OPERATIONAL DATA STORE (ODS)
A HIGH-PERFORMANCE PRODUCTION ENVIRONMENT
A PRODUCTION REPORTING APPLICATION
A PURPOSE-BUILT SYSTEM TO SOLVE A SPECIFIC PROBLEM
(THOUGH A PURPOSE-BUILT DATA MART COULD BE FED FROM
A DATA LAKE)
41
LE DATA LAKE ET LE DÉFI
DU TEMPS RÉEL
Un avantage fréquemment associé au
data lake est celui du temps réel. Mais
comme l’observe Fatma Kourar (Canal +
Distribution), s’il ne s’agit que de stocker
en temps réel des données brutes
inexploitables, cela n’a pas d’intérêt.
« Le data lake m’a été avant tout présenté
en mettant en avant la possibilité d’un
stockage temps réel, quitte à se passer
d’une partie de l’intelligence apportée
par les retraitements/enrichissements. Cela
pose un problème, car la stratégie
déployée autour du client ne peut se faire
uniquement avec des données brutes à
mon sens à l’heure de la personnalisation…
Le temps réel ne se suffit pas. Et apporter
de l’intelligence à la donnée coûte en
temps de calcul. »
Il est donc important de prendre conscience
que « faire un data lake n'est pas une fin
en soi : le projet est lancé pour servir
certains usages bien identifiés. Vouloir
tout collecter, tout réconcilier pour prévoir
tous les usages, ce n’est pas réalisable.
Au contraire, le cas d’usage doit toujours
être un point de départ à partir duquel il
convient de construire l’ensemble de la
chaîne » (Pierre Harand, fifty-five).
Car Jacques Milman d’IBM le rappelle,
« il est difficile de fournir une définition
précise du data lake. C'est avant tout une
plateforme qui va permettre d'intégrer
Par Jacques Milman et Laurent
Sergueenkoff, IBM
« Il y a un peu plus d’un an,
nous avions déjà organisé un
atelier autour du sujet data
lake. Sur une vingtaine de
participants présents, seuls
deux ou trois avaient lancé
des projets data lake, mais
les autres participants avaient
envie de faire de même.
L’idée, pour la majorité, était
de construire un data lake
rassemblant l’ensemble des
données de l’entreprise… Or,
depuis, il est apparu que ceux
qui menaient une telle initiative
avaient bien des difficultés à
progresser. Ils se heurtent à
des problématiques liées à la
sécurisation, à la gouvernance,
à la confidentialité des
données… Autant de freins
à l’agilité.
En revanche, ceux qui avaient
mis en place un data lake plus
thématique (IoT ou CRM, par
exemple) avancent bien plus
rapidement. Les premiers
succès qu’ils rencontrent sur
des thèmes bien précis
permettent de déclencher un
effet boule de neige et le
data lake s’ouvre progressive-
ment à d’autres sujets. Ce qui
a été mis en place pour le sujet
de l’IoT donne envie aux autres
entités d’utiliser le data lake
pour leurs cas d’usage… »
l'ensemble des données et de les partager.
Ensuite, des services peuvent s'intégrer
à cette plateforme : machine learning,
indexation, search, découverte... »
DATA LAKE OU DATA
WAREHOUSE ?
Lorsque le terme data lake a émergé, il
était fréquemment confondu avec celui de
data warehouse. Il semble s’en être suivi
un second temps, qui voit les deux modèles
s’opposer, comme s’ils étaient concurrents.
Laurent Sergueenkoff clarifie la distinction.
« Dans un data warehouse traditionnel, il y
aura plutôt des données structurées, alors
qu'un data lake peut accueillir tous types
de données. Autre bénéfice du data lake :
les technologies actuelles permettent de
stocker dans un format brut d'immenses
volumes de données. Les capacités
de traitement peuvent directement être
implantées sur le data lake, avec des
technologies Hadoop. »
Il n’empêche que les deux modèles peuvent
parfaitement co-exister. C’est par exemple
le cas chez Yves Rocher Laboratoires, où
David Ramond témoigne qu’en « en termes
d’architecture cible, l'idée consisterait plutôt
à mettre en œuvre une architecture hybride :
• D’une part, un data lake à même
de stocker de grands volumes de
données à un coût raisonnable, avec
peu ou pas de transformation de la
donnée brute, nous permettant d’être
le plus agnostique vis-à-vis des futurs
modèles de données de l’entreprise ;
• D’autre part, un data warehouse qui
gère une couche sémantique et qui
permet d’exposer les données métier
structurées, contrôlées et avec un
niveau de service élevé. »
Yves Rocher Laboratoires ne s’arrête pas
là. David Ramond confie ainsi qu’ « il est
également envisagé de mettre en œuvre
des data hubs dédiés à des usages
spécifiques. Par exemple, il peut s’agir
d’utiliser la puissance de calcul du data
lake pour consolider à la volée une vision
360 du client à partir des éléments de
signalétiques, de comportements d’achats,
de contacts CRM, etc. et d’exposer cette
vue via une API à des fins opérationnelles. »
UN DATA LAKE, OUI MAIS
POUR QUOI ?
Vincent Nicolas (Ubisoft) en convient
également, le data lake n’est « certainement
pas un substitut au data warehouse.
Les deux éléments sont totalement
complémentaires. Le data lake offre
la possibilité de jouer et de faire des
scorings avec des données très variées
(ce que l’on ne peut pas faire dans un
data warehouse) et avec une puissance
incroyable. » Ce qui ramène à la conclusion
qu’ « avoir un data lake n’est pas une fin
L'APPROCHE DATA LAKE : EXEMPLE DE GOUVERNANCE
Data
Data is used
and reused
Relevant data is
collaboratively
governed
Data is cataloged,
tagged and
registered
42
43
plug and play » (Pierre Harand, fifty-five).
Tout d’abord, « il faut considérer l’outil
dans son environnement technique :
quels sont les flux de données entrants et
sortants ? » Deuxièmement, « la question
organisationnelle est également majeure,
avec la mise en place d’une gouvernance. »
Le troisième point à poursuivre, et c’est
l’objectif final, c’est de demander du data
lake qu’il serve à « mettre la data dans les
mains des opérationnels » (Anne-Sophie
Gimenez). « Par exemple, un commercial
doit pouvoir accéder en un clic à une vue à
360 degrés du client qu’il a en face de lui. Le
point fort de ce dispositif, c’est la réactivité.
L’idée serait de crawler les données, où
qu’elles soient, sans pour autant se poser
la question du format utilisé. »
En corollaire, cela pourrait avoir pour effet
de favoriser le développement d’une data
science au service des métiers. Florian
Servaux (Coyote) observe ainsi que
« la problématique se situe plutôt sur les
performances à traiter la données brute et
la capacité à comprendre la donnée d'un
point de vue métier. (…) Selon moi, le data
scientist doit avant tout pouvoir partir de la
vision métier de la donnée. »
Dans cette perspective, Florian Servaux
préconiserait plutôt, « pour les entreprises
disposant par exemple d’une équipe BI
(…), de partir de structures BI traduisant les
données brutes en données Métier. »
en soi » (Jérôme Durand, Ubisoft). Car « la
data science va directement chercher les
données dans le data lake quand elle a
une idée précise de ce qu’elle cherche, où
le trouver et comment l’interpréter. Sinon,
mieux vaut passer par l’IT ou le créateur
de la donnée pour générer des tables
d’analyse dans un data warehouse. (…)
Le débat intéressant porte surtout sur ce
que l'on fait de la donnée, quelle que soit la
techno placée derrière. »
Quels sont justement ces usages de la
donnée qui pourraient justifier d’un recours
à ce nouvel outil surpuissant ? « Pour nous,
confie César Lagarde (Bouygues Telecom),
dans l’objectif de créer des campagnes
CRM, le data lake vise surtout à garantir
la transparence sur une information pour
toutes les parties prenantes. Il y a donc une
différence entre l'étude de la connaissance
client et l'interopérabilité directe de la
donnée. »
« Au final le data lake peut être intéressant
au plan de la vision client », reconnaît César
Lagarde.
UNE TRANSFORMATION
EN 3 ÉTAPES
Le pré-requis absolu, lorsque l’on veut
s’équiper d’un data lake, c’est donc de
réfléchir d’abord à l’usage. Et quel qu’il
soit, plusieurs éléments connexes sont
également à prendre en compte dans le
déploiement de cet outil qui est « tout sauf
80%des Décideurs marketing
Se disent satisfaits des solutions de collecte de données en temps
réel qu’ils utilisent3
3. Information recueillie auprès de 40 décideurs marketing en France et au Royaume-Uni dans le cadre de l’étude
Benchmark by EBG 2017
Et 84 %des DSI pensent que leur entreprise est capable
d'analyser les données en temps réel4
44
Régis Carral
Cabinet Hoche
L’ŒIL DE L’AVOCAT
« Assurer un traitement de données personnelles
loyal et transparent »
« L’intérêt du data lake est de pouvoir stocker de grands volumes de données brutes non
structurées, tout en ne sachant pas à l’avance la façon dont celles-ci vont être analysées
et exploitées. Au regard des données à caractère personnel, la personne concernée
doit savoir quelle utilisation est faite des données personnelles la concernant et pouvoir
maîtriser cette exploitation. Le cadre juridique vient ainsi freiner cette collecte de masse
qu’offre par exemple le recours à un data lake de telle sorte que lorsqu’il s’agit de données
personnelles, la collecte ne peut pas être quantitative mais doit être qualitative.
À cet égard, le Règlement UE n°2016/679 du 27 avril 2016 relatif à la protection des
données personnelles vient notamment renforcer les obligations d’information du
responsable de traitement. Ce dernier doit assurer un traitement de données personnelles
loyal et transparent. En vertu de ce principe de transparence, les personnes concernées
doivent avoir connaissance des finalités spécifiques, explicites et déterminées et ce, au
moment de la collecte de leurs données personnelles. De plus, lorsque le responsable de
traitement a l’intention d’effectuer un traitement ultérieur des données personnelles pour
une finalité autre que celle pour laquelle les données ont été collectées, il doit fournir au
préalable des informations sur cette autre finalité.
Enfin, le Règlement pose également un principe de minimisation des données, selon lequel
les données personnelles collectées doivent être adéquates, pertinentes et limitées à ce qui
est nécessaire au regard des finalités pour lesquelles elles sont traitées. »
4. Étude 2015 Real-time Data Report menée auprès de 150 DSI, responsables informatiques et développeurs, in ZDnet.fr,
« Les données en temps réel, de la réalité à la perception », mars 2016
Mais 66 %des DSI, responsables informatiques et
développeurs pensent que, dans plus de la moitié des cas, les
applications en temps réel ne répondent pas aux besoins de
l'entreprise4
45
CONCLUSION
Le recours au data lake revêt souvent un caractère exploratoire, mais aussi,
nécessairement transformateur… Ce qui fait que, « par rapport aux coûts et
à l’engagement que cela implique, par rapport aux lourds enjeux de
gouvernance », beaucoup d’annonceurs hésitent encore à se lancer plus avant.
Mais comme Laurent Sergueenkoff (IBM) le rappelle, « il ne faut pas opposer
data lake et data warehouse, les usages étant totalement complémentaires.
L'un ne peut remplacer l'autre. Si c'est pour placer un usage existant du data
warehouse dans un data lake, le ROI n'est en effet pas évident... En revanche,
le ROI du data lake se situe incontestablement sur des usages nouveaux, sur
des données nouvelles. »
Source tableau et figure : IBM Analytics, « The governed data lake approach », Copyright IBM Corporation 2016
« Réduire le stress de nos
clients »
AIR FRANCE
GAUTHIER LE MASNE DE CHERMONT
Chief Customer Data Officer
Si Air France a développé son data
lake customer 360, c’est que le
partage des données tout au long
du parcours client est une priorité.
Gauthier le Masne de Chermont
revient sur les initiatives de ses
équipes en la matière.
Entretien
TOUTES VOS SOURCES DE
DONNÉES VIENNENT ALIMENTER
UNE BASE COMMUNE, ET
INVERSEMENT. AVEC QUELLE
ORGANISATION ?
Nous avons mis en place une
organisation dédiée au Customer
Data Management il y a deux ans,
avec une double mission. La première
était de relever le défi technique de
créer une plateforme Big Data en vue
d’optimiser l’utilisation de la donnée
sur l’ensemble des métiers du groupe,
pour la connaissance et le service
au client. La seconde mission portait
sur le management de la donnée, en
améliorer la qualité et s’assurer que la
réglementation sur la protection des
donné est respectée.
Nous aidons à ce que tous les métiers
puissent avancer de façon coordonnée.
C’est indispensable si l’on veut proposer
au client une expérience personnalisée
sur les différents canaux et avec une
réelle cohérence d’informations.
VERS QUELS CAS D’USAGE
SE PORTE VOTRE DATA LAKE
CUSTOMER 360 ?
Nous faisons un peu de mesure de
performance, tout comme le réalise
par ailleurs chaque métier. Mais les
principaux cas d’usage consistent à
proposer la bonne offre sur le bon canal
au bon moment. Je vous donne un
exemple. Dès lors que nous savons d’un
client qu’il aura une appétence pour
voyager avec un bagage supplémentaire,
nous sommes en capacité de le lui
proposer au moment que nous jugeons
le plus opportun : lors d’une promotion,
d’un document de préparation au vol, de
l’enregistrement, etc. Plus généralement
nous sommes en mesure de suivre et
d’anticiper des préférences : si le client
voyage toujours côté hublot, on peut
choisir ce siège pour lui sans avoir à lui
poser de questions.
46
COMMENT MESURER LA
PERFORMANCE DE CETTE
PERSONNALISATION ?
Sur la satisfaction, d’une part, même si
cet élément est aujourd’hui devenu un
facteur attendu plutôt que différentiant.
Par ailleurs, nous personnalisons de plus
en plus nos communications avec de
l’A/B testing. Une communication qui
met en avant des destinations dont on
a calculé qu’elles sont plus susceptibles
d’intéresser apporte une différence
significative en termes de performance.
QUELLES PROCHAINES ÉTAPES
VOUS FIXEZ-VOUS ?
Le prochain objectif important, c’est
d’avoir l’ensemble des points de
contact bien coordonnés et à même
de communiquer entre eux de façon
fluide. Cela permettra, par exemple, de
pouvoir tenir au courant les hôtesses
et stewards d’un appel qui aurait été
passé par un client avant le vol vers un
call center. Nous avons également pour
objectif d’automatiser le traitement d’un
certain nombre d’aléas. Nous voulons
nous focaliser sur la réduction du stress
de nos clients : les informer le plus
rapidement possible, communiquer de
façon toujours plus fluide et régler les
problèmes avant même que les clients
n’aient pu se faire le moindre souci.
VOUS ÊTES-VOUS ÉQUIPÉS
D’UN BOT ?
Il a été initié par les équipes digitales
et sera lancé en juin. Nous venons en
support pour être sûrs que l‘initiative
bénéficie au maximum de la compétence
client que nous avons collectée.
QUELLE GOUVERNANCE AVEZ-VOUS
MISE EN PLACE POUR JOUER CE
RÔLE DE SOUTIEN ?
Chaque personne du Customer Data
Management est à la fois responsable
de développements en propre mais
aussi de l’interface avec les différents
métiers, avec pour objectif de récolter
leurs besoins autour de l’utilisation de la
donnée et de partager les initiatives au
sein de l’entreprise.
COMMENT GÉREZ-VOUS LES
ÉVOLUTIONS RÉGLEMENTAIRES
LIÉES AUX DONNÉES
PERSONNELLES ?
Les données que nous utilisons étaient
déjà en base ; notre valeur additionnelle
est de les réunir et d’injecter de
l’algorithmie. Cela dit, nos use cases
sont conçus au service des clients,
et pour ce faire, en coopération avec
les équipes techniques, les équipes
opérationnelles et les clients. Finalement,
cette réglementation a un effet plutôt
bénéfique. Elle apporte de la clarté sur
ce que l’on veut faire de la donnée.
C’est le positionnement que nous avions
de toute façon adopté vis-à-vis de nos
clients.
47
48
Associer big data
et programmatique pour des
campagnes plus performantes
Le programmatique permet d’automatiser les prises de décision
et de gagner un temps considérable dans l’exécution des campagnes.
Mais pour adresser des messages personnalisés et contextualisés,
il devient indispensable d’y adjoindre les ressources du big data,
tant la quantité de data à prendre en compte a récemment explosé.
Comment combiner les ressources du programmatique et du big data ?
49
4.
50
Workshop
Cycle Data-driven Company
Associer big data et programmatique
pour des campagnes plus performantes
Synthèse de l’atelier du 13.12.2016
51 51
PARTICIPANTS
• TURN, Kamal Mouhcine, Sales Director South Europe
• FIFTY-FIVE, Samboy Camara, Practice Leader : Tech, Insurance  Utilities
• FIFTY-FIVE, Salem Handoura, Consulting Manager
ANIMATEURS
PROGRAMME
Le programmatique permet certes de gagner du temps. Mais pour
que chaque campagne porte ses fruits, aller plus vite ne suffit pas :
il faut aussi cibler avec un maximum de précision, se baser non plus
sur des groupes définis par des caractéristiques globales, mais sur un
croisement de toutes les informations associées à un consommateur
potentiel : profil, historique des relations, localisation, actions
récentes, etc.
C’est tout l’enjeu de l’association du programmatique et du big data.
Mais comment réussir à combiner ainsi agilité et précision dans la
construction de ses campagnes ?
• Faire converger les démarches programmatiques et les projets
big data : quelles équipes, quelle organisation, quel timing ?
• Comment faire dialoguer data scientists et opérationnels marketing ?
• Le data-driven marketing est-il un objectif prioritaire ?
Quelles stratégies pour le mettre en place ?
• ORANGE
Samira Amgroud,
Communication Group Buyer
• EUROP ASSISTANCE
Olivier Baes,
Head of Digital  Data Innovation
• AUCHAN
Julien Cafede, Traffic Manager
• UBISOFT
Camille Duval,
Responsable média digital
• ANTALIS
Aïcha Hellal, Marketing E-business
Project Manager
• LA FOURCHETTE
Fiona Ongaro, Responsable
Connaissance Client
• BNP PARIBAS PERSONAL
FINANCE
Djamel Megharbi, Responsable
du Centre de Compétence
52
L’ESSOR DU
PROGRAMMATIQUE
Pour Samboy Camara (fifty-five), « il y a
toujours eu du programmatique dans le
digital. Le levier display, qui était jusque-là
acheté avec des méthodes traditionnelles,
est en train de devenir de plus en plus
automatisé. Sur les marchés les plus
avancés, 80 % des achats digitaux sont
réalisés en programmatique… Qui dit pro-
grammatique dit modes d’achats automati-
sés et données permettant d’acheter
intelligemment les bons profils. C’est là que
se pose la question de la collecte, pour faire
en sorte de disposer d’un réel avantage
concurrentiel.
Pour rappel, on distingue communément
trois types de données :
• Les données first party : certaines
entreprises sont richement dotées,
comme les opérateurs télécoms, alors
que d’autres sont plus data poor, car
elles n’ont pas de points de contact
directs avec leurs clients. Cette donnée
est rare, mais c’est incontestablement
celle qui a le plus de valeur, car elle
permettra de vous positionner avec le
plus de singularité.
• Les données second party : c’est la
data issue de partenaires, comme
des annonceurs qui disposent de jeux
de données (échanges de données ou
échanges financiers).
• Les données third party : elles seront
louées à des spécialistes de l’achat
La personnalisation des
campagnes marketing a
franchi une nouvelle étape
avec l’émergence des
plateformes programmatiques.
Celles-ci augmentent la
réactivité des annonceurs
en automatisant les prises
de décision complexes, un
gain de temps qui autorise
à multiplier les niveaux de
personnalisation, à faire 10,
100 ou 1 000 campagnes au
lieu d’une.
Mais comment réussir à
combiner ainsi agilité et
précision dans la construction
de ses campagnes ?
EN 2016
des annonceurs
et agences
utilisaient le
programmatique
pour leurs achats
display online
des entreprises
avaient déjà
réalisé ou
conduisaient
déjà un projet
big data
67% 59%
53
de données. Ces data très étendues
permettront de rechercher des signaux
complémentaires afin d’enrichir la
connaissance client.
L’univers est totalement fragmenté, avec
une multitude de devices, de systèmes
d’exploitation, etc. Il convient donc de
réconcilier l’utilisateur sous son identité
unique. La maturité montre qu’on se dirige
de plus en plus vers un marketing des
segments, un marketing des audiences.
La DMP a l‘ambition de réunir des données
issues de sources variées pour les mettre
en cohérence. »
RÉUNIR AUTOUR DE
LA TABLE TOUTES LES
PARTIES PRENANTES
Dès lors que l’on veut adjoindre au
marketing programmatique les ressources
du big data, la première difficulté consiste
à faire converger les enjeux. Car, « si vous
faites le compte des acteurs impliqués dans
une campagne , observe Samboy Camara
(fifty-five), on descend très rarement sous
la barre des cinq interlocuteurs ! Or,
aujourd’hui, la notion de temps réel devient
une obligation. Le programmatique a
justement vocation à simplifier la phase de
gestion des campagnes. L’automatisation
permet de gagner du temps pour éviter les
points bloquants. Cela implique toutefois
un réajustement organisationnel pour
passer d’une approche patrimoniale de
la donnée (data = stock) à une vision en
termes de circulation (data = flux).»
Fiona Ongaro (La Fourchette) confie ainsi
avoir « recruté quelqu'un qui fait avant tout
figure d’électron libre, c’est-à-dire qu’il n’est
pas rattaché à un pôle Métier en particulier »
mais reconnaît : « Nous avons encore du
mal à identifier la bonne organisation. »
Pour Kamal Mouhcine (Turn), il est important
de créer ce rôle transverse notamment pour
démontrer la valeur ajoutée des plateformes
data pouvant préfigurer de l'automatisation.
« Pour les organisations qui ont une taille
critique, la DMP présente un réel intérêt.
Encore faut-il parvenir à démontrer cet
intérêt, d’où l’importance du rôle dévolu au
CDO. Lors de la mise en place d’une DMP,
il convient de commencer par démontrer
des choses très simples. »
Ce travail de démonstration est essentiel,
d'autant qu'au final, « comme avec des
tels projets [data], le ROI à court terme est
difficilement lisible, il est bien difficile de
prioriser » (Fiona Ongaro, La Fourchette).
En retour, le big data est une opportunité
d'ancrer dans l'opérationnel un réajustement
organisationnel. Julien Cafede témoigne
ainsi du cas d'Auchan. « Notre DMP nous
permet notamment de créer et utiliser
des segments des données dynamiques
que nous pouvons ensuite plugger à nos
plateformes partenaires. Aujourd’hui,
les entités e-commerce, Drive, Direct,
Proximité, etc. ont été regroupées sous
une nouvelle entité : Auchan Retail ; il
s’agit désormais de les faire communiquer
plus étroitement et le big data semble être
une bonne clé d’entrée. »
« L’automatisation permet de gagner du temps pour éviter les
points bloquants. »
Samboy Camara, fifty-five
54
Eymeric Chateau
TURN
La personnalisation des campagnes marketing a franchi une nouvelle étape avec
l’émergence des plateformes programmatiques. Ces plateformes augmentent en effet la
réactivité des annonceurs en automatisant les prises de décision complexes, un gain de
temps qui permet de multiplier les niveaux de personnalisation.
La personnalisation des campagnes n’est cependant pas le seul facteur pour qu’elles
portent leurs fruits. Il faut également cibler l’audience avec un maximum de précision.
C’est tout l’enjeu de l’association du programmatique et du big data : réussir à combiner
agilité et précision dans la construction des campagnes.
L’enjeu consiste à avoir une approche unifiée, depuis la collecte jusqu’à l’exécution.
Il faut veiller à ne pas multiplier les outils technologiques, car ce serait prendre
le risque de s’exposer à un problème de communication entre tous ces outils,
ce qui provoquerait des déperditions.
AVIS D'EXPERT
AVOIR UNE APPROCHE
UNIFIÉE
La réconciliation de données hétéroclites
constitue sans conteste une priorité majeure
pour tout annonceur souhaitant renforcer
la personnalisation de ses campagnes.
Chez La Fourchette, qui propose déjà la
personnalisation dans les e-mails, l'ambition
est bien « de disposer d'une meilleure vue
à 360 degrés du client, en nous appuyant
sur nos propres données. » Comme bien
d'autres, « La Fourchette n'a pas forcément
vocation à aller vers des partenaires pour
les jeux de données. »
Et bien que l'on entende nombre d'annon-
ceurs s'avouer dépassés par les quantités
colossales de données collectées, certains
rencontrent dans les faits des problèmes
de volumétrie sur leurs data 1st
party.
C'est par exemple le cas chez Auchan.
Julien Cafede s'en explique. « Malgré un
volume important de data, nous sommes
confrontés à une problématique liée au
55
volume de contacts adressables. Le
premier frein est le taux de matching qui
varie énormément entre nos partenaires.
À titre d’exemple, Facebook retrouve
entre 40 et 60 % des adresses que nous
lui communiquons et parvient à toucher
la moitié de ces utilisateurs. Pour Google,
le taux et entre 20 et 40 % et la portée
s’avère désastreuse. Un acteur comme
Criteo nous offre la possibilité d’avoir un
taux de matching très intéressant, mais,
contrairement à Facebook ou Google, il ne
dispose pas de réseau en propre et donc
de nouvelles problématiques se créent.
Conséquencedirectedelafaiblevolumétrie:
dès que l’on souhaite toucher nos affini-
taires, nous avons du mal à générer un
volume conséquent de CA. L’une des
solutions : se tourner vers des scénarii de
look alike, et le seul acteur performant et
pertinent dans ce domaine aujourd’hui,
c’est Facebook… »
Kamal Mouhcine (Turn) préconise donc
« un gros travail en amont en termes de
structuration de la first party data », avec
pour objectif, la possibilité de« recourir
à une plateforme unifiée, extrêmement
intéressante en ceci qu’elle permet d’éviter
les déperditions (…). Multiplier les outils
technologiques, c’est prendre le risque de
s’exposer à un problème de communication
entre tous ces outils. Rares sont les
technologies qui unifient complètement
l’approche, depuis la collecte jusqu’à
l’exécution. »
UNE NOUVELLE DONNE
STRATÉGIQUE
Au-delà des choix technologiques,
« ce qui fait la richesse des plateformes
programmatiques, c'est l'exploitation des
données propres » rappelle Kamal Mouhcine
(Turn). Cette nouvelle donne apporte deux
novations dans le pilotage de la stratégie
marketing.
Lapremièreconsisteà«délaisserl'approche
en termes de volume, où l'objectif est
de faire le maximum de conversions.
Les indicateurs choisis doivent être les
plus proches possible de votre équation
économique, afin de rémunérer au mieux
les bons partenaires. » (Samboy Camara,
fifty-five)
La deuxième novation découle de la
première. Le rapport aux agences évolue.
Dès lors, « le rôle des agences passe par le
conseil. Celles-ci doivent être en capacité
de réunir autour de la table toutes les
parties prenantes. Sur la partie Média,
l'agence de demain n'est pas une agence
qui opère, mais une agence qui conseille. »
En corollaire, l'annonceur doit veiller à
ramener de la valeur vers lui, à conserver les
« learnings » des campagnes ; car « le KPI
principal en programmatique, c'est la vision
du Marketing Director. »
PILOTER LES CAMPAGNES EN
TEMPS RÉEL
AFFINER ET OPTIMISER LE
CIBLAGE DES CAMPAGNES
75 %
66 %
AUGMENTER LA PERFORMANCE
DES CAMPAGNES
74 %
40 %
33 %
42 %
2016 2015
LES 3 AVANTAGES PRINCIPAUX DU PROGRAMMATIQUE CITÉS PAR
LES UTILISATEURS (Plusieurs réponses possibles)
56
Mike Bettan
55
La gestion et l’analyse des campagnes programmatiques imposent le traitement de volumes
de données colossaux. Ces traitements varient selon les objectifs ou les KPI suivis, mais
également selon les acteurs qui les effectuent.
Les agences média ou trading desks indépendants ont pour but de combiner rentabilité
et performance de l’achat média, c’est-à-dire acheter ou vendre un maximum d’espaces
publicitaires au meilleur prix, tout en garantissant le ROI des campagnes en termes de
couverture sur cible, d’engagement ou de recrutement. Pour cela, ils misent sur leur
propre infrastructure technique (DSP compris), leurs algorithmes propriétaires émulés au
machine learning, et capitalisent sur l’ensemble des données disponibles : historiques
de performance, enchères, ciblages, attributs des audiences (device, géolocalisation,
comportement). Ceci, en vue d’optimiser les campagnes selon les objectifs fixés : reach,
volume de conversions, CPA...
Côté conseil média, les traitements big data appliqués au programmatique portent
généralement sur des sujets différents : il pourra s’agir de la réconciliation ou l’enrichissement
de données (CRM onboarding, second-party data, etc.), de segmentation ou scoring de
prospects et clients, d’analyses d’attribution... L’accès aux données dites “granulaires”, où
chaque action d’exposition, de clic ou de conversion est répertoriée et qualifiée selon une
temporalité, permet de recomposer les différents parcours des consommateurs. On pourra
alors mieux allouer les investissements et optimiser la performance globale. Ces études
nécessitent donc des manipulations de volumes de données conséquents, une infrastructure
technique, et de l’expertise pour réussir à en sortir des enseignements stratégiques.
Le mariage entre big data et programmatique (ou plus largement, campagnes digitales) est
désormais une évidence, pour ne pas dire un pré-requis de pilotage.
Associer big data et programmatique pour des campagnes
performantes
AVIS D'EXPERT
Source Graphiques et chiffres : Baromètres EBG « Data Driven Entreprise » et « Programmatique  Branding », chacun
conduit auprès de 800 répondants, septembre et novembre 2016.
57
CONCLUSION
Chez Ubisoft, qui réalise ses campagnes digitales majoritairement en
programmatique depuis fin 2015, Camille Duval a l'impression que « tout ce
que l'on peut faire en programmatique est fait. »
Mais comme le rappelle Samboy Camara (fifty-five), « nous ne sommes qu'au
début du chemin : le programmatique va s’ouvrir progressivement à d’autres
canaux et va prendre de nouvelles formes. Demain, le programmatique va
concerner les achats en TV ou en radio. D’où l’importance de bien anticiper
toutes ces perspectives nouvelles. » Pour l'heure, l'enjeu se résume, pour
revenir à l'exemple d'Ubisoft, à unifier et à « mieux utiliser ses data ».
Sans oublier, pour ceux qui en disposent, ses data offline qui peuvent être
onboardées. Il existe sur ces sujets un goulot d'étranglement, car cette mise en
ordre des données internes nécessite des ajustements organisationnels, une
approche unifiée et une gouvernance idoine. Des sujets que l'on ne peut mener
depuis sa tour d'ivoire, mais dont il convient au contraire de démontrer la valeur
ajoutée à travers quelques cas choisis.
58
« La data comme point
de départ »
AUCHAN.FR
JULIEN CAFEDE
Traffic manager
Entretien
QUEL EST VOTRE PÉRIMÈTRE CHEZ
AUCHAN.FR ?
Je suis Traffic manager pour le site
Auchan.fr, en charge de l’ensemble
des leviers push marketing : Display,
Retargeting, Social Adset Affiliation. Je
m’occupe notamment du projet de
« Médias Ciblés », qui consiste à utiliser
nos data online et offline afin d’optimiser
notre communication en termes de
coût et de pertinence, mais aussi, de
créer des scénarii de campagnes
d’acquisitions beaucoup plus fins et
personnalisés.
QUELLES SONT VOS SOURCES
DE DONNÉES ?
Notre site faisant régulièrement partie
du top 15 français en termes de trafic,
nous récoltons d’importants volumes
de data Online que nous complétons en
acquisition par des données provenant
de nos partenaires. J’ai aussi la chance
de faire partie d’une entreprise acteur
majeur de la distribution, et qui donc,
possède beaucoup de data offline, avec
une volonté d’accélérer sa mue
omni-canal.
QUELLE PART LE
PROGRAMMATIQUE PREND-IL
DANS VOTRE ACHAT MÉDIA ?
Chez Auchan.fr, notre achat média
s’effectue majoritairement en
programmatique mais sans passer
par les trading desks habituels. Nous
l’effectuons en temps réel notamment
via Facebook, Google et Criteo, dans un
modèle de CPC, car nous souhaitons
avant tout optimiser la rentabilité de nos
campagnes.
VOUS ÉVOQUIEZ EN ATELIER
TRAVAILLER DE FAÇON
RAPPROCHÉE AVEC CES
3 ACTEURS ?
Nous avançons effectivement très bien
avec eux trois sur l’activation des data.
Avec l’exploitation des mécaniques
de Custom Audiences (audience
personnalisée), nous sommes en mesure
de préparer en amont des ciblages
de population sur une thématique
précise afin de les activer ensuite sur
les réseaux. Par exemple, un segment
affinitaire jardin nous permet, avec Criteo,
de recibler les clients appétant au jardin
online ou ayant acheté des produits
s’y rattachant offline. Avec Facebook,
nous pouvons également adresser les
look alike de nos segments de clients.
Via Google, plus particulièrement sur
le search, nous sommes en mesure
de pousser un message particulier
ou d’augmenter le niveau d’enchère,
auprès d’une population affinitaire de
sorte à booster nos taux de clic et de
transformation.
ÊTES-VOUS SATISFAITS DE
CES DISPOSITIFS ?
Globalement très satisfait. Le réseau
propriétaire, connecté et mobile
de Facebook nous permet d’avoir
un excellent taux de matching. Sur
Criteo, même si le matching est aussi
intéressant, la portée est plus faible mais
nous générons tout de même un volume
d’impressions très élevés sur nos cibles
stratégiques. Dans le cas de Google,
nous cherchons à nous concentrer sur
leur force, notamment celle de créer
des audiences sur la base de parcours
sur site en exploitant les données de
navigation.
QUELS OUTILS UTILISEZ-VOUS
POUR LA SEGMENTATION ?
Nous avons une DMP qui nous sert à
collecter et ordonner nos données first
party, que l’on connecte ensuite via API
aux plateformes de nos partenaires.
Nous l’utilisons aussi onsite pour
améliorer le parcours client couplé avec
des outils de personnalisation. Cela
permet d’afficher la bonne publicité
au bon endroit tout en créant une
cohérence entre l’acquisition en dehors
du site et l’expérience sur site.
QUELS SONT VOS PROCHAINS
CHANTIERS ?
Nous continuons d’avancer avec nos
partenaires afin d’atteindre nos objectifs
de visibilité et de rentabilité avec des
stratégies marketing orientées clients
dans une démarche data-driven. Dans
ce cadre, nous prenons toujours la data
comme point de départ. Une campagne,
c’est avant tout une problématique
marketing et un ciblage pertinent. Dans
un second temps,on peut alors imaginer
aller chercher du look alike ou bien
croiser nos données avec des 2nd
ou 3rd
party, dès lors que l’on recherche plus
de volume.
Dans cette perspective, il est évident
que Facebook excelle sur le modèle de
Custom Audiences. Concernant Google,
comme je vous l’expliquais, nous
cherchons à conserver le très bon niveau
de performance du search tout en
poursuivant la personnalisation de nos
messages par une exploitation optimisée
des cookies. Le cas de Criteo est
aussi intéressant que particulier. Nous
ne les voyons plus comme un simple
retargeter mais comme un véritable
partenaire stratégique pour avancer
sur de nombreux sujets, notamment
de prospection ; avec Criteo, 30 % des
produits achetés en retargeting n’ont
jamais été vus par l’internaute. Ils ont su
nous démontrer que leur algorithme est
aussi pertinent pour la recommandation
de produit et le ciblage d’internaute que
pour le reciblage classique.
ILS VOUS ACCOMPAGNENT AUSSI
POUR FAIRE CONVERGER
ON ET OFFLINE ?
Nous cherchons effectivement à mettre
en évidence les impacts du online sur le
offline et inversement. Ces partenaires
doivent à eux trois réunis couvrir 99 %
du reach français ; ils pourraient donc
nous permettre d’être beaucoup plus fins
dans la mesure, l’attribution et in fine,
l’optimisation et la rentabilité de nos
campagnes.
59
60
Mettre la data science au
service des métiers
Le big data et les nouvelles technologies open source ont ouvert le champ
des possibles de la data science, mais ils apportent leur lot de questions…
Quels outils utiliser ? Comment enrichir ses compétences et rester à niveau ?
Quel langage privilégier ? Quels algorithmes choisir ?
Comment partager ses résultats ?
61
5.
62
Workshop
Cycle Data-Driven Company
Mettre la data science
au service des métiers
Synthèse de l’atelier du 17.01.2017
63
PARTICIPANTS
• IBM, Laurent Sergueenkoff, Big Data Sales Team Leader
• IBM, Jacques Milman, Big Data Executive Architect
ANIMATEURS
PROGRAMME
Cet atelier réservé à 25 décideurs a permis de croiser les regards entre
profils data et métiers pour imaginer une data science qui permette de :
• construire plus facilement des solutions pertinentes pour les métiers
• rendre simple l'exploitation de tout type de données
• permettre d'accélérer les cycles de développement et
l'industrialisation des projets
• favoriser la co-création / la co-innovation
• LA POSTE
Géraud Felgines, Directeur Marketing
Particuliers et Professionnels
Benoît De Corn, Directeur Innovations
et Stratégie Télécom
Gaëlle Bonnefoux, Responsable
Études, Performance et Pilotage
Stratégique
• IDBUS
Anthony Delmeire, Responsable BI
• MALAKOFF MÉDÉRIC
Nicolas Baron, Directeur de Projets -
Direction du Plan de Transformation
• EUROP ASSISTANCE
Olivier Baes,
Head of Digital  Data Innovation
• CRM SERVICES
Anne-Sophie D’anthouard, Product
Owner Projets Clients
• CAISSE DES DÉPÔTS
Clément Carrier, Data Scientist
• MEILLEURTAUX.COM
Yannick Busson, Responsable
datamining
• CRÉDIT AGRICOLE SA
Claire Bussac, Direction du
Développement et de l'innovation RH
Sébastien Dulys, Responsable du pôle
Big Data et CRM
• MÉTEO FRANCE
Hugues Berthelot, Chargé d'études
• SOCIÉTÉ GÉNÉRALE
Laurence Ricaud,
Responsable Marketing Études
• AIR FRANCE KLM
Francine Quentel, Director IMO Sales,
Data  BI
• MOËT HENNESSY
Amine Mekouar, Data Manager
• M6
Karim Louedec, Head of Data Strategy /
Chief Data Scientist
• CHANEL PARFUMS BEAUTÉ
Xavier Le Roy, Études Internationales -
Département Marketing Research and
Consumer Insight
• CHANEL
Benoît Rigaut, Responsable internet
digital corporate
• BNP PARIBAS
Cédric Le Merlus, Responsable Business
Intelligence
• PMU
Christelle Jason, Responsable
Datamining et Sponsor Data du projet
Big Data
• BARCLAYS BANK PLC
Pierre-Yves Hemon, Head of Digital 
Channel development
• GROUPE ERAM
Julien Haillot, Digital Project Manager
• SYNGENTA
Vincent Godet, Digital Project Manager
• CABINET HOCHE
Régis Carral, Avocat Associé
• FIFTY FIVE
Romain Warlop, Data Scientist Lead
Céline Craipeau, Senior Data Analyst
• SPECIALCHEM
Aldric Tourres, Exec. VP  Head of Sales
 Marketing
• TF1
Philippe Toublant, Directeur Adjoint Data
• BOURSORAMA
Aurélie Rossignol, Responsable
Datamining
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017

Más contenido relacionado

La actualidad más candente

19/10/17 Séminaire Référentiel Client Unique
19/10/17 Séminaire Référentiel Client Unique19/10/17 Séminaire Référentiel Client Unique
19/10/17 Séminaire Référentiel Client UniqueSoft Computing
 
Qu'est qu'une Data Driven Company à l'heure de la digitalisation ?
Qu'est qu'une Data Driven Company à l'heure de la digitalisation ?Qu'est qu'une Data Driven Company à l'heure de la digitalisation ?
Qu'est qu'une Data Driven Company à l'heure de la digitalisation ?OCTO Technology Suisse
 
Moteur de Recommandation
Moteur de RecommandationMoteur de Recommandation
Moteur de RecommandationSoft Computing
 
28/09/2017 Séminaire Data & Activation Client
28/09/2017 Séminaire Data & Activation Client28/09/2017 Séminaire Data & Activation Client
28/09/2017 Séminaire Data & Activation ClientSoft Computing
 
Synthèse Solucom - Big data : une mine d'or pour l'Assurance
Synthèse Solucom - Big data : une mine d'or pour l'AssuranceSynthèse Solucom - Big data : une mine d'or pour l'Assurance
Synthèse Solucom - Big data : une mine d'or pour l'AssuranceWavestone
 
17/05/18 Matinale Usages Activation Omnicanal
17/05/18 Matinale Usages Activation Omnicanal17/05/18 Matinale Usages Activation Omnicanal
17/05/18 Matinale Usages Activation OmnicanalSoft Computing
 
Réussir votre transformation digitale grâce à "Connected Workforce" de SOGETI
Réussir votre transformation digitale grâce à "Connected Workforce" de SOGETIRéussir votre transformation digitale grâce à "Connected Workforce" de SOGETI
Réussir votre transformation digitale grâce à "Connected Workforce" de SOGETIMicrosoft Technet France
 
Data Driven Stratégie Relationnelle & Digital
Data Driven Stratégie Relationnelle & DigitalData Driven Stratégie Relationnelle & Digital
Data Driven Stratégie Relationnelle & DigitalSoft Computing
 
Du Data Mining à la Data Science
Du Data Mining à la Data ScienceDu Data Mining à la Data Science
Du Data Mining à la Data ScienceSoft Computing
 
16/04/19 Matinale Experts Marketing Omnicanal
16/04/19 Matinale Experts Marketing Omnicanal16/04/19 Matinale Experts Marketing Omnicanal
16/04/19 Matinale Experts Marketing OmnicanalSoft Computing
 
Les assureurs face à la transformation digitale - 23 avril 2013
Les assureurs face à la transformation digitale - 23 avril 2013Les assureurs face à la transformation digitale - 23 avril 2013
Les assureurs face à la transformation digitale - 23 avril 2013Djamel SOUAMI
 
Livre blanc des Big Data
Livre blanc des Big DataLivre blanc des Big Data
Livre blanc des Big DataYann Gourvennec
 
Ch&cie présentation du big data dans l'assurance
Ch&cie présentation du big data dans l'assuranceCh&cie présentation du big data dans l'assurance
Ch&cie présentation du big data dans l'assuranceBetito Yan
 
Les 10 questions à se poser pour manager ses choix technologiques - sous l'an...
Les 10 questions à se poser pour manager ses choix technologiques - sous l'an...Les 10 questions à se poser pour manager ses choix technologiques - sous l'an...
Les 10 questions à se poser pour manager ses choix technologiques - sous l'an...Olivier Lombart
 
Du datamining à la datascience
Du datamining à la datascienceDu datamining à la datascience
Du datamining à la datascienceSoft Computing
 
25/01/18 Matinale Data Science
25/01/18 Matinale Data Science25/01/18 Matinale Data Science
25/01/18 Matinale Data ScienceSoft Computing
 

La actualidad más candente (20)

19/10/17 Séminaire Référentiel Client Unique
19/10/17 Séminaire Référentiel Client Unique19/10/17 Séminaire Référentiel Client Unique
19/10/17 Séminaire Référentiel Client Unique
 
Qu'est qu'une Data Driven Company à l'heure de la digitalisation ?
Qu'est qu'une Data Driven Company à l'heure de la digitalisation ?Qu'est qu'une Data Driven Company à l'heure de la digitalisation ?
Qu'est qu'une Data Driven Company à l'heure de la digitalisation ?
 
Moteur de Recommandation
Moteur de RecommandationMoteur de Recommandation
Moteur de Recommandation
 
28/09/2017 Séminaire Data & Activation Client
28/09/2017 Séminaire Data & Activation Client28/09/2017 Séminaire Data & Activation Client
28/09/2017 Séminaire Data & Activation Client
 
Séminaire RCU
Séminaire RCUSéminaire RCU
Séminaire RCU
 
Synthèse Solucom - Big data : une mine d'or pour l'Assurance
Synthèse Solucom - Big data : une mine d'or pour l'AssuranceSynthèse Solucom - Big data : une mine d'or pour l'Assurance
Synthèse Solucom - Big data : une mine d'or pour l'Assurance
 
17/05/18 Matinale Usages Activation Omnicanal
17/05/18 Matinale Usages Activation Omnicanal17/05/18 Matinale Usages Activation Omnicanal
17/05/18 Matinale Usages Activation Omnicanal
 
Réussir votre transformation digitale grâce à "Connected Workforce" de SOGETI
Réussir votre transformation digitale grâce à "Connected Workforce" de SOGETIRéussir votre transformation digitale grâce à "Connected Workforce" de SOGETI
Réussir votre transformation digitale grâce à "Connected Workforce" de SOGETI
 
Data Driven Stratégie Relationnelle & Digital
Data Driven Stratégie Relationnelle & DigitalData Driven Stratégie Relationnelle & Digital
Data Driven Stratégie Relationnelle & Digital
 
Du Data Mining à la Data Science
Du Data Mining à la Data ScienceDu Data Mining à la Data Science
Du Data Mining à la Data Science
 
16/04/19 Matinale Experts Marketing Omnicanal
16/04/19 Matinale Experts Marketing Omnicanal16/04/19 Matinale Experts Marketing Omnicanal
16/04/19 Matinale Experts Marketing Omnicanal
 
Les assureurs face à la transformation digitale - 23 avril 2013
Les assureurs face à la transformation digitale - 23 avril 2013Les assureurs face à la transformation digitale - 23 avril 2013
Les assureurs face à la transformation digitale - 23 avril 2013
 
Données Personnelles
Données PersonnellesDonnées Personnelles
Données Personnelles
 
Livre blanc des Big Data
Livre blanc des Big DataLivre blanc des Big Data
Livre blanc des Big Data
 
Ch&cie présentation du big data dans l'assurance
Ch&cie présentation du big data dans l'assuranceCh&cie présentation du big data dans l'assurance
Ch&cie présentation du big data dans l'assurance
 
Les 10 questions à se poser pour manager ses choix technologiques - sous l'an...
Les 10 questions à se poser pour manager ses choix technologiques - sous l'an...Les 10 questions à se poser pour manager ses choix technologiques - sous l'an...
Les 10 questions à se poser pour manager ses choix technologiques - sous l'an...
 
Du datamining à la datascience
Du datamining à la datascienceDu datamining à la datascience
Du datamining à la datascience
 
Slideshare Baromètre Croissance et Digital
Slideshare Baromètre Croissance et Digital Slideshare Baromètre Croissance et Digital
Slideshare Baromètre Croissance et Digital
 
25/01/18 Matinale Data Science
25/01/18 Matinale Data Science25/01/18 Matinale Data Science
25/01/18 Matinale Data Science
 
Machine Learning
Machine LearningMachine Learning
Machine Learning
 

Similar a EBG - Livret de synthèse 2017

LiveRamp - 5 minutes pour comprendre le data onboarding
LiveRamp - 5 minutes pour comprendre le data onboardingLiveRamp - 5 minutes pour comprendre le data onboarding
LiveRamp - 5 minutes pour comprendre le data onboardingLiveRamp_FR
 
iProspect Futur Focus édition 2017
iProspect Futur Focus édition 2017iProspect Futur Focus édition 2017
iProspect Futur Focus édition 2017iProspect France
 
[Livre Blanc] la Data au service de l’expérience client - Netbooster
[Livre Blanc] la Data au service de l’expérience client - Netbooster[Livre Blanc] la Data au service de l’expérience client - Netbooster
[Livre Blanc] la Data au service de l’expérience client - Netboosteryann le gigan
 
La data au service de l'experience client - Livre blanc - Netbooster - Mars 2015
La data au service de l'experience client - Livre blanc - Netbooster - Mars 2015La data au service de l'experience client - Livre blanc - Netbooster - Mars 2015
La data au service de l'experience client - Livre blanc - Netbooster - Mars 2015Romain Fonnier
 
iProspect Futur Focus 2018 : The New Machine Rules
iProspect Futur Focus 2018 : The New Machine RulesiProspect Futur Focus 2018 : The New Machine Rules
iProspect Futur Focus 2018 : The New Machine RulesiProspect France
 
HUBREPORT - HUBFORUM Paris 2017
HUBREPORT - HUBFORUM Paris 2017HUBREPORT - HUBFORUM Paris 2017
HUBREPORT - HUBFORUM Paris 2017HUB INSTITUTE
 
Conference Congrès Data Marketing
Conference Congrès Data MarketingConference Congrès Data Marketing
Conference Congrès Data MarketingKiss The Bride
 
Etude Apec - La relation client : enjeu stratégique pour les entreprises et c...
Etude Apec - La relation client : enjeu stratégique pour les entreprises et c...Etude Apec - La relation client : enjeu stratégique pour les entreprises et c...
Etude Apec - La relation client : enjeu stratégique pour les entreprises et c...Apec
 
Synthese barometre metiers_communication_2015
Synthese barometre metiers_communication_2015 Synthese barometre metiers_communication_2015
Synthese barometre metiers_communication_2015 UCC MED
 
DATA FORUM 2017 - Présentation Micropole - Les tendances Data 2018
DATA FORUM 2017 - Présentation Micropole - Les tendances Data 2018DATA FORUM 2017 - Présentation Micropole - Les tendances Data 2018
DATA FORUM 2017 - Présentation Micropole - Les tendances Data 2018Micropole Group
 
Livre blanc de l'experience client vol. 2
Livre blanc de l'experience client vol. 2Livre blanc de l'experience client vol. 2
Livre blanc de l'experience client vol. 2Laurence Body
 
"L'utilisation du numérique dans les relations clients" Guide de bonnes prati...
"L'utilisation du numérique dans les relations clients" Guide de bonnes prati..."L'utilisation du numérique dans les relations clients" Guide de bonnes prati...
"L'utilisation du numérique dans les relations clients" Guide de bonnes prati...yann le gigan
 
Magellan Partners - Valoriser l’expérience client et augmenter la rentabilité...
Magellan Partners - Valoriser l’expérience client et augmenter la rentabilité...Magellan Partners - Valoriser l’expérience client et augmenter la rentabilité...
Magellan Partners - Valoriser l’expérience client et augmenter la rentabilité...Magellan Consulting
 
La jaune et la rouge - Polytechnique mars 2018
La jaune et la rouge - Polytechnique mars 2018La jaune et la rouge - Polytechnique mars 2018
La jaune et la rouge - Polytechnique mars 2018Isabelle POUJOIS
 
Catalogue séminaires ECHANGEUR
Catalogue séminaires ECHANGEURCatalogue séminaires ECHANGEUR
Catalogue séminaires ECHANGEURBenoit Carroue
 
Conférence Mediabul le Hors Domicile à l'heure du digital
Conférence Mediabul le Hors Domicile à l'heure du digitalConférence Mediabul le Hors Domicile à l'heure du digital
Conférence Mediabul le Hors Domicile à l'heure du digitalLoyalty Company
 
Waisso conférence au Digital Performances de l'EBG
Waisso conférence au Digital Performances de l'EBGWaisso conférence au Digital Performances de l'EBG
Waisso conférence au Digital Performances de l'EBGWaisso
 
Cheat codes e-merchandiser by Sensefuel
Cheat codes e-merchandiser by SensefuelCheat codes e-merchandiser by Sensefuel
Cheat codes e-merchandiser by SensefuelPierre Renaudeau
 

Similar a EBG - Livret de synthèse 2017 (20)

LiveRamp - 5 minutes pour comprendre le data onboarding
LiveRamp - 5 minutes pour comprendre le data onboardingLiveRamp - 5 minutes pour comprendre le data onboarding
LiveRamp - 5 minutes pour comprendre le data onboarding
 
iProspect Futur Focus édition 2017
iProspect Futur Focus édition 2017iProspect Futur Focus édition 2017
iProspect Futur Focus édition 2017
 
[Livre Blanc] la Data au service de l’expérience client - Netbooster
[Livre Blanc] la Data au service de l’expérience client - Netbooster[Livre Blanc] la Data au service de l’expérience client - Netbooster
[Livre Blanc] la Data au service de l’expérience client - Netbooster
 
La data au service de l'experience client - Livre blanc - Netbooster - Mars 2015
La data au service de l'experience client - Livre blanc - Netbooster - Mars 2015La data au service de l'experience client - Livre blanc - Netbooster - Mars 2015
La data au service de l'experience client - Livre blanc - Netbooster - Mars 2015
 
iProspect Futur Focus 2018 : The New Machine Rules
iProspect Futur Focus 2018 : The New Machine RulesiProspect Futur Focus 2018 : The New Machine Rules
iProspect Futur Focus 2018 : The New Machine Rules
 
HUBREPORT - HUBFORUM Paris 2017
HUBREPORT - HUBFORUM Paris 2017HUBREPORT - HUBFORUM Paris 2017
HUBREPORT - HUBFORUM Paris 2017
 
Conference Congrès Data Marketing
Conference Congrès Data MarketingConference Congrès Data Marketing
Conference Congrès Data Marketing
 
eGain AFRC09-v17
eGain AFRC09-v17eGain AFRC09-v17
eGain AFRC09-v17
 
Etude Apec - La relation client : enjeu stratégique pour les entreprises et c...
Etude Apec - La relation client : enjeu stratégique pour les entreprises et c...Etude Apec - La relation client : enjeu stratégique pour les entreprises et c...
Etude Apec - La relation client : enjeu stratégique pour les entreprises et c...
 
MATRANSFONUM
MATRANSFONUMMATRANSFONUM
MATRANSFONUM
 
Synthese barometre metiers_communication_2015
Synthese barometre metiers_communication_2015 Synthese barometre metiers_communication_2015
Synthese barometre metiers_communication_2015
 
DATA FORUM 2017 - Présentation Micropole - Les tendances Data 2018
DATA FORUM 2017 - Présentation Micropole - Les tendances Data 2018DATA FORUM 2017 - Présentation Micropole - Les tendances Data 2018
DATA FORUM 2017 - Présentation Micropole - Les tendances Data 2018
 
Livre blanc de l'experience client vol. 2
Livre blanc de l'experience client vol. 2Livre blanc de l'experience client vol. 2
Livre blanc de l'experience client vol. 2
 
"L'utilisation du numérique dans les relations clients" Guide de bonnes prati...
"L'utilisation du numérique dans les relations clients" Guide de bonnes prati..."L'utilisation du numérique dans les relations clients" Guide de bonnes prati...
"L'utilisation du numérique dans les relations clients" Guide de bonnes prati...
 
Magellan Partners - Valoriser l’expérience client et augmenter la rentabilité...
Magellan Partners - Valoriser l’expérience client et augmenter la rentabilité...Magellan Partners - Valoriser l’expérience client et augmenter la rentabilité...
Magellan Partners - Valoriser l’expérience client et augmenter la rentabilité...
 
La jaune et la rouge - Polytechnique mars 2018
La jaune et la rouge - Polytechnique mars 2018La jaune et la rouge - Polytechnique mars 2018
La jaune et la rouge - Polytechnique mars 2018
 
Catalogue séminaires ECHANGEUR
Catalogue séminaires ECHANGEURCatalogue séminaires ECHANGEUR
Catalogue séminaires ECHANGEUR
 
Conférence Mediabul le Hors Domicile à l'heure du digital
Conférence Mediabul le Hors Domicile à l'heure du digitalConférence Mediabul le Hors Domicile à l'heure du digital
Conférence Mediabul le Hors Domicile à l'heure du digital
 
Waisso conférence au Digital Performances de l'EBG
Waisso conférence au Digital Performances de l'EBGWaisso conférence au Digital Performances de l'EBG
Waisso conférence au Digital Performances de l'EBG
 
Cheat codes e-merchandiser by Sensefuel
Cheat codes e-merchandiser by SensefuelCheat codes e-merchandiser by Sensefuel
Cheat codes e-merchandiser by Sensefuel
 

Más de 55 | fifty-five

EBG - Livret de synthèse de la TaskForce CDO 2019 - CDO, de l'inspiration à l...
EBG - Livret de synthèse de la TaskForce CDO 2019 - CDO, de l'inspiration à l...EBG - Livret de synthèse de la TaskForce CDO 2019 - CDO, de l'inspiration à l...
EBG - Livret de synthèse de la TaskForce CDO 2019 - CDO, de l'inspiration à l...55 | fifty-five
 
Getting attribution right
Getting attribution rightGetting attribution right
Getting attribution right55 | fifty-five
 
[Livre blanc] Attribution : comprendre ses enjeux pour faire le bon choix
[Livre blanc] Attribution : comprendre ses enjeux pour faire le bon choix[Livre blanc] Attribution : comprendre ses enjeux pour faire le bon choix
[Livre blanc] Attribution : comprendre ses enjeux pour faire le bon choix55 | fifty-five
 
Optimizing your WeChat strategy through Data & Analytics
Optimizing your WeChat strategy through Data & AnalyticsOptimizing your WeChat strategy through Data & Analytics
Optimizing your WeChat strategy through Data & Analytics55 | fifty-five
 
L'Encyclopédie des Big Data 2016
L'Encyclopédie des Big Data 2016L'Encyclopédie des Big Data 2016
L'Encyclopédie des Big Data 201655 | fifty-five
 
55 | fifty-five | White paper : Ad blocking (FR)
55 | fifty-five | White paper : Ad blocking (FR)55 | fifty-five | White paper : Ad blocking (FR)
55 | fifty-five | White paper : Ad blocking (FR)55 | fifty-five
 
55 | fifty-five | Fact Sheet: From Google Analytics to Universal Analytics
55 | fifty-five | Fact Sheet: From Google Analytics to Universal Analytics55 | fifty-five | Fact Sheet: From Google Analytics to Universal Analytics
55 | fifty-five | Fact Sheet: From Google Analytics to Universal Analytics55 | fifty-five
 

Más de 55 | fifty-five (7)

EBG - Livret de synthèse de la TaskForce CDO 2019 - CDO, de l'inspiration à l...
EBG - Livret de synthèse de la TaskForce CDO 2019 - CDO, de l'inspiration à l...EBG - Livret de synthèse de la TaskForce CDO 2019 - CDO, de l'inspiration à l...
EBG - Livret de synthèse de la TaskForce CDO 2019 - CDO, de l'inspiration à l...
 
Getting attribution right
Getting attribution rightGetting attribution right
Getting attribution right
 
[Livre blanc] Attribution : comprendre ses enjeux pour faire le bon choix
[Livre blanc] Attribution : comprendre ses enjeux pour faire le bon choix[Livre blanc] Attribution : comprendre ses enjeux pour faire le bon choix
[Livre blanc] Attribution : comprendre ses enjeux pour faire le bon choix
 
Optimizing your WeChat strategy through Data & Analytics
Optimizing your WeChat strategy through Data & AnalyticsOptimizing your WeChat strategy through Data & Analytics
Optimizing your WeChat strategy through Data & Analytics
 
L'Encyclopédie des Big Data 2016
L'Encyclopédie des Big Data 2016L'Encyclopédie des Big Data 2016
L'Encyclopédie des Big Data 2016
 
55 | fifty-five | White paper : Ad blocking (FR)
55 | fifty-five | White paper : Ad blocking (FR)55 | fifty-five | White paper : Ad blocking (FR)
55 | fifty-five | White paper : Ad blocking (FR)
 
55 | fifty-five | Fact Sheet: From Google Analytics to Universal Analytics
55 | fifty-five | Fact Sheet: From Google Analytics to Universal Analytics55 | fifty-five | Fact Sheet: From Google Analytics to Universal Analytics
55 | fifty-five | Fact Sheet: From Google Analytics to Universal Analytics
 

EBG - Livret de synthèse 2017

  • 2.
  • 4. 2 PRÉAMBULE Le big data est mort, vive le big data ! Les annonceurs semblent entrer dans une nouvelle phase de maturité vis-à- vis de l’utilisation qu’ils font de la data client. La course au stockage effrénée est pour beaucoup révolue, et le nerf de la guerre réside aujourd’hui dans la capacité à activer la data de façon rapide et innovante. Dans la bataille, les lignes des organi- sations vacillent et s’ouvrent néces- sairement, l’enjeu étant de croiser les données au-delà des silos de l’entre- prise : c’est la fameuse data-driven company qui émerge. Soit dit entre nous, le terme est un euphémisme, car la data n’a de valeur qu’à partir du moment où elle permet de faire entendre la voix du client, encore et toujours roi, plus exigeant que jamais. Le nouvel eldorado, c’est peut-être la customer-driven company. Finalement, les choix technologiques derrière l’élaboration d’infrastructures big data ne sont qu’une composante de chantiers éminemment stratégiques et dont l’enjeu est simple : continuer d’exister face au client dans un contexte de transformation des usages.
  • 5. 3 Pour réfléchir aux meilleures manières de résoudre le défi, pour la 3ème année consécutive, l’EBG a conduit en association avec 55, Turn et IBM, un cycle de 7 événements, pour permettre à 150 décideurs mar- keting, data et digital de partager leurs retours d’expérience autour de l’avancée de leurs projets big data. Le présent livret restitue les enseigne- ments du cycle, cette année intitulé Data-Driven Company, à travers sept grandes synthèses des rencontres, parsemées de citations des partici- pants, de chiffres éloquents, d’avis d’experts et enrichies d’entretiens complémentaires. L’EBG remercie l’ensemble des adhé- rents contributeurs aux rencontres et aux interviews complémentaires d’avoir joué le jeu du partage d’expé- riences. Merci également à nos partenaires de 55, Turn et IBM avec qui nous avons bâti le cycle et qui ont parfaitement su animer ou éclairer les rencontres de leurs avis experts. Bonne lecture !
  • 6. 4 P.18 PRÉAMBULEP.02 P.06 P.20 P.08 P.22 P.32 P.34 P.36 P.46 CHAPITRE 1 : COMMENT EXPLOITER LE BIG DATA POUR AMÉLIORER L'EXPÉRIENCE CLIENT ? SYNTHÈSE DE LA TABLE RONDE DU 17.06.2016 ENTRETIEN AVEC ALEXIS TRICHET, ORANGE CHAPITRE 2 : QUELLES UTILISATIONS DE LA DMP POUR UN MARKETING PERSONNALISÉ ET CRÉATIF ? SYNTHÈSE DE L’ATELIER DU 20.09.2016 ENTRETIEN AVEC NICOLAS CAPURON, TF1 CHAPITRE 3 : DATA LAKE, L’OUTIL INDISPENSABLE DE LA VISION CLIENT 360°? SYNTHÈSE DE L’ATELIER DU 16.10.2017 ENTRETIEN AVEC GAUTHIER LE MASNE DE CHERMONT, AIR FRANCE
  • 7. 5 CONTRIBUTEURS PARTENAIRESP.72 P.86 P.50 P.74 P.58 P.62 P.70 P.60 P.84 P.88 P.96 P.98 P.104 SOMMAIRECHAPITRE 4 : ASSOCIER BIG DATA ET PROGRAMMATIQUE POUR DES CAMPAGNES PLUS PERFORMANTES SYNTHÈSE DE L’ATELIER DU 13.12.2016 ENTRETIEN AVEC JULIEN CAFEDE, AUCHAN.FR CHAPITRE 5 : METTRE LA DATA SCIENCE AU SERVICE DES MÉTIERS SYNTHÈSE DE L’ATELIER DU 17.01.2017 ENTRETIEN AVEC ÉLISABETH ZEHNDER, KIABI CHAPITRE 6 : INTERNALISATION DE L'ACHAT MÉDIA : UNE TENDANCE DE FOND ? SYNTHÈSE DE LA TABLE RONDE DU 17.03.2017 ENTRETIEN AVEC SIMON VIVIEN, WARNER BROS CHAPITRE 7 : LA DATA AU SERVICE DE L'EFFICACITÉ MARKETING SYNTHÈSE DE L’ATELIER DU 17.05.2017 ENTRETIEN AVEC JULIEN-HENRI MAURICE, BAZARCHIC P.48
  • 8. 6 Comment exploiter le big data pour améliorer l'expérience client ? La montée en puissance des canaux digitaux réinterroge la proximité entre la marque et le client. Beaucoup d’annonceurs ont gardé trace des interactions à distance qu’ils entretenaient avec leurs cibles, et qu’ils ont transformées en masses de données éclatées dans diverses bases. Depuis, le big data est passé par là. Dès lors, comment repenser sa stratégie marketing pour mobiliser ses données au service du nerf de la guerre : l’expérience client ?
  • 10. 8 Conférence d'ouverture Cycle Data-Driven Company Comment exploiter le big data pour améliorer l'expérience client ? Synthèse de la table ronde du 17.06.2016
  • 11. 9 9 PROGRAMME Le big data est capable de traiter de très forts volumes de données et de prendre en charge des types d’informations très hétérogènes. Comment peut-il contribuer à pousser un cran plus loin l’optimisation de l’expérience client, et à la décliner dans une logique omnicanale ? • Comment globaliser la gestion de l’expérience client avec le big data ? • Visualisation, tableaux de bord : comment suivre en temps réel les comportements des clients ? • Comment croiser efficacement données internes et externes dans une perspective big data ? ANIMATEURS • LA MUTUELLE GÉNÉRALE, Stéphane Barde, Responsable big data, Information Management • ORANGE, Alexis Trichet, Directeur Anticipation et Connaissance Client • VOYAGES-SNCF.COM, Béatrice Tourvieille, Directrice Marketing INTERVENANTS • FIFTY-FIVE Samboy Camara, Practice Leader : Tech, Insurance Utilities • IBM Yan Lemoigne, Head of Sales Analytics Platform
  • 12. 10 L’EXPÉRIENCE CLIENT, 3 ENJEUX, 1 MÊME PRIORITÉ La montée en puissance des canaux digitaux réinterroge la proximité entre la marque et le client. La question de l’expérience en ligne devient absolument décisive. Essentielle, même, pour tout pure player. Chez voyages-sncf.com, Béatrice Tourvieille considère d’ailleurs que « c'est le premier driver de préférence et de choix du service de réservations. » Cette priorité révèle un fort enjeu de personnalisation. « L'an passé (en 2015), nous avons lancé un grand projet de refonte de notre service avec une stratégie axée autour de la notion de smart tourisme. Cette dernière repose sur plusieurs piliers : un accès fluide aux inventaires, un accompagnement sans couture du voyage. Pour soutenir cette stratégie, l'expérience client et la data sont les deux blocs majeurs. Voyages-sncf.com est le site de tous les Français. Les 12 millions de visiteurs mensuels n'attendent pas la même chose. Le voyage est une expérience impliquante et on a tous des besoins différents. Les niveaux de maturité des clients sont très hétérogènes. C'est pour cela que le besoin de personnalisation est très puissant. La convergence de l'expérience client et de la data vise à répondre à ces enjeux-là. » Hyperconnecté et de moins en moins engagé envers une marque ou un fournisseur, le consommateur cherche non seulement des prix avantageux, mais aussi à faire de son acte d’achat une expérience affinitaire auprès d’un vendeur qui le connaît, le reconnaît et anticipe ses besoins. À ce titre, l’amélioration de l’expérience client reste plus que jamais essentielle pour attirer et retenir les consommateurs.
  • 13. 11 Chez Orange, c’est la satisfaction client qui préside à la recherche d’une « expérience incomparable », notion centrale du plan Essentiel 2020, rapporte Alexis Trichet. « Si on veut parvenir à piloter l'expérience client comme on pilote aujourd'hui le CA ou la conquête de clients, il faut se donner un objectif clair. Pour nous l’objectif c’est de diminuer le nombre de clients insatisfaits et d’augmenter le nombre de clients très satisfaits. Si l’on parle des clients insa- tisfaits, aujourd'hui, ils sont environ 20 %. Les entreprises les plus performantes sont plutôt autour de 10 %. Ce sont ces niveaux que nous voulons atteindre. C'est une rupture par rapport aux périodes précédentes où l'on s'attaquait à la notion d'expérience client par petites touches et sans objectif global. » Mais la révolution de la relation client se joue à la fois du physique et du digital. C’est particulièrement le cas dans le monde de l’assurance. « Historiquement, rappelle Stéphane Barde (La Mutuelle Générale), les contacts se sont faits en agence, puis en call-center. Désormais, nous sommes dans l'ère de la multicanalité. » Dès lors, avant même de penser personnalisation, un premier enjeu s’impose, celui de la « cohérence de l'expérience que l'on fait vivre à nos clients. Les interactions sont peu fréquentes, et lorsque l'on appelle son assureur, c'est généralement parce qu'il y a un problème. L'interaction est donc connotée assez négativement. L'enjeu consiste à avoir davantage d'interactions positives. » ENRICHIR LES DONNÉES INTERNES DE LA VOIX DU CLIENT Les canaux digitaux ont permis aux marques d’accumuler foultitude de données depuis plusieurs années, sans doute davantage qu’elles n’étaient réellement capables de traiter. Le big data en permet maintenant une exploitation suffisamment rapide parfois même en temps réel. Belle promesse, mais qui ne saurait suffire. Pour Alexis Trichet, les data internes à l’entreprise doivent impérativement être croisées avec « la voix du client ». Au regard de l’enjeu d’Orange de maximiser la satisfaction client, il s’en explique. « On note trois grands motifs d'insatisfaction des clients : le réseau, l'offre et la relation client. Le premier produit d'un opérateur, c'est le réseau. On considère que les principaux efforts doivent se concentrer sur ce point. Cela passe par une compréhension fine des attentes des clients. Cela a modifié la vision des équipes techniques. Typiquement sur le mobile, 40 % RÉCONCILIATION / AGRÉGATION DE DONNÉES HÉTÉROGÈNES 32 % COMMUNICATION / COMPRÉHENSION ENTRE LES INTERVENANTS TECHNIQUES ET MÉTIERS 31 % PROCESSUS DE COLLECTE DE LA DONNÉE COMPLEXE 31 % MANQUE DE COMPÉTENCES TECHNIQUES OU DE RESSOURCES QUALIFIÉES QUELLES SONT LES PRINCIPALES DIFFICULTÉS À SURMONTER CONCERNANT VOS PROJETS STRATÉGIQUES AUTOUR DE LA DATA ? (Plusieurs réponses possibles) Source : Baromètre EBG « Data Driven Entreprise » conduit auprès de 800 répondants, novembre 2016
  • 14. 12 cela nous a obligés à revoir l’importance de la couverture vs les débits, et de revenir à des évidences : les gens veulent être connectés partout et aujourd’hui cette demande n’est pas encore totalement satisfaite. Il y a donc une grande mutation en cours : le marketing, qui était jusque- là concentré sur l'ingénierie tarifaire, doit désormais éclairer les porteurs de coûts, soit les équipes techniques et relation client, sur les projets prioritaires pour tenir nos objectifs de satisfaction. » Voyages-sncf.com a « également vécu cette phase de remise au centre des attentes clients » confie Béatrice Tourvieille. « Il y a une grande complémentarité entre la partie data et la partie études pour permettre aux équipes de mieux s'approprier les attentes des clients. Notre communication était très centrée sur les tarifs ; il a fallu faire davantage remonter des éléments liés au voyage en tant que tel. La voix du client a été un élément très fédérateur et mobilisateur pour les équipes, à travers des KPIs très clairs. » Le big data porte peut-être mal son nom. À l’heure du marketing personnalisé, son principal avantage n’est pas tant de permettre l’exploitation de larges bases de données, mais de savoir faire parler des données de diverses sources et recelant des informations variées. « L'expérience client est également un moyen de capter des données qui, aujourd'hui, nous manquent. Ces données, une fois travaillées, nous permettront de personnaliser ce que l'on apporte aux clients, avant et après la vente. » observe ainsi Stéphane Barde (La Mutelle Générale). SOURCES DE DONNÉES : FAUT-IL ALLER VOIR AILLEURS ? Une fois la « voix du client » captée, faut- il se tourner vers les multiples sources de données externes, aujourd’hui disponibles, en accès libre ou payant ? Chez voyages-sncf.com, qui a « la chance de ne pas manquer de données (CRM, usage, navigation), le cœur de ce qui est utilisé, ce sont les données internes. » Ce qui n’empêche pas d’aller voir ailleurs. « Nous utilisons aussi des données externes, comme les données de ciblage que peuvent nous apporter tous les outils d'acquisition. Nous avons aussi recours à des données autour du voyage (référentiels géographiques, points d'intérêts, données météorologiques, etc.). » Une logique similaire prévaut chez Orange, où la priorité va d’abord à l’exploitation des données internes. « Nous faisons quelques achats pour ce qui concerne l'activation sur Internet. Mais sur l'amélioration du service rendu, ce sont avant tout nos propres données qu'il convient de scruter. 88 % des entreprises estiment disposer d’une bonne connaissance de leurs clients
  • 15. 13 Les équipes techniques n'ont pas manqué l'arrivée d'Hadoop il y a quelques années. Elles étaient plutôt en avance sur nous. » Le recours aux données externes vient donc dans un second temps. Il importe avant cela de savoir capter soi-même les bonnes données. En 2016, La Mutuelle Générale travaillait sur ce chantier. « Il y a de nombreuses réflexions menées autour de la donnée. Il nous manque énormément de matière pour faire de la personnalisation. Il convient donc d'identifier les données clefs qui nous manquent et de modifier nos parcours clients pour capter ces données. Des projets de personnalisation de la page d’accueil, du tunnel de vente, de l'espace client sont en cours et la Data Management Platform devrait nous y aider. Pour l'heure, nous n'avons pas tellement eu recours à des données externes. Sur l'open data, on reste sur de grand classique (données INSEE, densité de professionnels de santé par km², etc.). Une expérience intéressante en cours vise à avoir un thermomètre sur le mécontentement en analysant des forums. On n'en est encore qu'au stade du balbutiement sur ce point. » UN EFFORT DE DÉSILOTAGE CHEZ TOUT LE MONDE ENGAGÉ Une fois les données captées ou acquises, le chantier ne fait que débuter. Et puisque l’expérience client implique de près ou de loin toutes les fonctions, la transformation sera collaborative ou ne sera pas. Pour Stéphane Barde (La Mutuelle Générale), « l'enjeu de l'expérience client est avant tout un enjeu de prise de conscience sur le fait que cela ne concerne pas que le marketing ! Il s'agit donc de travailler de manière transverse autour du concept de parcours client et d'amélioration de l'expérience. » Béatrice Tourvieille (voyages-sncf.com) dresse un constat similaire. « La partie data a été placée au marketing. Ensuite, il y a un vrai enjeu de rayonnement de cette data au sein de l'organisation. Nous sommes organisés autour de feature teams, qui sont des équipes multi-compétences chargées de gérer des fonctionnalités du site. Aujourd'hui, la data doit être injectée au sein de chacune de ces feature teams. » Chez Orange, la transversalité est aussi de mise, avec pour objectif d’aligner chaque direction autour des mêmes objectifs de satisfaction client. « Au point de vue organisationnel, témoigne Alexis Trichet, il a fallu s'appuyer sur une gouvernance destinée à traiter les problèmes de 1. Source : Talend Mais seulement 61%des consommateurs pensent que les entreprises comprennent leurs besoins1
  • 16. 14 satisfaction client. Elle réunit la Direction Technique, la Direction de la Relation Client et la Direction Marketing. Tous les quinze jours, nous analysons les indicateurs de qualité tournés clients. » Cet alignement dépasse la question de l’organisation et de la gouvernance. Les outils utilisés doivent également évoluer pour permettre un pilotage plus customer- centric. « Ce que nous cherchons à faire c’est à piloter pour chacun de nos clients leur satisfaction. Cela nécessite une évolution notable de notre CRM qui, jusqu’à présent, était plutôt orienté historiques des interactions, offres et options. Notre vision c’est qu’il contienne tous les éléments qui nous permettront de considérer ce client comme satisfait ou insatisfait pour pouvoir agir en conséquence. Il y a évidemment des fiches clients sur lesquelles sont inscrites quasiment toutes les interactions. Il s'agit ici de construire une vue à 360 degrés en inscrivant également ce que l'on a compris de l'expérience technique telle que le client l'a vécue. Nous n'en sommes qu'aux prémices, mais l'interaction avec le produit/service doit être résumable. » DEPUIS 2016, PREMIERS PAS VERS LA DMP Interrogés sur leurs recours à la DMP, les intervenants confient tous trois s’être lancés. Mais Béatrice Tourvieille avertit, « pour bien utiliser la DMP, il faut déjà avoir un niveau de compréhension des canaux assez fin. On travaille ainsi sur des scénarii d'activation en cross-canal. » Elle précise le contexte du recours de voyages-sncf.com à la DMP. « L'acquisition est assez centrale dans le modèle, avec des degrés d'importance différents dans le business. En France, on est davantage dans une approche CRM ; à l'international on est plus dans une logique de conquête. La DMP nous permet d'avoir une activation la plus fine possible pour activer en acquisition et sur des canaux externes des clients que nous connaissons déjà. Il a d'abord fallu passer par une phase de mise à niveau de tous les canaux d'activation. » À La Mutuelle Générale, la DMP est également vue comme un levier d’optimi- sation de la stratégie d’acquisition. « Pour l’acquisition, explique Stéphane Barde, en fonction des canaux d'entrée, on essaie déjà de comprendre comment les clients vont se révéler appartenir à tel ou tel type de profil. L'idée consiste à faire les bons investissements médias en amont, en TOP 3 DES OUTILS D’ANALYSE DE LA DATA (Plusieurs réponses possibles) OUTILS DE WEB ANALYTICS OUTILS CLASSIQUES DE REPORTING OUTILS D’ANALYSE STATISTIQUE / DATAMINING 55 % 48 % 45 % Source : Baromètre EBG « Data Driven Entreprise » conduit auprès de 800 répondants, novembre 2016
  • 17. 15 fonction du type de clients que l'on aimerait avoir. La DMP nous servira à atteindre cet objectif, en faisant le lien entre différents segments de données. » NOUVELLES COMPÉTENCES : LES ATTIRER…ETLESRETENIR On l’a vu, repenser l’expérience client grâce au big data, c’est savoir capter les bonnes données et par la suite, repenser l’organisation, la gouvernance et ses outils. Mais ce n’est pas tout. Le nerf de la guerre, ce sont les compétences. Des remarques récurrentes à ce propos pointent la difficulté à trouver des profils de data scientists. La compétence est sans doute d’autant plus rare qu’elle requiert tout à la fois une bonne compréhension des enjeux métiers et la maîtrise d’outils pointus. À La Mutuelle Générale, la compétence est d’ailleurs « partagée entre différentes équipes travaillant en mode agile ». Aussi Stéphane Barde confie-t-il. « Le premier challenge, avec les data scientists, c'est de parvenir à les recruter ! Les vrais profils sont assez rares et le monde de la data science est actuellement très petit. Il y a peu de seniors dans ce domaine. Quand on n'est pas un pure player et que l'on se lance dans la data science, c'est difficile. Nous avons choisi de valoriser les compétences internes et de prendre un ou deux très bons data scientists. Nous avons aussi pris des stagiaires issus de très bonnes écoles que nous formons. Cette formule fonctionne plutôt bien. Tout l'enjeu consiste à les faire rester en rendant les missions intéressantes. » Pour disposer des compétences suffisantes, Béatrice Tourvieille (voyages-sncf.com) mise elle aussi sur la montée en compétences, avec le développement d’un écosystème de profils. « Il est en effet très difficile de recruter, puis de retenir des data scientists. Nous avons recruté des juniors et seniors avec cette logique de montée en compétences. Des prestataires travaillent également avec nous pour compléter les équipes. Nous tenons à mettre en place une certaine porosité entre les équipes datamining et les équipes data science pour offrir de la montée en compétences. La confrontation des équipes data science avec des contraintes business, des con- traintes d'implémentation ne se fait pas naturellement. Nous avons créé des nouveaux rôles, comme par exemple celui de product owner d'algorithme, pour jouer un rôle de facilitateur. Un écosystème de profils se crée et évolue dans le temps ; il convient de le faire vivre régulièrement. » Pour les quelques acteurs qui, comme Orange, ont la chance de pouvoir capitaliser sur une expertise historique d’analyse de la donnée, la data science peut également être vue comme une chance de nourrir une partie d’équipe en sujets nouveaux et entrainants. « Historiquement, rappelle Alexis Trichet, il y a toute une partie recherche de France En 2016 19% des annonceurs français affirmaient s’être déjà dotés d’une DMP 23% y travaillaient 25% y réfléchissaient
  • 18. 0 0 60 % 48 % 47 % 46 % Source : Forrester Consulting pour Accenture Interactive, Juin 2016, Via EMarketer DÉVELOPPER/AMÉLIORER LES CANAUX DIGITAUX DÉVELOPPER/AMÉLIORER LES CANAUX TRADITIONNELS AMÉLIORER SES CAPACITÉS D’ANALYSE POUR AMÉLIORER LES INSIGHTS CRÉER DAVANTAGE DE CONTENUS PERTINENTS POUR LES CLIENTS Télécom qui était très pointue dans le domaine des statistiques. Nous avons donc la chance d’avoir une expertise très solide depuis de nombreuses années. L’équipe de datamining/datascience, qui traditionnellement au marketing était concentré sur des sujets de pricing et d’évaluation de ROI, est depuis 2 ans redéployée en partie sur le sujet de la satisfaction, sujet passionnant pour les équipes. » LA CONFIANCE AU CŒUR DES DÉBATS La condition essentielle pour une expé- rience client incomparable est sans conteste le maintien du lien de confiance entre l’utilisateur et la marque. Le client n’autorisera pas la manipulation à distance de ses données personnelles sans contreparties ; en premier lieu, il exigera de se voir apporter un supplément de valeur. Un pure player comme voyages-sncf.com en a pleinement pris conscience. « Nous utilisons les données clients pour travailler des éléments de personnalisation et améliorer la satisfaction. On reste donc dans des enjeux d'apport de valeur ajoutée. C'est d'ailleurs notre sujet principal, il n'y a donc aucune tentation de diverger de cette ligne. L'expérience client est globalement en train de se disperser, de s’éclater. Il y a un enjeu fort à porter notre message et notre service à l'endroit où sont nos clients. Pour apporter de la valeur ajoutée partout, c'est la connaissance client qui constitue le socle. C'est là-dessus que se fonde la pertinence de nos interactions. » La deuxième contrepartie pour avoir légitimité à manipuler à distance les données personnelles du client, c’est d’être transparent sur l’usage que l’on fait des data – ainsi que le prévoit d’ailleurs la réglementation. Alexis Trichet rappelle pour Orange : « Dès que l'on entre dans des démarches commerciales, on demande évidemment l'accord du consommateur. La CNIL est prise au pied de la lettre et on reste bien à distance des terrains glissants. » Stéphane Barde (La Mutuelle Générale) résume en concluant qu’il y a pour eux « deux garde-fous naturels : les contraintes légales et la nature même de l'entreprise. Une des valeurs essentielles des mutuelles, c'est la solidarité. Nous avons donc une barrière éthique qui s'impose naturellement à nous-mêmes. Par exemple, nous avons refusé d'établir un score qui prenne en compte le prénom. Par défaut, les données sont anonymisées. Ce parti-pris fort coûte de l'argent et de l'énergie. Pour chaque data set traité, une fiche sécurité est créée pour mentionner les données sensibles qui s'y rapportent. » PRINCIPALES INITIATIVES POUR AMÉLIORER L’EXPÉRIENCE CLIENT (Étude internationale)
  • 19. 17 Nicolas Vaudran 55 L’analyse et l’activation des données ont désormais des applications infinies à chaque étape du parcours client, que ce soit en phase : • d’acquisition : scoring de lead, ciblage, segmentation, personnalisation des canaux proposés selon les préférences du client… • d’engagement et de conversion : pilotage des parcours grâce à l’analytics, up-sell et cross-sell ciblé… • ou de fidélisation / rétention : campagnes de fidélisation personnalisées, programmes prédictifs anti-churn… L’exploitation des données permet de mettre en perspective les comportements des clients pour adapter sa stratégie de marque, et de mesurer la juste performance des actions menées. Face à cette richesse, l’enjeu est de proposer une expérience client différenciante par rapport aux concurrents et cohérente du point de vue client, à l’heure où celle-ci devient centrale dans la stratégie de marque. Le pilotage de l’expérience client par la donnée dépasse maintenant le seul cadre du digital : ainsi, l’utilisation de bases de données tierces, par exemple celle de Facebook et ses 30 millions d’utilisateurs en France, permet de recouper les informations contenues dans les programmes de fidélité des commerçants (nom, prénom, adresse email) et les données de navigation digitales, décrivant ainsi les parcours client digitaux en amont de l’achat en boutique. De nouvelles notions voient alors le jour, comme le super chiffre d’affaires (CA) rassemblant CA digital et CA en magasin, ou encore les contributions des campagnes mobiles aux conversions en magasin, qui constituent autant d’outils de pilotage de l’amélioration de l’expérience client globale, à la fois physique et digitale. Comment exploiter le big data pour améliorer l'expérience client ? AVIS D'EXPERT
  • 20. 18 « Le potentiel est gigantesque » ORANGE ALEXIS TRICHET Directeur Anticipation et Connaissance Client Alexis Trichet partage ses impressions sur la conférence d’ouverture et insiste sur le potentiel de l’utilisation des données internes dans l’amélioration de la satisfaction client. Entretien QUE VOUS INSPIRENT LES PROJETS DE VOYAGES-SNCF.COM, LA MUTUELLEGÉNÉRALEETVOUS-MÊME? Ce qui m’a marqué, c’est que nous avons tous décidé de prendre le sujet du big data par les use cases. Nous partageons l’idée qu’il faut avoir une question business à résoudre. J’ai également observé que nous sommes tous en train de nous réapproprier nos propres données : il y a déjà tant à faire avec ce dont nous disposons. Le potentiel est gigantesque et alimentera sans doute fortement les 2-3 prochaines années. COMMENT SÉLECTIONNEZ-VOUS LA BONNE DONNÉE ? Nous faisons quelques achats pour ce qui concerne l'activation sur Internet. Mais sur l'amélioration du service rendu, ce sont avant tout nos propres données qu'il convient de scruter. Les équipes techniques n'ont pas manqué l'arrivée d'Hadoop il y a quelques années. Elles étaient plutôt en avance sur nous. VOUS AVEZ DÉCRIT LA SATISFACTION CLIENT COMME UN ÉLÉMENT CENTRAL DU PLAN ESSENTIEL 2020 ? Nous sommes en plein effort pour comprendre ce qui est déterminant dans la satisfaction de nos clients. Le fait de croiser la voix du client et les données internes à l’entreprise se révèle donc absolument essentiel pour poser les bons diagnostics. Et sans bon diagnostic, pas de bon remède. Si l’on n'est pas en mesure d'aller loin dans la résolution de nos problèmes de qualité, c'est parce que jusqu'à présent, les équipes s'attachaient soit aux données internes, soit au client, mais pas à ces deux éléments simultanément. La réunion de ces deux axes permet d'avoir une vision autrement plus pertinente. AVEZ-VOUS, VOUS AUSSI, FAIT LE CHOIX DE LA DMP ? Nous avons aussi décidé de mettre en place une DMP qui tourne depuis quelques mois sur deux cas : la fibre et Sosh. Nous sommes encore en rodage mais les premiers résultats sont prometteurs. 18
  • 21. 19 CONCLUSION Les directeurs marketing seraient en passe de devenir les gardiens du temple de l’expérience client. Une affirmation à nuancer, au moins deux fois. Tout d’abord, parce que les métiers du marketing devront accélérer leur mutation, autour du triptyque personnalisation, contenus et data. Ces trois ambitions sollicitent des compétences et des savoir-faire nouveaux : la maîtrise des outils issus du big data, la capacité à entraîner les agences vers une créativité sans cesse renouvelée, le bagage technique pour dialoguer avec des profils davantage math que mad men… De plus, pour faire de l’expérience client l’alpha et l’oméga de sa stratégie marketing, la transformation des métiers du marketing ne saurait y suffire. Il revient aussi aux équipes IT, digitales, data, ou encore, des opérations, de se changer en éclaireuses au-delà des silos ; car ce dernier obstacle empêche encore de disposer d’un réel panorama clients, prélude indispensable à la qualité de l’expérience.
  • 22. 20 Quelles utilisations de la DMP pour un marketing personnalisé et créatif ? Les consommateurs ont adopté toute une série de tactiques pour contourner les messages publicitaires. La DMP peut-elle aider les équipes marketing à construire des messages plus percutants qui sachent (re)conquérir l’attention de leur audience ?
  • 23. 21 2.
  • 24. 22 Workshop Cycle Data-Driven Company Quelles utilisations de la DMP pour un marketing personnalisé et créatif ? Synthèse de l’atelier du 20.09.2016
  • 25. 23 23 • TURN, Kamal Mouhcine, Sales Director South Europe • TURN, Eymeric Chateau, Country manager Central Southern Europe ANIMATEURS PROGRAMME La DMP promet de maximiser la connaissance de chaque client et prospect pour produire une interaction hyper-individualisée. Mais dans le même temps, les équipes marketing doivent repenser leur stratégie éditoriale et trouver de nouvelles façons d’engager l’utilisateur tout au long du tunnel de conversion. • Comment la data peut-elle nourrir une stratégie de marketing de contenus créative ? • Scénarisation : quelles bonnes pratiques pour construire des campagnes imaginatives et engageantes ? • Quels sont les apports et les limites de la DMP dans ce nouveau marketing personnalisé et créatif ? PARTICIPANTS • TRANSAT FRANCE Roberta Graser, Responsable Pôle Audience Acquisition • FRANCE TÉLÉVISIONS Skander Essid, Responsable Technique Data et Digital Marketing • SPECIALCHEM Éric Escure, Directeur Technique • IBM Bertrand Douriez, IBM Software Sales • CRÉDIT MUTUEL NORD EUROPE Rémi Deltombe, Responsable Data Management • BOURSORAMA Caroline Baldeyrou, Directrice Média • BOURSORAMA Aurélie Rossignol, Responsable Datamining • FNAC Camille Berland, Responsable Marketing Digital Relationnel • UBISOFT Gwenn Berhault, EMEA CRM Manager • FIFTY-FIVE Mike Bettan, Media Analytics Senior Manager • FIFTY-FIVE Gwenn Charlot, Project Lead • CABINET HOCHE Régis Carral, Avocat Associé • RENAULT Servane Corot, Chef de projet PRM • CHANEL Laura Yedid, Responsable Fidélisation e-commerce • ORANGE Valérie Pernelle, Head of Customer Value Management Big data • KIABI Arnaud Mandon, Trafic Manager
  • 26. 24 RÉPONDRE À UN DEVOIR D’INSTANTANÉITÉ Avant de débuter les échanges, Kamal Mouhcine (Turn) rappelle la raison d’être de la DMP. « Une Data Management Platform est, en quelque sorte, un entrepôt de données dans lequel seront stockées un maximum d’informations issues de sources différen- tes. Le principal enjeu consiste à unifier ces sources d’informations afin de les mettre au service de l’amélioration de la connaissance client. La grande force d’une bonne DMP, c’est d’avoir un maximum de connexions préétablies, afin de faciliter le fonctionnement du dispositif global. Tout ce système doit répondre à un devoir d’instantanéité : bien souvent, une information (par exemple, le signe d’une volonté de résiliation du contrat d’un consommateur) doit nécessiter une réaction marketing immédiate (appeler l’abonné pour faire le point sur sa situation, selon le même exemple). Malheureusement, l’insight est bien souvent assez peu valorisé, les acteurs tendent à rechercher le ROI immédiat… Le grand défi n’est pas de récolter toujours davantage de données, mais de parvenir à identifier les bons insights. Concernant la notion de programmatique, l’écosystème n’en est encore qu’aux balbutiements. Mais l’objectif ultime consiste à disposer d’une vision véritablement unifiée (social, vidéo, mobile, display, etc.). » Par Kamal Mouhcine et Eymeric Chateau, Turn « La notion de big data ouvre la voie à la collecte d’un nombre très important de données, peut-être même trop important… Au cours des dernières années, de plus en plus d’internautes ont adopté les dispositifs adblockers, car ils estiment que les messages ne sont pas adaptés, ou sont trop peu créatifs. Aujourd’hui, il est nécessaire de parvenir à déclencher une véritable conversation avec les consommateurs, sinon le message sera noyé parmi des centaines d’autres… »
  • 27. 25 DE LA CONNAISSANCE À L’ENGAGEMENT CLIENT Kamal Mouhcine (Turn) prolonge ses propos introductifs. « Comment la data peut-elle vous aider à proposer des campagnes plus intelligentes ? La donnée brute relève de la notion de connaissance client, alors que la créativité se propose de toucher à la notion d’engagement. En un mot, la créativité permet d’optimiser l’expérience de marque. Du côté de l’annonceur, l’enjeu principal consisteàrationalisertouteslesdonnéesafin d’aller rapidement à l’essentiel : commencer par des choses simples, identifier une poignée de données clefs, regrouper cette donnée en cibles marketing, rechercher des insights utiles. Dans ce contexte, les créatifs doivent impérativement être intégrés dans l’ensemble de cette chaîne. Turn a interrogé environ 250 créatifs présents au Royaume-Uni. Le premier grand ensei- gnement de cette étude, c’est que le concept de data est bien peu maîtrisé par cette population, alors même qu’il est d’une très grande utilité et que les data ont tout intérêt à être partagées avec la totalité de la chaîne de valeur. Cette étude contribue également à montrer qu’il existe de très grands écarts en fonction des générations de créatifs. Jeunesse ne rime pas forcément avec sagesse, car pour les millennials ou la génération Y, la donnée n’est pas jugée absolument nécessaire… Or, bien comprendre son audience à travers les data permet de proposer des formats beaucoup plus impactants. Il convient donc d’évangéliser ces populations en proposant davantage de transparence, en les impliquant beaucoup plus dans la réflexion, en fluidifiant au maximum le partage. » PERSONNALISER LES MESSAGES GRÂCE À LA DMP L’objet de l’atelier était de réfléchir aux usages de la DMP au service de campagnes imaginatives et engageantes. Il convient donc de sortir des messages standardisés. L’importance de la personnalisation à l’ère du marketing digital n’est plus à démontrer : début 2014, une étude Terradata révélait déjà que 80 % des directions marketing digital y voyaient la clé de succès de leurs initiatives1 . Skander Essid (France Télévisions) partage un cas d’usage de la DMP en ce sens. « Sur la plateforme Culturebox qui regroupe toute l’offre culturelle de France Télévisions, la newsletter proposait auparavant à tous les abonnés les mêmes sujets présentés de la même façon... Depuis quelques temps, grâce à la DMP, nous sommes en 1. Teradata 2014, Étude « Digital Marketing Insight Report » menée auprès de 1506 décideurs marketing à travers le monde. Début 2014, 80%des directions marketing digital voyaient déjà dans la personnalisation la clé de succès de leurs initiatives1 .
  • 28. mesure de proposer une personnalisation. Une analyse du parcours sur Culturebox et sur les autres sites du groupe France Télévisions permet de segmenter les appétences : théâtre, cinéma, comédies musicales, etc. Il s’agit de données comportementales et anonymes, car il n’est pas nécessaire d’être logué pour naviguer sur nos sites. Aujourd’hui, l’objet de la newsletter ainsi que l’article présenté à la une sont personnalisés en fonction du profil de chaque abonné. Le dispositif nous a permis de multiplier par cinq le taux d’ouverture. » La DMP peut donc être utilisée pour affiner en continu le ciblage de l’audience et en ce sens, scénariser une succession de messages plus percutants, plus vivants. Eymeric Chateau (Turn) détaille ce principe de scénarisation. « Au-delà de la data, l’enjeu est de créer différents segments. Sur le marché, une grande tendance émerge : le dispositif d’analyse de clusters. Le premier constat, c’est qu’il y a plein de caractéristiques contradictoires dans l’audience, et le risque est d’entrer bien trop dans le détail. Autant d’opportunités manquées pour les marques… L’ambition de l’analyse de clusters consiste à identifier quelques grandes tendances dans des populations très larges afin de former, ensuite, des sous-groupes représentatifs dotés d’une poignée de caractéristiques définies. Cette analyse offre la possibilité de voir subtilementdequellemanièrelesaudiences réagissent aux messages créatifs. C’est l’opportunité de créer des contenus qui vont faire écho à votre audience. Il s’agit également de comprendre la complexité du fameux customer journey : on porte une analyse macro sur chacun des groupes afin de déterminer quelle fréquence de messages paraît la plus appropriée, par exemple. Enfin, l’objectif ultime consiste à prédire les prochains intérêts de vos clients et de vos prospects. À terme, nous parviendrons à déployer des outils qui soient en mesure de tout intégrer : CRM, vidéo, mobile, social… » ADAPTER SA PUBLICITÉ À LA GÉNÉRATION : RÉPARTITION DE L’INVESTISSEMENT MÉDIA PAR CANAL Les annonceurs investissent 500 % de plus auprès de la génération Y que de toute autre audience Dans le display Dans les réseaux sociaux Dans les appareils mobiles Dans les vidéos 26
  • 29. 27 Régis Carral Cabinet Hoche L’ŒIL DE L’AVOCAT « Vouloir mieux connaître son client ne doit pas avoir pour conséquence de limiter ses droits et libertés » La DMP a pour objet d’améliorer la qualité de la relation client, notamment en centralisant l’ensemble des données le concernant collectées par différents moyens au cours de la relation. Une fois centralisées, ces données peuvent être analysées et classées afin d’établir le profil du client et lui proposer des services adaptés et personnalisés. Les informations analysées sont de plus en nombreuses et précises en vue d’élaborer ces profils clients qui se veulent plus pertinents. Toutefois, vouloir mieux connaitre son client ne doit pas avoir pour conséquence de limiter ses droits et libertés en matière de protection des données personnelles, à plus forte raison si les interactions avec le client et leurs contenus dépendent de l’appartenance à un profil déterminé. En effet, selon le Règlement UE n°2016/679 du 27 avril 2016 relatif à la protection des données personnelles, applicable à compter du 25 mai 2018, le profilage consiste à traiter des données personnelles pour analyser, évaluer certains aspects personnels ou prédire les préférences et les comportements d’une personne. Le principe est l’interdiction de recourir au profilage puisque le texte prévoit le droit ne pas faire l’objet d’une décision exclusivement fondée sur le profilage, sous réserve des quelques dérogations prévues par ce texte. Dans l’hypothèse d’un profilage, la personne concernée doit être informée de son existence, des conséquences et de son droit de s’opposer à celui-ci. Enfin, en cas d’évaluation systématique et approfondie d’aspects personnels, notamment grâce au profilage, le Règlement prévoit qu’une analyse d’impact relative à la protection des données est requise. Source : Résultats de l’analyse des données provenant de la plateforme Turn, 2016
  • 30. 28 MÉDIAS VS. CRM : QUI PILOTE LA DMP ? Comme Gwenn Berhault (Ubisoft) le rappelle, « on tend généralement à opérer une distinction assez nette entre DMP CRM et DMP Média. Pourtant, il semble que le grand enjeu consiste justement à fondre ces deux environnements, sinon les organisations verront les silos perdurer… Pour l’heure, le média semble dans le flou ; il a besoin de la connaissance client pour pouvoir déclencher des campagnes véritablement optimisées. » Eymeric Chateau (Turn) consent qu’il existe en effet « des DMP qui ont un ADN média, et d’autres qui ont un ADN plutôt CRM. S’ajoute à cette distinction la complexité liée à la question de la privacy. Mais évidemment, le grand enjeu qui doit nous animer, c’est que demain la DMP soit aussi performante côté CRM que côté média. » Ce qui amène à la question centrale, posée par Kamal Mouchine (Turn), « qui pilote la DMP ? Ce ne doit pas être une équipe CRM ni une équipe média, mais une équipe véritablement unifiée. » Eymeric Chateau conclut alors : « au plan organisationnel, l’objectif doit être de briser les silos et de limiter les outils technologiques. Pendant la phase d’exécution de la DMP, le piège serait de recréer des silos… aussitôt, tout l’avantage de la DMP serait réduit à néant. » BÉNÉFICES ET LIMITES DE LA DMP KamalMouhcine(Turn)poursuitlaconclusion en ces termes. « Même si nous n’en sommes encore qu’aux balbutiements sur la DMP, les princi- paux bénéfices sont les suivants : • Segmenter • Avoir une vision unifiée du customer journey • Casser les silos • Améliorer la connaissance client • Créer des sous-segments à transmettre à l’agence créative (laquelle doit être data approach) • Réagir rapidement • Faire travailler des équipes qui n’auraient a priori jamais évolué ensemble Dans ce contexte, demeurent quelques limites : • Risques de tiraillements au sein des équipes • L’implémentation représente un processus long et complexe qui nécessite des ingénieurs pour bien saisir l’ensemble des enjeux • Intégrer une technologie nouvelle à l’existant est un véritable challenge technologique et humain (d’autant que, au sein de l’entreprise, certains métiers peuvent être mis en péril) » Au même titre que le design et le synopsis, font partie des priorités d’une publicité digitale4 : La pertinence, pour 67%des collaborateurs en agence Le lieu, pour 60% La temporalité, pour 59% 4. Étude Morar Consulting pour Turn, mai 2016
  • 31. 29 Eymeric Chateau Turn Créativité et programmatique devraient être en symbiose. La programmatique peut en effet donner aux créatifs les données dont ils ont besoin pour créer des publicités efficaces et ciblées. Malheureusement, aujourd’hui, les équipes programmatiques et créatives ne travaillent pas suffisamment ensemble. Dans le monde de l’entreprise, la tendance est en effet de fonctionner en silos. Les responsables créatifs pensent souvent que leur travail repose sur l’inspiration et consiste à créer quelque chose de convaincant et d’émotif. Les données pourraient pourtant renforcer cette créativité, tout en rendant leur approche moins intrusive. Au cours des dernières années, de plus en plus d’internautes ont adopté les dispositifs adblockers, jugeant les messages inadaptés ou trop peu créatifs. Aujourd’hui, il est nécessaire de parvenir à déclencher une véritable conversation avec les consommateurs, pour éviter que le message ne soit noyé parmi des centaines d’autres… En parallèle, la notion de big data ouvre la voie à la collecte d’un nombre toujours plus important de données, dont le principal enjeu consiste à unifier ces sources d’informations afin de les mettre au service de l’amélioration de la connaissance client. Les meilleures campagnes créatives ont souvent comme point de départ une analyse de ces données. Pour optimiser l’impact de leurs campagnes, les marques doivent veiller à ce que les équipes créatives d'une part, et les équipes de planification et d'exécution de plan média d’autre part, travaillent ensemble et aient accès aux mêmes données et informations. AVIS D'EXPERT 35%des créatifs britanniques indiquent que les marques ont du mal à partager leurs données avec eux3 3. Étude Morar Consulting pour Turn, mai 2016
  • 32.
  • 33. 31 CONCLUSION Les consommateurs ont adopté toute une série de tactiques pour contourner les messages publicitaires, quel que soit le format : généralisation des adblockers, fermeture immédiate des messages vidéos détection des informercials… Les marques doivent donc développer des stratégies de content marketing à valeur ajoutée, dont la promesse produit authentiquement du sens pour le visiteur. Cette stratégie d’animation doit être à la fois créative et omnicanale, avec une cohérence entre le message et la recherche du client, ses besoins, son profil familial, sa localisation géographique ou sa CSP… La DMP promet précisément de maximiser la connaissance de chaque client et prospect pour produire une interaction hyper-individualisée. Mais comme tout projet data de grande ampleur, la mise en place d’une DMP, avertit Kamal Mouhcine (Turn), doit « être portée par des équipes communes, l’idée étant de chercher toujours à fluidifier le partage. Il ne faut pas chercher à démontrer trop de choses à la fois. La bonne pratique consiste à définir en amont un objectif avec un impact clair et rapidement quantifiable. Sinon, on risque de bâtir des usines à gaz dans lesquelles prennent part bien trop d’intervenants. »
  • 34. « Mettre la technologie au service du business » TF1 NICOLAS CAPURON Directeur Transformation Digitale, Data Marketing Digital TF1 a fait le choix de la DMP et de l’approche Data Lake. En 2017, le déploiement de l’infrastructure big data s’accélère. Entretien POURQUOI AVOIR FAIT LE CHOIX DE LA DMP ? La DMP a été déployée chez TF1 dès 2016, sur l’ensemble de nos services et de nos écrans. Ce choix s’est inscrit dans le cadre de la mise en place d’une infrastructure big data, dans une approche data lake. Avec la DMP, nous récupérons des données comportementales que nous associons depuis avril au SSO de mytf1, donc à une donnée non plus anonymisée mais associée à un nom, prénom et à un e-mail. QU’ALLEZ-VOUS FAIRE DE CETTE DATA AINSI COLLECTÉE ? Le bénéfice sera double : des performances publicitaires optimisées, bien évidemment, mais également, sur notre activité d’éditeur, une meilleure compréhension des usages et des attentes qui va nous permettre de faire de la recommandation personnalisée. L’objectif final, c’est une augmentation de l’audience et de la satisfaction client grâce à une expérience optimisée. 32
  • 35. QUELS SONT VOS PROCHAINS DÉFIS ? Nous connaissions déjà particulièrement bien nos utilisateurs, l’authentification va nous permettre d’aller encore plus loin. Le niveau de finesse dans la compréhension de notre audience va nous permettre d’individualiser l’expérience consommateur et de développer des dispositifs innovants pour nos partenaires annonceurs. Un chantier important est également le déploiement de notre infrastructure big data qui va occasionner un changement des métiers et des savoir faire, au-delà du digital. Car notre approche data lake implique de centraliser la donnée de l’ensemble des métiers du groupe, le digital, l’entertainment, la musique, les spectacles mais aussi la télévision. Pour ce faire, nous sommes entourés de data scientists et d’architectes techniques avec des compétences pointues. ALLEZ-VOUS AUSSI TRAVAILLER SUR LE CONTENU DES MESSAGES ? Notre principale préoccupation est la compréhension des besoins des annonceurs et notre capacité à répondre à leurs demandes. Aujourd’hui, les messages vidéo sont ciblés sur des critères Socio-Demo ; la DMP et notre data lake vont permettre de le faire de manière encore plus efficace. L’objectif à terme sera en effet d’adapter également les créations et les messages publicitaires au regard de notre segmentation extrêmement fine. À QUELLE ÉCHÉANCE ? Nous le faisons d’ores et déjà et allons amplifier le mouvement d’ici la fin de l’année 2017. AVEZ-VOUS DES DIFFICULTÉS À TROUVER DES PROFILS SUR LES COMPÉTENCES BIG DATA ? Un peu moins qu’avant. On trouve de plus en plus de compétences techniques, les formations big data sont aujourd’hui bien mieux adaptées qu’il y a 2 ou 3 ans. La difficulté, c’est de trouver des personnes avec la double sensibilité technique et business. Car l’enjeu majeur de transformation des métiers, c’est la mise à disposition de la technologie au service du business. 33
  • 36. 34 Data lake, l’outil indispensable de la vision client 360°? Prérequis au déploiement de nouvelles stratégies de conquête et de fidélisation, la vision client 360° suppose de disposer de toutes les données relatives aux consommateurs, quelles qu’en soient la provenance et la fraîcheur. Mais pour agréger cette masse considérable de données souvent fortement hétérogènes, les traditionnels data marts et data warehouses suffisent-ils encore ?
  • 37. 35 3.
  • 38. 36 Workshop Cycle Data-Driven Company Data lake, l’outil indispensable de la vision client 360°? Synthèse de l’atelier du 16.10.2017
  • 39. 37 37 • IBM, Jacques Milman, Executive Architect IBM Analytics • IBM, Laurent Sergueenkoff, IBM Analytics Platform - Sales Manager ANIMATEURS PROGRAMME Le data lake constitue un gisement de données brutes qui seront ensuite retravaillées par les data scientists et exploitées en fonction des différents besoins. La mise en œuvre initiale d’une vision client 360° est sans doute envisageable sans data lake, mais ce dernier semble s’imposer dès que les quantités de données manipulées augmentent. • État des lieux : quelle est la valeur ajoutée à ce jour du data lake dans la mise en place d’une vision client 360°? • Quelles stratégies internes mettre en place pour s’assurer que le data lake est bien alimenté par toutes les entités ? • Le data lake est-il un composant inévitable ou existe-t-il des alternatives ? PARTICIPANTS • GROUPE CHANTELLE Amélie Le Deist, Responsable CRM Data Management • LA MUTUELLE GÉNÉRALE Yann-Erlé Le Roux, Dataminer • SAINT-GOBAIN Deniz Loué, Responsable Projets et Veille Marketing Stratégique • YVES ROCHER LABORATOIRES David Ramond, Head of Data Business Analyst / IT • BOURSORAMA Aurélie Rossignol, Responsable Datamining • COYOTE Florian Servaux, Chef de Produit Services Smart Data • FRANCE TÉLÉVISIONS Valentin Vivier, Chef de Projets Data • UBISOFT Jérôme Durand, Directeur, Data Science • UBISOFT Vincent Nicolas, Data Scientist • ORANGE GROUPE Anne-Sophie Gimenez, Head of learning agency • ORANGE Éric Moison, Information based strategy Program Manager • CANAL + DISTRIBUTION Fatma Kourar, Responsable MOA Data • BOUYGUES TÉLÉCOM César Lagarde, Responsable Pilotage Planification CRM • FIFTY-FIVE Pierre Harand, Directeur Général, France • FIFTY-FIVE Jean-Hubert Cornet, Head of Automotive Practice
  • 40. 38 DENIZ LOUÉ SAINT-GOBAIN Au sein de l'équipe marketing, je suis responsable des projets liés à la donnée. Nous venons de lancer un projet relatif aux données clients, et sommes surtout dans une phase exploratoire. AMÉLIE LE DEIST GROUPE CHANTELLE Je suis responsable CRM et data management pour les marques Orcanta et Passionata. Nous sommes aux prémices d'un projet data lake. Nous nous interrogeons encore sur ce que ce dispositif pourrait réellement nous apporter. DAVID RAMOND YVES ROCHER LABORATOIRES Nous sortons tout juste d'un prototype big data mené autour de la vision de la cliente. Cela a permis aux Métiers de concrétiser les apports de ces nouvelles technologies et tester la possibilité de nouveaux usages autour de la data. Cela a été également une étape indispensable pour faire émerger un consensus parmi les différents sponsors et préparer le lancement d’un projet de nouvelle plateforme data orientée omnicanale. FLORIAN SERVAUX COYOTE Je suis responsable de l'équipe Smart Data. Nous travaillons actuellement sur la mise en place d'un data lake, avec une double ambition : tendre vers cette fameuse vision 360 de nos clients, et faciliter le traitement et l'analyse de notre historique de données volumineux. YANN-ERLÉ LE ROUX LA MUTUELLE GÉNÉRALE Le terme data lake me semble relativement récent, par rapport au data warehouse ou au data mart. Dans ce contexte, l'idée est d'identifier clairement les spécificités du data lake en vue d'une bonne exploitation. VALENTIN VIVIER FRANCE TÉLÉVISIONS France Télévisions a mis en place une cellule data depuis 2015. Celle-ci répond aux besoins des métiers sous le prisme de la data et du client et déploie les outils nécessaires pour y arriver. Forts d’une DMP et d’un data warehouse interconnectés à notre écosystème d’outils, un projet data lake est en cours. Celui-ci devrait nous permettre notamment d’historiser la data et d’avoir un grand niveau de granularité pour croiser nos données. Nous souhaitons donc recenser les meilleures pratiques, identifier les écueils et affiner notre compréhension des cas d’usage. AURÉLIE ROSSIGNOL BOURSORAMA Un projet data lake mené par l'équipe BI est actuellement en cours chez Boursorama. Nous avons mis en place différents PoCs avec l'ambition de repérer les principaux écueils. LE DATA LAKE VU PAR LES PARTICIPANTS
  • 41. 39 ÉRIC MOISON ORANGE Je suis justement en charge de cette vue à 360 du client pour le groupe, sur les aspects métiers/business. Nous définissons les orientations pour les pays, avec les équipes ITN. Ce sur différents aspects, dont les technologies comme le data lake, qui contribuent à la vue 360° du client. Il sera donc nécessaire d'en avoir une parfaite maîtrise. ANNE-SOPHIE GIMENEZ ORANGE GROUPE Mon client, c'est plutôt le salarié Orange. Je suis à la tête de l'entité Learning agency qui, pour le compte du client interne, développe des projets de digital learning. Dans ce cadre, il nous faut structurer la donnée des employés, avec de nombreuses problématiques de sécurité. La RH accuse un certain retard par rapport aux équipes marketing sur ce sujet. VINCENT NICOLAS UBISOFT Avant de rejoindre Ubisoft récemment, j'étais data engineer chez Mille Mercis, en charge notamment de la co-création du data lake. Ubisoft ayant un projet de data lake, ma mission est, entre autres, de conduire les équipes dédiées. JÉRÔME DURAND UBISOFT L'idée est de savoir dans quelle mesure le data lake que l'on souhaite créer permettra bel et bien d'ouvrir la donnée à tous les départements... Le risque est que les silos perdurent. CÉSAR LAGARDE BOUYGUES TELECOM Notre objectif est d'acquérir une meilleure vision à 360 degrés de nos clients, ainsi qu'une meilleure perception de leur ressenti, que ce soit en boutique, sur le Web ou en mobilité... Nous avons beaucoup de données, mais notre organisation silotée nous empêche de les exploiter de manière satisfaisante. L'enjeu est justement de briser ces silos pour que chacun puisse véritablement s'approprier la donnée. Au regard de la complexité de la structure IT actuelle, le data lake est-il réellement la solution ultime ? Aura-t-il une valeur ajoutée, alors même que nous faisons par exemple du trigger web avec notre data warehouse actuel, que nous faisons des emails de processus sur du comportement sans data lake. FATMA KOURAR CANAL + DISTRIBUTION Après un audit de quelques mois, Canal+ s’est lancé en septembre dans un grand plan de transformation data : 20 chantiers opérationnels et techniques et une organisation data-driven, avec la structuration d’un pôle dédié à la data au sein du Marketing. Côté Canal+, nous avons une bonne et longue culture de la data avec un data warehouse riche et en accès direct à différents métiers (analystes) et une maitrise d’ouvrage décisionnelle pour accompagner son évolution et les utilisateurs métier. La mise en place d’un data lake m’est présentée comme complémentaire à notre data warehouse. J’admets ne pas être au clair sur ce qui les différencie : Quelle donnée est stockée où ? Quel(le) retraitement/intelligence où ? Temps réel ? Quel positionnement du data lake dans l'architecture globale ?
  • 42. Jacques MILMAN IBM France Le concept de data lake est généralement associé aux big data. Il permet d’analyser un grand volume d’informations issues de sources multiples et hétérogènes, internes, externes, structurées, non-structurées… Pour beaucoup d’entreprises, le data lake est une évolution de l’entrepôt de données traditionnel. Le big data et le machine learning poussent à organiser les données et les traitements différemment. C’est là une évolution importante. À l’ère du big data, on ne connaît pas toujours par avance la valeur et l’intérêt de toutes les données que l’on capture et l’usage que l’on pourrait en faire dans le futur. Le concept de data lake offre la possibilité de créer des plateformes d’innovation puissantes et souples permettant très rapidement d’intégrer et d’analyser des données. Ingérer des données à l’état le plus brut change la nature de la chaîne de traitement qui prévalait jusqu’alors. D’une logique d’ETL (Extract, Transform, Load), on passe à un mode 'ELT', où l’on extrait les données, on les charge et on les transforme seulement après. Enfin, dernier argument de poids, le coût d’une telle solution est inférieure à celle d’un data warehouse dans un facteur d’un à dix, même si l’intégration des applications existantes peut révéler d’importants coûts cachés. Pour les aider à mettre en œuvre un data lake, les entreprises peuvent s’appuyer sur des approches progressives et des méthodes agiles permettant de limiter les risques et d’apporter au plus vite de la valeur aux métiers tout en aidant les équipes informatiques à prendre en main ces technologies innovantes. AVIS D'EXPERT A DATA LAKE IS . . . AN ENVIRONMENT WHERE USERS CAN ACCESS VAST AMOUNTS OF RAW DATA AN ENVIRONMENT FOR DEVELOPING AND PROVING AN ANALYTICS MODEL, AND THEN MOVING IT INTO PRODUCTION AN ANALYTICS SANDBOX FOR EXPLORING DATA TO GAIN INSIGHT AN ENTERPRISE-WIDE CATALOG THAT HELPS USERS FIND DATA AND LINK BUSINESS TERMS WITH TECHNICAL METADATA AN ENVIRONMENT FOR ENABLING REUSE OF DATA TRANSFORMATIONS AND QUERIES A DATA LAKE IS NOT . . . A DATA WAREHOUSE OR DATA MART FOR HOUSING ALL OF THE DATA IN AN ENTERPRISE A REPLACEMENT OPERATIONAL DATA STORE (ODS) A HIGH-PERFORMANCE PRODUCTION ENVIRONMENT A PRODUCTION REPORTING APPLICATION A PURPOSE-BUILT SYSTEM TO SOLVE A SPECIFIC PROBLEM (THOUGH A PURPOSE-BUILT DATA MART COULD BE FED FROM A DATA LAKE)
  • 43. 41 LE DATA LAKE ET LE DÉFI DU TEMPS RÉEL Un avantage fréquemment associé au data lake est celui du temps réel. Mais comme l’observe Fatma Kourar (Canal + Distribution), s’il ne s’agit que de stocker en temps réel des données brutes inexploitables, cela n’a pas d’intérêt. « Le data lake m’a été avant tout présenté en mettant en avant la possibilité d’un stockage temps réel, quitte à se passer d’une partie de l’intelligence apportée par les retraitements/enrichissements. Cela pose un problème, car la stratégie déployée autour du client ne peut se faire uniquement avec des données brutes à mon sens à l’heure de la personnalisation… Le temps réel ne se suffit pas. Et apporter de l’intelligence à la donnée coûte en temps de calcul. » Il est donc important de prendre conscience que « faire un data lake n'est pas une fin en soi : le projet est lancé pour servir certains usages bien identifiés. Vouloir tout collecter, tout réconcilier pour prévoir tous les usages, ce n’est pas réalisable. Au contraire, le cas d’usage doit toujours être un point de départ à partir duquel il convient de construire l’ensemble de la chaîne » (Pierre Harand, fifty-five). Car Jacques Milman d’IBM le rappelle, « il est difficile de fournir une définition précise du data lake. C'est avant tout une plateforme qui va permettre d'intégrer Par Jacques Milman et Laurent Sergueenkoff, IBM « Il y a un peu plus d’un an, nous avions déjà organisé un atelier autour du sujet data lake. Sur une vingtaine de participants présents, seuls deux ou trois avaient lancé des projets data lake, mais les autres participants avaient envie de faire de même. L’idée, pour la majorité, était de construire un data lake rassemblant l’ensemble des données de l’entreprise… Or, depuis, il est apparu que ceux qui menaient une telle initiative avaient bien des difficultés à progresser. Ils se heurtent à des problématiques liées à la sécurisation, à la gouvernance, à la confidentialité des données… Autant de freins à l’agilité. En revanche, ceux qui avaient mis en place un data lake plus thématique (IoT ou CRM, par exemple) avancent bien plus rapidement. Les premiers succès qu’ils rencontrent sur des thèmes bien précis permettent de déclencher un effet boule de neige et le data lake s’ouvre progressive- ment à d’autres sujets. Ce qui a été mis en place pour le sujet de l’IoT donne envie aux autres entités d’utiliser le data lake pour leurs cas d’usage… »
  • 44. l'ensemble des données et de les partager. Ensuite, des services peuvent s'intégrer à cette plateforme : machine learning, indexation, search, découverte... » DATA LAKE OU DATA WAREHOUSE ? Lorsque le terme data lake a émergé, il était fréquemment confondu avec celui de data warehouse. Il semble s’en être suivi un second temps, qui voit les deux modèles s’opposer, comme s’ils étaient concurrents. Laurent Sergueenkoff clarifie la distinction. « Dans un data warehouse traditionnel, il y aura plutôt des données structurées, alors qu'un data lake peut accueillir tous types de données. Autre bénéfice du data lake : les technologies actuelles permettent de stocker dans un format brut d'immenses volumes de données. Les capacités de traitement peuvent directement être implantées sur le data lake, avec des technologies Hadoop. » Il n’empêche que les deux modèles peuvent parfaitement co-exister. C’est par exemple le cas chez Yves Rocher Laboratoires, où David Ramond témoigne qu’en « en termes d’architecture cible, l'idée consisterait plutôt à mettre en œuvre une architecture hybride : • D’une part, un data lake à même de stocker de grands volumes de données à un coût raisonnable, avec peu ou pas de transformation de la donnée brute, nous permettant d’être le plus agnostique vis-à-vis des futurs modèles de données de l’entreprise ; • D’autre part, un data warehouse qui gère une couche sémantique et qui permet d’exposer les données métier structurées, contrôlées et avec un niveau de service élevé. » Yves Rocher Laboratoires ne s’arrête pas là. David Ramond confie ainsi qu’ « il est également envisagé de mettre en œuvre des data hubs dédiés à des usages spécifiques. Par exemple, il peut s’agir d’utiliser la puissance de calcul du data lake pour consolider à la volée une vision 360 du client à partir des éléments de signalétiques, de comportements d’achats, de contacts CRM, etc. et d’exposer cette vue via une API à des fins opérationnelles. » UN DATA LAKE, OUI MAIS POUR QUOI ? Vincent Nicolas (Ubisoft) en convient également, le data lake n’est « certainement pas un substitut au data warehouse. Les deux éléments sont totalement complémentaires. Le data lake offre la possibilité de jouer et de faire des scorings avec des données très variées (ce que l’on ne peut pas faire dans un data warehouse) et avec une puissance incroyable. » Ce qui ramène à la conclusion qu’ « avoir un data lake n’est pas une fin L'APPROCHE DATA LAKE : EXEMPLE DE GOUVERNANCE Data Data is used and reused Relevant data is collaboratively governed Data is cataloged, tagged and registered 42
  • 45. 43 plug and play » (Pierre Harand, fifty-five). Tout d’abord, « il faut considérer l’outil dans son environnement technique : quels sont les flux de données entrants et sortants ? » Deuxièmement, « la question organisationnelle est également majeure, avec la mise en place d’une gouvernance. » Le troisième point à poursuivre, et c’est l’objectif final, c’est de demander du data lake qu’il serve à « mettre la data dans les mains des opérationnels » (Anne-Sophie Gimenez). « Par exemple, un commercial doit pouvoir accéder en un clic à une vue à 360 degrés du client qu’il a en face de lui. Le point fort de ce dispositif, c’est la réactivité. L’idée serait de crawler les données, où qu’elles soient, sans pour autant se poser la question du format utilisé. » En corollaire, cela pourrait avoir pour effet de favoriser le développement d’une data science au service des métiers. Florian Servaux (Coyote) observe ainsi que « la problématique se situe plutôt sur les performances à traiter la données brute et la capacité à comprendre la donnée d'un point de vue métier. (…) Selon moi, le data scientist doit avant tout pouvoir partir de la vision métier de la donnée. » Dans cette perspective, Florian Servaux préconiserait plutôt, « pour les entreprises disposant par exemple d’une équipe BI (…), de partir de structures BI traduisant les données brutes en données Métier. » en soi » (Jérôme Durand, Ubisoft). Car « la data science va directement chercher les données dans le data lake quand elle a une idée précise de ce qu’elle cherche, où le trouver et comment l’interpréter. Sinon, mieux vaut passer par l’IT ou le créateur de la donnée pour générer des tables d’analyse dans un data warehouse. (…) Le débat intéressant porte surtout sur ce que l'on fait de la donnée, quelle que soit la techno placée derrière. » Quels sont justement ces usages de la donnée qui pourraient justifier d’un recours à ce nouvel outil surpuissant ? « Pour nous, confie César Lagarde (Bouygues Telecom), dans l’objectif de créer des campagnes CRM, le data lake vise surtout à garantir la transparence sur une information pour toutes les parties prenantes. Il y a donc une différence entre l'étude de la connaissance client et l'interopérabilité directe de la donnée. » « Au final le data lake peut être intéressant au plan de la vision client », reconnaît César Lagarde. UNE TRANSFORMATION EN 3 ÉTAPES Le pré-requis absolu, lorsque l’on veut s’équiper d’un data lake, c’est donc de réfléchir d’abord à l’usage. Et quel qu’il soit, plusieurs éléments connexes sont également à prendre en compte dans le déploiement de cet outil qui est « tout sauf 80%des Décideurs marketing Se disent satisfaits des solutions de collecte de données en temps réel qu’ils utilisent3 3. Information recueillie auprès de 40 décideurs marketing en France et au Royaume-Uni dans le cadre de l’étude Benchmark by EBG 2017 Et 84 %des DSI pensent que leur entreprise est capable d'analyser les données en temps réel4
  • 46. 44 Régis Carral Cabinet Hoche L’ŒIL DE L’AVOCAT « Assurer un traitement de données personnelles loyal et transparent » « L’intérêt du data lake est de pouvoir stocker de grands volumes de données brutes non structurées, tout en ne sachant pas à l’avance la façon dont celles-ci vont être analysées et exploitées. Au regard des données à caractère personnel, la personne concernée doit savoir quelle utilisation est faite des données personnelles la concernant et pouvoir maîtriser cette exploitation. Le cadre juridique vient ainsi freiner cette collecte de masse qu’offre par exemple le recours à un data lake de telle sorte que lorsqu’il s’agit de données personnelles, la collecte ne peut pas être quantitative mais doit être qualitative. À cet égard, le Règlement UE n°2016/679 du 27 avril 2016 relatif à la protection des données personnelles vient notamment renforcer les obligations d’information du responsable de traitement. Ce dernier doit assurer un traitement de données personnelles loyal et transparent. En vertu de ce principe de transparence, les personnes concernées doivent avoir connaissance des finalités spécifiques, explicites et déterminées et ce, au moment de la collecte de leurs données personnelles. De plus, lorsque le responsable de traitement a l’intention d’effectuer un traitement ultérieur des données personnelles pour une finalité autre que celle pour laquelle les données ont été collectées, il doit fournir au préalable des informations sur cette autre finalité. Enfin, le Règlement pose également un principe de minimisation des données, selon lequel les données personnelles collectées doivent être adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles elles sont traitées. » 4. Étude 2015 Real-time Data Report menée auprès de 150 DSI, responsables informatiques et développeurs, in ZDnet.fr, « Les données en temps réel, de la réalité à la perception », mars 2016 Mais 66 %des DSI, responsables informatiques et développeurs pensent que, dans plus de la moitié des cas, les applications en temps réel ne répondent pas aux besoins de l'entreprise4
  • 47. 45 CONCLUSION Le recours au data lake revêt souvent un caractère exploratoire, mais aussi, nécessairement transformateur… Ce qui fait que, « par rapport aux coûts et à l’engagement que cela implique, par rapport aux lourds enjeux de gouvernance », beaucoup d’annonceurs hésitent encore à se lancer plus avant. Mais comme Laurent Sergueenkoff (IBM) le rappelle, « il ne faut pas opposer data lake et data warehouse, les usages étant totalement complémentaires. L'un ne peut remplacer l'autre. Si c'est pour placer un usage existant du data warehouse dans un data lake, le ROI n'est en effet pas évident... En revanche, le ROI du data lake se situe incontestablement sur des usages nouveaux, sur des données nouvelles. » Source tableau et figure : IBM Analytics, « The governed data lake approach », Copyright IBM Corporation 2016
  • 48. « Réduire le stress de nos clients » AIR FRANCE GAUTHIER LE MASNE DE CHERMONT Chief Customer Data Officer Si Air France a développé son data lake customer 360, c’est que le partage des données tout au long du parcours client est une priorité. Gauthier le Masne de Chermont revient sur les initiatives de ses équipes en la matière. Entretien TOUTES VOS SOURCES DE DONNÉES VIENNENT ALIMENTER UNE BASE COMMUNE, ET INVERSEMENT. AVEC QUELLE ORGANISATION ? Nous avons mis en place une organisation dédiée au Customer Data Management il y a deux ans, avec une double mission. La première était de relever le défi technique de créer une plateforme Big Data en vue d’optimiser l’utilisation de la donnée sur l’ensemble des métiers du groupe, pour la connaissance et le service au client. La seconde mission portait sur le management de la donnée, en améliorer la qualité et s’assurer que la réglementation sur la protection des donné est respectée. Nous aidons à ce que tous les métiers puissent avancer de façon coordonnée. C’est indispensable si l’on veut proposer au client une expérience personnalisée sur les différents canaux et avec une réelle cohérence d’informations. VERS QUELS CAS D’USAGE SE PORTE VOTRE DATA LAKE CUSTOMER 360 ? Nous faisons un peu de mesure de performance, tout comme le réalise par ailleurs chaque métier. Mais les principaux cas d’usage consistent à proposer la bonne offre sur le bon canal au bon moment. Je vous donne un exemple. Dès lors que nous savons d’un client qu’il aura une appétence pour voyager avec un bagage supplémentaire, nous sommes en capacité de le lui proposer au moment que nous jugeons le plus opportun : lors d’une promotion, d’un document de préparation au vol, de l’enregistrement, etc. Plus généralement nous sommes en mesure de suivre et d’anticiper des préférences : si le client voyage toujours côté hublot, on peut choisir ce siège pour lui sans avoir à lui poser de questions. 46
  • 49. COMMENT MESURER LA PERFORMANCE DE CETTE PERSONNALISATION ? Sur la satisfaction, d’une part, même si cet élément est aujourd’hui devenu un facteur attendu plutôt que différentiant. Par ailleurs, nous personnalisons de plus en plus nos communications avec de l’A/B testing. Une communication qui met en avant des destinations dont on a calculé qu’elles sont plus susceptibles d’intéresser apporte une différence significative en termes de performance. QUELLES PROCHAINES ÉTAPES VOUS FIXEZ-VOUS ? Le prochain objectif important, c’est d’avoir l’ensemble des points de contact bien coordonnés et à même de communiquer entre eux de façon fluide. Cela permettra, par exemple, de pouvoir tenir au courant les hôtesses et stewards d’un appel qui aurait été passé par un client avant le vol vers un call center. Nous avons également pour objectif d’automatiser le traitement d’un certain nombre d’aléas. Nous voulons nous focaliser sur la réduction du stress de nos clients : les informer le plus rapidement possible, communiquer de façon toujours plus fluide et régler les problèmes avant même que les clients n’aient pu se faire le moindre souci. VOUS ÊTES-VOUS ÉQUIPÉS D’UN BOT ? Il a été initié par les équipes digitales et sera lancé en juin. Nous venons en support pour être sûrs que l‘initiative bénéficie au maximum de la compétence client que nous avons collectée. QUELLE GOUVERNANCE AVEZ-VOUS MISE EN PLACE POUR JOUER CE RÔLE DE SOUTIEN ? Chaque personne du Customer Data Management est à la fois responsable de développements en propre mais aussi de l’interface avec les différents métiers, avec pour objectif de récolter leurs besoins autour de l’utilisation de la donnée et de partager les initiatives au sein de l’entreprise. COMMENT GÉREZ-VOUS LES ÉVOLUTIONS RÉGLEMENTAIRES LIÉES AUX DONNÉES PERSONNELLES ? Les données que nous utilisons étaient déjà en base ; notre valeur additionnelle est de les réunir et d’injecter de l’algorithmie. Cela dit, nos use cases sont conçus au service des clients, et pour ce faire, en coopération avec les équipes techniques, les équipes opérationnelles et les clients. Finalement, cette réglementation a un effet plutôt bénéfique. Elle apporte de la clarté sur ce que l’on veut faire de la donnée. C’est le positionnement que nous avions de toute façon adopté vis-à-vis de nos clients. 47
  • 50. 48 Associer big data et programmatique pour des campagnes plus performantes Le programmatique permet d’automatiser les prises de décision et de gagner un temps considérable dans l’exécution des campagnes. Mais pour adresser des messages personnalisés et contextualisés, il devient indispensable d’y adjoindre les ressources du big data, tant la quantité de data à prendre en compte a récemment explosé. Comment combiner les ressources du programmatique et du big data ?
  • 51. 49 4.
  • 52. 50 Workshop Cycle Data-driven Company Associer big data et programmatique pour des campagnes plus performantes Synthèse de l’atelier du 13.12.2016
  • 53. 51 51 PARTICIPANTS • TURN, Kamal Mouhcine, Sales Director South Europe • FIFTY-FIVE, Samboy Camara, Practice Leader : Tech, Insurance Utilities • FIFTY-FIVE, Salem Handoura, Consulting Manager ANIMATEURS PROGRAMME Le programmatique permet certes de gagner du temps. Mais pour que chaque campagne porte ses fruits, aller plus vite ne suffit pas : il faut aussi cibler avec un maximum de précision, se baser non plus sur des groupes définis par des caractéristiques globales, mais sur un croisement de toutes les informations associées à un consommateur potentiel : profil, historique des relations, localisation, actions récentes, etc. C’est tout l’enjeu de l’association du programmatique et du big data. Mais comment réussir à combiner ainsi agilité et précision dans la construction de ses campagnes ? • Faire converger les démarches programmatiques et les projets big data : quelles équipes, quelle organisation, quel timing ? • Comment faire dialoguer data scientists et opérationnels marketing ? • Le data-driven marketing est-il un objectif prioritaire ? Quelles stratégies pour le mettre en place ? • ORANGE Samira Amgroud, Communication Group Buyer • EUROP ASSISTANCE Olivier Baes, Head of Digital Data Innovation • AUCHAN Julien Cafede, Traffic Manager • UBISOFT Camille Duval, Responsable média digital • ANTALIS Aïcha Hellal, Marketing E-business Project Manager • LA FOURCHETTE Fiona Ongaro, Responsable Connaissance Client • BNP PARIBAS PERSONAL FINANCE Djamel Megharbi, Responsable du Centre de Compétence
  • 54. 52 L’ESSOR DU PROGRAMMATIQUE Pour Samboy Camara (fifty-five), « il y a toujours eu du programmatique dans le digital. Le levier display, qui était jusque-là acheté avec des méthodes traditionnelles, est en train de devenir de plus en plus automatisé. Sur les marchés les plus avancés, 80 % des achats digitaux sont réalisés en programmatique… Qui dit pro- grammatique dit modes d’achats automati- sés et données permettant d’acheter intelligemment les bons profils. C’est là que se pose la question de la collecte, pour faire en sorte de disposer d’un réel avantage concurrentiel. Pour rappel, on distingue communément trois types de données : • Les données first party : certaines entreprises sont richement dotées, comme les opérateurs télécoms, alors que d’autres sont plus data poor, car elles n’ont pas de points de contact directs avec leurs clients. Cette donnée est rare, mais c’est incontestablement celle qui a le plus de valeur, car elle permettra de vous positionner avec le plus de singularité. • Les données second party : c’est la data issue de partenaires, comme des annonceurs qui disposent de jeux de données (échanges de données ou échanges financiers). • Les données third party : elles seront louées à des spécialistes de l’achat La personnalisation des campagnes marketing a franchi une nouvelle étape avec l’émergence des plateformes programmatiques. Celles-ci augmentent la réactivité des annonceurs en automatisant les prises de décision complexes, un gain de temps qui autorise à multiplier les niveaux de personnalisation, à faire 10, 100 ou 1 000 campagnes au lieu d’une. Mais comment réussir à combiner ainsi agilité et précision dans la construction de ses campagnes ? EN 2016 des annonceurs et agences utilisaient le programmatique pour leurs achats display online des entreprises avaient déjà réalisé ou conduisaient déjà un projet big data 67% 59%
  • 55. 53 de données. Ces data très étendues permettront de rechercher des signaux complémentaires afin d’enrichir la connaissance client. L’univers est totalement fragmenté, avec une multitude de devices, de systèmes d’exploitation, etc. Il convient donc de réconcilier l’utilisateur sous son identité unique. La maturité montre qu’on se dirige de plus en plus vers un marketing des segments, un marketing des audiences. La DMP a l‘ambition de réunir des données issues de sources variées pour les mettre en cohérence. » RÉUNIR AUTOUR DE LA TABLE TOUTES LES PARTIES PRENANTES Dès lors que l’on veut adjoindre au marketing programmatique les ressources du big data, la première difficulté consiste à faire converger les enjeux. Car, « si vous faites le compte des acteurs impliqués dans une campagne , observe Samboy Camara (fifty-five), on descend très rarement sous la barre des cinq interlocuteurs ! Or, aujourd’hui, la notion de temps réel devient une obligation. Le programmatique a justement vocation à simplifier la phase de gestion des campagnes. L’automatisation permet de gagner du temps pour éviter les points bloquants. Cela implique toutefois un réajustement organisationnel pour passer d’une approche patrimoniale de la donnée (data = stock) à une vision en termes de circulation (data = flux).» Fiona Ongaro (La Fourchette) confie ainsi avoir « recruté quelqu'un qui fait avant tout figure d’électron libre, c’est-à-dire qu’il n’est pas rattaché à un pôle Métier en particulier » mais reconnaît : « Nous avons encore du mal à identifier la bonne organisation. » Pour Kamal Mouhcine (Turn), il est important de créer ce rôle transverse notamment pour démontrer la valeur ajoutée des plateformes data pouvant préfigurer de l'automatisation. « Pour les organisations qui ont une taille critique, la DMP présente un réel intérêt. Encore faut-il parvenir à démontrer cet intérêt, d’où l’importance du rôle dévolu au CDO. Lors de la mise en place d’une DMP, il convient de commencer par démontrer des choses très simples. » Ce travail de démonstration est essentiel, d'autant qu'au final, « comme avec des tels projets [data], le ROI à court terme est difficilement lisible, il est bien difficile de prioriser » (Fiona Ongaro, La Fourchette). En retour, le big data est une opportunité d'ancrer dans l'opérationnel un réajustement organisationnel. Julien Cafede témoigne ainsi du cas d'Auchan. « Notre DMP nous permet notamment de créer et utiliser des segments des données dynamiques que nous pouvons ensuite plugger à nos plateformes partenaires. Aujourd’hui, les entités e-commerce, Drive, Direct, Proximité, etc. ont été regroupées sous une nouvelle entité : Auchan Retail ; il s’agit désormais de les faire communiquer plus étroitement et le big data semble être une bonne clé d’entrée. » « L’automatisation permet de gagner du temps pour éviter les points bloquants. » Samboy Camara, fifty-five
  • 56. 54 Eymeric Chateau TURN La personnalisation des campagnes marketing a franchi une nouvelle étape avec l’émergence des plateformes programmatiques. Ces plateformes augmentent en effet la réactivité des annonceurs en automatisant les prises de décision complexes, un gain de temps qui permet de multiplier les niveaux de personnalisation. La personnalisation des campagnes n’est cependant pas le seul facteur pour qu’elles portent leurs fruits. Il faut également cibler l’audience avec un maximum de précision. C’est tout l’enjeu de l’association du programmatique et du big data : réussir à combiner agilité et précision dans la construction des campagnes. L’enjeu consiste à avoir une approche unifiée, depuis la collecte jusqu’à l’exécution. Il faut veiller à ne pas multiplier les outils technologiques, car ce serait prendre le risque de s’exposer à un problème de communication entre tous ces outils, ce qui provoquerait des déperditions. AVIS D'EXPERT AVOIR UNE APPROCHE UNIFIÉE La réconciliation de données hétéroclites constitue sans conteste une priorité majeure pour tout annonceur souhaitant renforcer la personnalisation de ses campagnes. Chez La Fourchette, qui propose déjà la personnalisation dans les e-mails, l'ambition est bien « de disposer d'une meilleure vue à 360 degrés du client, en nous appuyant sur nos propres données. » Comme bien d'autres, « La Fourchette n'a pas forcément vocation à aller vers des partenaires pour les jeux de données. » Et bien que l'on entende nombre d'annon- ceurs s'avouer dépassés par les quantités colossales de données collectées, certains rencontrent dans les faits des problèmes de volumétrie sur leurs data 1st party. C'est par exemple le cas chez Auchan. Julien Cafede s'en explique. « Malgré un volume important de data, nous sommes confrontés à une problématique liée au
  • 57. 55 volume de contacts adressables. Le premier frein est le taux de matching qui varie énormément entre nos partenaires. À titre d’exemple, Facebook retrouve entre 40 et 60 % des adresses que nous lui communiquons et parvient à toucher la moitié de ces utilisateurs. Pour Google, le taux et entre 20 et 40 % et la portée s’avère désastreuse. Un acteur comme Criteo nous offre la possibilité d’avoir un taux de matching très intéressant, mais, contrairement à Facebook ou Google, il ne dispose pas de réseau en propre et donc de nouvelles problématiques se créent. Conséquencedirectedelafaiblevolumétrie: dès que l’on souhaite toucher nos affini- taires, nous avons du mal à générer un volume conséquent de CA. L’une des solutions : se tourner vers des scénarii de look alike, et le seul acteur performant et pertinent dans ce domaine aujourd’hui, c’est Facebook… » Kamal Mouhcine (Turn) préconise donc « un gros travail en amont en termes de structuration de la first party data », avec pour objectif, la possibilité de« recourir à une plateforme unifiée, extrêmement intéressante en ceci qu’elle permet d’éviter les déperditions (…). Multiplier les outils technologiques, c’est prendre le risque de s’exposer à un problème de communication entre tous ces outils. Rares sont les technologies qui unifient complètement l’approche, depuis la collecte jusqu’à l’exécution. » UNE NOUVELLE DONNE STRATÉGIQUE Au-delà des choix technologiques, « ce qui fait la richesse des plateformes programmatiques, c'est l'exploitation des données propres » rappelle Kamal Mouhcine (Turn). Cette nouvelle donne apporte deux novations dans le pilotage de la stratégie marketing. Lapremièreconsisteà«délaisserl'approche en termes de volume, où l'objectif est de faire le maximum de conversions. Les indicateurs choisis doivent être les plus proches possible de votre équation économique, afin de rémunérer au mieux les bons partenaires. » (Samboy Camara, fifty-five) La deuxième novation découle de la première. Le rapport aux agences évolue. Dès lors, « le rôle des agences passe par le conseil. Celles-ci doivent être en capacité de réunir autour de la table toutes les parties prenantes. Sur la partie Média, l'agence de demain n'est pas une agence qui opère, mais une agence qui conseille. » En corollaire, l'annonceur doit veiller à ramener de la valeur vers lui, à conserver les « learnings » des campagnes ; car « le KPI principal en programmatique, c'est la vision du Marketing Director. » PILOTER LES CAMPAGNES EN TEMPS RÉEL AFFINER ET OPTIMISER LE CIBLAGE DES CAMPAGNES 75 % 66 % AUGMENTER LA PERFORMANCE DES CAMPAGNES 74 % 40 % 33 % 42 % 2016 2015 LES 3 AVANTAGES PRINCIPAUX DU PROGRAMMATIQUE CITÉS PAR LES UTILISATEURS (Plusieurs réponses possibles)
  • 58. 56 Mike Bettan 55 La gestion et l’analyse des campagnes programmatiques imposent le traitement de volumes de données colossaux. Ces traitements varient selon les objectifs ou les KPI suivis, mais également selon les acteurs qui les effectuent. Les agences média ou trading desks indépendants ont pour but de combiner rentabilité et performance de l’achat média, c’est-à-dire acheter ou vendre un maximum d’espaces publicitaires au meilleur prix, tout en garantissant le ROI des campagnes en termes de couverture sur cible, d’engagement ou de recrutement. Pour cela, ils misent sur leur propre infrastructure technique (DSP compris), leurs algorithmes propriétaires émulés au machine learning, et capitalisent sur l’ensemble des données disponibles : historiques de performance, enchères, ciblages, attributs des audiences (device, géolocalisation, comportement). Ceci, en vue d’optimiser les campagnes selon les objectifs fixés : reach, volume de conversions, CPA... Côté conseil média, les traitements big data appliqués au programmatique portent généralement sur des sujets différents : il pourra s’agir de la réconciliation ou l’enrichissement de données (CRM onboarding, second-party data, etc.), de segmentation ou scoring de prospects et clients, d’analyses d’attribution... L’accès aux données dites “granulaires”, où chaque action d’exposition, de clic ou de conversion est répertoriée et qualifiée selon une temporalité, permet de recomposer les différents parcours des consommateurs. On pourra alors mieux allouer les investissements et optimiser la performance globale. Ces études nécessitent donc des manipulations de volumes de données conséquents, une infrastructure technique, et de l’expertise pour réussir à en sortir des enseignements stratégiques. Le mariage entre big data et programmatique (ou plus largement, campagnes digitales) est désormais une évidence, pour ne pas dire un pré-requis de pilotage. Associer big data et programmatique pour des campagnes performantes AVIS D'EXPERT Source Graphiques et chiffres : Baromètres EBG « Data Driven Entreprise » et « Programmatique Branding », chacun conduit auprès de 800 répondants, septembre et novembre 2016.
  • 59. 57 CONCLUSION Chez Ubisoft, qui réalise ses campagnes digitales majoritairement en programmatique depuis fin 2015, Camille Duval a l'impression que « tout ce que l'on peut faire en programmatique est fait. » Mais comme le rappelle Samboy Camara (fifty-five), « nous ne sommes qu'au début du chemin : le programmatique va s’ouvrir progressivement à d’autres canaux et va prendre de nouvelles formes. Demain, le programmatique va concerner les achats en TV ou en radio. D’où l’importance de bien anticiper toutes ces perspectives nouvelles. » Pour l'heure, l'enjeu se résume, pour revenir à l'exemple d'Ubisoft, à unifier et à « mieux utiliser ses data ». Sans oublier, pour ceux qui en disposent, ses data offline qui peuvent être onboardées. Il existe sur ces sujets un goulot d'étranglement, car cette mise en ordre des données internes nécessite des ajustements organisationnels, une approche unifiée et une gouvernance idoine. Des sujets que l'on ne peut mener depuis sa tour d'ivoire, mais dont il convient au contraire de démontrer la valeur ajoutée à travers quelques cas choisis.
  • 60. 58 « La data comme point de départ » AUCHAN.FR JULIEN CAFEDE Traffic manager Entretien QUEL EST VOTRE PÉRIMÈTRE CHEZ AUCHAN.FR ? Je suis Traffic manager pour le site Auchan.fr, en charge de l’ensemble des leviers push marketing : Display, Retargeting, Social Adset Affiliation. Je m’occupe notamment du projet de « Médias Ciblés », qui consiste à utiliser nos data online et offline afin d’optimiser notre communication en termes de coût et de pertinence, mais aussi, de créer des scénarii de campagnes d’acquisitions beaucoup plus fins et personnalisés. QUELLES SONT VOS SOURCES DE DONNÉES ? Notre site faisant régulièrement partie du top 15 français en termes de trafic, nous récoltons d’importants volumes de data Online que nous complétons en acquisition par des données provenant de nos partenaires. J’ai aussi la chance de faire partie d’une entreprise acteur majeur de la distribution, et qui donc, possède beaucoup de data offline, avec une volonté d’accélérer sa mue omni-canal. QUELLE PART LE PROGRAMMATIQUE PREND-IL DANS VOTRE ACHAT MÉDIA ? Chez Auchan.fr, notre achat média s’effectue majoritairement en programmatique mais sans passer par les trading desks habituels. Nous l’effectuons en temps réel notamment via Facebook, Google et Criteo, dans un modèle de CPC, car nous souhaitons avant tout optimiser la rentabilité de nos campagnes. VOUS ÉVOQUIEZ EN ATELIER TRAVAILLER DE FAÇON RAPPROCHÉE AVEC CES 3 ACTEURS ? Nous avançons effectivement très bien avec eux trois sur l’activation des data. Avec l’exploitation des mécaniques de Custom Audiences (audience personnalisée), nous sommes en mesure
  • 61. de préparer en amont des ciblages de population sur une thématique précise afin de les activer ensuite sur les réseaux. Par exemple, un segment affinitaire jardin nous permet, avec Criteo, de recibler les clients appétant au jardin online ou ayant acheté des produits s’y rattachant offline. Avec Facebook, nous pouvons également adresser les look alike de nos segments de clients. Via Google, plus particulièrement sur le search, nous sommes en mesure de pousser un message particulier ou d’augmenter le niveau d’enchère, auprès d’une population affinitaire de sorte à booster nos taux de clic et de transformation. ÊTES-VOUS SATISFAITS DE CES DISPOSITIFS ? Globalement très satisfait. Le réseau propriétaire, connecté et mobile de Facebook nous permet d’avoir un excellent taux de matching. Sur Criteo, même si le matching est aussi intéressant, la portée est plus faible mais nous générons tout de même un volume d’impressions très élevés sur nos cibles stratégiques. Dans le cas de Google, nous cherchons à nous concentrer sur leur force, notamment celle de créer des audiences sur la base de parcours sur site en exploitant les données de navigation. QUELS OUTILS UTILISEZ-VOUS POUR LA SEGMENTATION ? Nous avons une DMP qui nous sert à collecter et ordonner nos données first party, que l’on connecte ensuite via API aux plateformes de nos partenaires. Nous l’utilisons aussi onsite pour améliorer le parcours client couplé avec des outils de personnalisation. Cela permet d’afficher la bonne publicité au bon endroit tout en créant une cohérence entre l’acquisition en dehors du site et l’expérience sur site. QUELS SONT VOS PROCHAINS CHANTIERS ? Nous continuons d’avancer avec nos partenaires afin d’atteindre nos objectifs de visibilité et de rentabilité avec des stratégies marketing orientées clients dans une démarche data-driven. Dans ce cadre, nous prenons toujours la data comme point de départ. Une campagne, c’est avant tout une problématique marketing et un ciblage pertinent. Dans un second temps,on peut alors imaginer aller chercher du look alike ou bien croiser nos données avec des 2nd ou 3rd party, dès lors que l’on recherche plus de volume. Dans cette perspective, il est évident que Facebook excelle sur le modèle de Custom Audiences. Concernant Google, comme je vous l’expliquais, nous cherchons à conserver le très bon niveau de performance du search tout en poursuivant la personnalisation de nos messages par une exploitation optimisée des cookies. Le cas de Criteo est aussi intéressant que particulier. Nous ne les voyons plus comme un simple retargeter mais comme un véritable partenaire stratégique pour avancer sur de nombreux sujets, notamment de prospection ; avec Criteo, 30 % des produits achetés en retargeting n’ont jamais été vus par l’internaute. Ils ont su nous démontrer que leur algorithme est aussi pertinent pour la recommandation de produit et le ciblage d’internaute que pour le reciblage classique. ILS VOUS ACCOMPAGNENT AUSSI POUR FAIRE CONVERGER ON ET OFFLINE ? Nous cherchons effectivement à mettre en évidence les impacts du online sur le offline et inversement. Ces partenaires doivent à eux trois réunis couvrir 99 % du reach français ; ils pourraient donc nous permettre d’être beaucoup plus fins dans la mesure, l’attribution et in fine, l’optimisation et la rentabilité de nos campagnes. 59
  • 62. 60 Mettre la data science au service des métiers Le big data et les nouvelles technologies open source ont ouvert le champ des possibles de la data science, mais ils apportent leur lot de questions… Quels outils utiliser ? Comment enrichir ses compétences et rester à niveau ? Quel langage privilégier ? Quels algorithmes choisir ? Comment partager ses résultats ?
  • 63. 61 5.
  • 64. 62 Workshop Cycle Data-Driven Company Mettre la data science au service des métiers Synthèse de l’atelier du 17.01.2017
  • 65. 63 PARTICIPANTS • IBM, Laurent Sergueenkoff, Big Data Sales Team Leader • IBM, Jacques Milman, Big Data Executive Architect ANIMATEURS PROGRAMME Cet atelier réservé à 25 décideurs a permis de croiser les regards entre profils data et métiers pour imaginer une data science qui permette de : • construire plus facilement des solutions pertinentes pour les métiers • rendre simple l'exploitation de tout type de données • permettre d'accélérer les cycles de développement et l'industrialisation des projets • favoriser la co-création / la co-innovation • LA POSTE Géraud Felgines, Directeur Marketing Particuliers et Professionnels Benoît De Corn, Directeur Innovations et Stratégie Télécom Gaëlle Bonnefoux, Responsable Études, Performance et Pilotage Stratégique • IDBUS Anthony Delmeire, Responsable BI • MALAKOFF MÉDÉRIC Nicolas Baron, Directeur de Projets - Direction du Plan de Transformation • EUROP ASSISTANCE Olivier Baes, Head of Digital Data Innovation • CRM SERVICES Anne-Sophie D’anthouard, Product Owner Projets Clients • CAISSE DES DÉPÔTS Clément Carrier, Data Scientist • MEILLEURTAUX.COM Yannick Busson, Responsable datamining • CRÉDIT AGRICOLE SA Claire Bussac, Direction du Développement et de l'innovation RH Sébastien Dulys, Responsable du pôle Big Data et CRM • MÉTEO FRANCE Hugues Berthelot, Chargé d'études • SOCIÉTÉ GÉNÉRALE Laurence Ricaud, Responsable Marketing Études • AIR FRANCE KLM Francine Quentel, Director IMO Sales, Data BI • MOËT HENNESSY Amine Mekouar, Data Manager • M6 Karim Louedec, Head of Data Strategy / Chief Data Scientist • CHANEL PARFUMS BEAUTÉ Xavier Le Roy, Études Internationales - Département Marketing Research and Consumer Insight • CHANEL Benoît Rigaut, Responsable internet digital corporate • BNP PARIBAS Cédric Le Merlus, Responsable Business Intelligence • PMU Christelle Jason, Responsable Datamining et Sponsor Data du projet Big Data • BARCLAYS BANK PLC Pierre-Yves Hemon, Head of Digital Channel development • GROUPE ERAM Julien Haillot, Digital Project Manager • SYNGENTA Vincent Godet, Digital Project Manager • CABINET HOCHE Régis Carral, Avocat Associé • FIFTY FIVE Romain Warlop, Data Scientist Lead Céline Craipeau, Senior Data Analyst • SPECIALCHEM Aldric Tourres, Exec. VP Head of Sales Marketing • TF1 Philippe Toublant, Directeur Adjoint Data • BOURSORAMA Aurélie Rossignol, Responsable Datamining