Quantcast
Channel: Martech – AD-EXCHANGE.FR *
Viewing all 124 articles
Browse latest View live

Technologies programmatiques et innovation : deux moyens pour les éditeurs de s’affranchir de la domination de Google et Facebook (partie 3 du dossier Editeurs)

0
0

data et techno

Suite du dossier « Editeurs : quels nouveaux business models face à la mainmise de Google et Facebook sur les budgets média ». Lire la première partie.

Hormis la création d’un contenu contextuel de qualité et la formation d’alliances, les éditeurs disposent d’autres moyens de tirer leur épingle du jeu qui les oppose à Google et Facebook sur le marché de la publicité digitale : les technologies dédiées au programmatique et les efforts d’innovation fournis par leurs équipes afin de développer leurs avantages concurrentiels.

LES TECHNOLOGIES PROGRAMMATIQUES POUR DES ÉCHANGES AUTOMATISÉS ET DATA-BASED

Que ce soit dans le cadre du RTB ou du programmatique garanti, les technologies programmatiques offre aux annonceurs une alternative à Google et Facebook avec notamment la possibilité d’accéder facilement à des inventaires premium et de diffuser des publicités ultra-ciblées, personnalisées et pertinentes grâce à l’exploitation des données consommateurs, suivant des objectifs ROIstes ou désormais branding. Le branding programmatique qui sonnait encore il y a quelques années comme une antithèse semble d’ailleurs enfin acquérir ses lettres de noblesses et mettre fin au paradigme selon lequel l’on doit toujours opposer branding et performance.

Paul Caucheteux, Directeur Commercial Programmatique de Prisma Media : « Il n’y a pas d’incompatibilité entre les deux aspects, il faut le voir comme tel : le gré à gré est un mode d’achat tandis que le programmatique en est un autre incluant plus de technologies entre éditeurs et acheteurs. Libre à ceux qui l’utilisent d’en faire ce qu’ils souhaitent, ce aussi bien du côté éditeurs que du côté acheteurs. Il est possible de faire de la performance à bas coût ou de faire de la performance en tenant compte des contraintes de brand safety et de visibilité tout comme il est possible de faire du branding en allant chercher des deals aux CPM élevés, une priorité de diffusion supérieure ainsi que des formats d’ampleur pour marquer les esprits de nos internautes en délivrant un message impactant.»

Les éditeurs cherchent aujourd’hui à maîtriser l’ensemble des technologies programmatiques facilitant la vente de leurs espaces publicitaires voire à internaliser les processus. En permettant aux éditeurs d’offrir aux enchères des impressions publicitaires au plus grand nombre d’ad exchanges, SSP ou trading desks, le header bidding permet quant à lui aux acheteurs d’entrer en concurrence pour l’acquisition des inventaires premium. Si le header bidding n’implique pas forcément la transparence (de chacun des maillons de la chaîne), il a en revanche permis d’étendre la transparence des coût en offrant une vue sur les CPM de chaque exchange et mis sous pression les marges des SSP autrefois trop élevées.

Selon Charles Emeriau, Directeur, Publisher Development South Europe d’Index Exchange : « Le header bidding a engendré une pression sur les marges mais pas uniquement. La transparence est l’un des plus gros effets positifs de l’apparition du header bidding, puisqu’elle a permis et surtout incité les exchanges à supprimer les frais buy-side afin de développer la compétitivité. »

Déployé par l’IAB, Ads.txt a de son côté été créé pour réduire la fraude (notamment l’usurpation de domaine courante dans les open exchanges) et imposer une transparence de diffusion permettant ainsi aux annonceurs de se concentrer sur l’achats d’inventaires vérifiés. Pour nourrir une fois de plus le paradoxe, il faut noter que l’alternative à Google est encore dans certains cas Google lui-même alors que Doubleclick Exchange Bidding, l’exchange de Google rencontre un vif succès en France pour sa capacité à offrir entre autres aux éditeurs : un accès à l’ensemble des annonceurs, des CPMs élevés ainsi que des délais de transactions 5 à 10 fois plus rapides que le header bidding traditionnel. En collaborant avec Google, les partenaires technologiques tels que Index Exchange ou RhythmOne travaillent en faveur des éditeurs et veillent à leur offrir des options de monétisation un peu plus « hétérodoxes » pour maximiser leur indépendance.

Julien Braun, Managing France de RhythmOne précise : « Il est vrai que concernant le header bidding, Google préfère organiser les conditions de sa propre concurrence plutôt que de subir une concurrence externe. On l’observe par exemple dans beaucoup d’industries et d’infrastructures. A défaut d’indépendance, les éditeurs retrouvent un peu de flexibilité dans leurs stratégies commerciales. C’est un progrès ».

« Innovation »

Faire preuve d’innovation, c’est à la fois se distinguer de ses pairs et susciter l’intérêt des marques. Il peut s’agir de proposer simplement de nouveaux formats créatifs à fort impact. Ali Koné : « Ce qui va nous permettre de continuer à monétiser nos audiences face aux géants en plus des emplacements publicitaires dont nous sommes maîtres, c’est l’originalité des formats que l’on propose en collaboration avec l’agence ». Cela peut aussi signifier de miser franchement sur des investissements plus importants en R&D afin d’intégrer des dispositifs ultra-modernes. 20 Minutes par exemple qui a bâti sa stratégie sur le conversationnel dispose d’un pôle R&D actuellement très appliqué à développer les chatbots intégrés sur les versions desktop et mobile du site.

Bruno Latapie, Directeur Monétisation, Print & Digital ajoute : « Nous misons aussi beaucoup sur l’innovation. A l’heure où Google, Apple et Amazon ont développé leurs assistants vocaux, nous nous intéressons également de plus prêt à l’audio et à la voix qui représentent un véritable enjeu et sont un nouveau moyen de créer de la conversation. Nous commençons tout juste à créer des podcasts pour proposer aux internautes de consommer l’information de diverses manières. » Dans le même temps, la régie utilise Facebook comme un levier phare pour initier la conversation avec les Millennials à travers des groupes d’échanges Facebook tels que « MoiJeune ».

La TV adressée qui permet d’adapter un spot publicitaire à une box ou à un utilisateur offre quant à elle de très belles perspectives pour demain car elle donne aux marques la possibilité de toucher leurs cibles sans avoir à augmenter la pression publicitaire qui reste de toute façon assez faible en TV mais surtout de mieux connaître les préférences des téléspectateurs. Ceci étant dit, la vraie préoccupation des chaînes TV aujourd’hui est avant tout de s’assurer que l’audience consomme leurs contenus.

Unis autour de valeurs similaires, les éditeurs sont unanimes : certes les GAFA peuvent être d’excellents partenaires mais il faut toutefois s’affranchir autant que possible de leur domination en recherchant plus d’indépendance. Si la situation hégémonique du duopole inquiète l’industrie, il est impératif de réaliser que la concurrence vient parfois d’ailleurs. Dans le cas de la TV notamment, certes, Facebook a montré son ambition de se positionner fortement sur le marché de la VOD avec le lancement de Facebook Watch mais des acteurs plus dangereux tels que Netflix qui captent déjà fortement l’attention des Millennials, Amazon Prime, Molotov qui pourraient prochainement se mettre à vendre eux aussi des espaces ou spots publicitaires et ainsi changer la donne.

D’après Sebastien Robin, Managing Director France de SpotX : « Il faut noter que d’autres acteurs tel que Disney ont des moyens considérables et voient également un avenir dans ce domaine. De plus, Netflix attire l’attention du public et il faut sans doute envisager à terme de voir sur la plateforme des coupures publicitaires. » Exister et subsister tout simplement au sein de l’industrie de la publicité digitale impliquera de plus en plus de faire une veille méticuleuse du marché pour anticiper les menaces et s’efforcer d’être autant que possible à la pointe.

Dossier constitué par Stéphanie Silo

L’article Technologies programmatiques et innovation : deux moyens pour les éditeurs de s’affranchir de la domination de Google et Facebook (partie 3 du dossier Editeurs) est apparu en premier sur AD-EXCHANGE.FR *.


Google, GroupM et Adform soutiennent la lutte de la Commission Européenne contre les sites illégaux

0
0

 

GroupM, Google et Adform viennent de signer un accord avec le vice-président de la Commission Européenne, Andrus  Ansip, pour lutter contre les sites illégaux. Cet accord est le fruit de trois années de lutte dans le but de supprimer les blocs publicitaires des sites qui ne respectent pas les droits d’auteurs. Les signataires présenteront un rapport trimestriel à la Commission concernant l’impact de ce projet.

L’accord a également été signé par différentes entités du secteur publicitaire, principalement des organisations nationales et des entreprises fournissant des technologies ayant pour but de signaler et bloquer ces sites illégaux. Ainsi, Jakob Bak, co-fondateur et CTO d’Adform,  plateforme d’achat programmatique full-stack buy-side à la fois adserver, DSP et DMP,  a contribué à la conclusion de l’accord par l’intermédiaire de l’IAB.

Il déclare à propos de cette signature : « Je me suis intéressé à ce projet il y a deux ans déjà, c’est donc avec une grande joie que je signe aujourd’hui à Bruxelles avec GroupM et Google car cela prouve vraiment qu’il y a du retard en la matière. Les annonceurs ne souhaitent pas que leurs publicités soient diffusées sur des sites qui entretiennent des activités illégales. Il s’agit donc clairement d’une priorité pour nous et pour les autres acteurs de l’industrie.”

 

L’article Google, GroupM et Adform soutiennent la lutte de la Commission Européenne contre les sites illégaux est apparu en premier sur AD-EXCHANGE.FR *.

Du tag management à la customer data platform… récit d’une métamorphose technologique

0
0

Que propose précisément Tealium, cette société globale basée à San Diego, fondée en 2008 et connue pour sa solution  de tag management, qui depuis a évolué aussi vers des services de collecte, de stockage et d’activation de données de type CDP (Customer data platform).  Nous interrogeons Pascal Morvan, consultant senior pour Tealium, et Raphael Guérard, en charge du développement du marché français.

Pouvez-vous nous expliquer en quelques mots l’évolution de votre offre ?

P.M. : À l’origine, Tealium était un système de tag management (TMS). L’objectif du TMS, que nous proposons toujours, est de permettre à l’éditeur de piloter la gestion de l’ensemble des technologies basées sur des tags au niveau du navigateur et de ses applications mobiles. L’importance de cette gestion de tags est capitale pour permettre à la page de garder une rapidité de chargement, sans quoi l’éditeur ne peut pas collecter correctement des données sur ses audiences, afficher ses campagnes, fidéliser son audience… N’oublions pas que jusqu’à 50 technologies (et autant de tags) s’affichent sur la page de certains médias. L’utilisateur n’attend pas si le chargement est trop long.

Mais comment faites-vous pour leur permettre d’atteindre cette rapidité de chargement ?

P.M. : Cela se passe sur le serveur, plutôt que sur le navigateur. Le gain sur le temps de chargement est significatif, nous avons observé jusqu’à 50 % chez un grand groupe média avec lequel nous travaillons. L’éditeur a ainsi le choix entre un système client side ou server side, sachant que de plus en plus de technologies proposent des API pour permettre de faire du server side. 

Tealium est en binôme avec toutes les technologies utilisées par les éditeurs ?

P.M. : Nous avons réalisé plus de 1200 intégrations avec l’ensemble des solutions du marché pour former une place de marché : nos clients y choisissent le(s) prestataire(s) à optimiser. Tous les jours, nous intégrons de nouvelles technologies en fonction des besoins de nos clients. L’intérêt de notre solution par rapport à la concurrence est bien cette ouverture que nous pratiquons à l’ensemble de l’écosystème.

Raphael Guérard, Tealium.
Raphael Guérard, Tealium.

R. G. : Notre offre a également évolué, au-delà du TMS, pour répondre aux besoins de nos clients en matière de collecte de données. Aujourd’hui, nous collectons la donnée avec le TMS, nous la stockons au sein d’une CDP, nous l’enrichissons avec les retours des utilisateurs online et offline (comportement de navigation, retour sur call center, sur point de vente, CRM, etc.) pour ensuite orchestrer son activation – à ce titre nous avons développé des intégrations  avec des solutions de campagnes d’emailing, display, Facebook, etc., pour pousser ces profils dans ces technologies de manière automatique. Nous proposons également un système pour alimenter des datas lakes et des outils d’analytics. L’ensemble de ces solutions – TMS, CDP, data accès et activation – constitue une plateforme intitulée « Universal data hub ».

Vous êtes peut-être les précurseurs, mais vous êtes loin d’être les seuls dans ce marché de la CDP. Pensez-vous qu’il y a de la place pour tout le monde ?

P.M. :  Même si aujourd’hui tout le monde revendique ce terme, les technologies différent beaucoup. Un gros atout de Tealium est le temps réel, grâce au TMS, qui sécurise la qualité de la donnée  que nous collectons et que nous envoyons dans la CDP. Un autre gros enjeu aujourd’hui est la capacité à réconcilier un visiteur sur tous ses devices. Contrairement à certaines CDP qui le font sur la base d’algorithmes, nous réconcilions les utilisateurs sur la base d’ID. La vocation du TMS est aussi d’unifier la donnée : un utilisateur dispose d’un Facebook ID, d’un Google ID, d’un Criteo ID… Notre CDP collecte tous ces ID et les réconcilie : quand il se connecte sur différents appareils, Tealium peut savoir qu’il s’agit du même visiteur.

Quand il se connecte sur différents appareils, Tealium peut savoir qu’il s’agit du même visiteur.

Ce sont à la fois les technologies avec lesquelles vous êtes connectés sur votre place de marché mais aussi vos clients qui vous fournissent toutes ces clés qui vous permettent de réconcilier ces profils ?

P.M. :  C’est cela.

Comment collaborez-vous avec les walled gardens ?

P.M. :  Nous disposons de différents mécanismes de synchronisation qui nous permettent de réconcilier les données. Avec Facebook, par exemple, nous disposons de fonctions de cookie matching qui nous permettent de collecter des données chez eux est d’y associer un visiteur. 

Quelle est votre présence en France ?

P.M. : Tealium emploie un peu plus de 350 personnes dans le monde. En Europe, nous sommes présents en France, en Espagne, au Benelux, et notre siège social est à Londres. En France, où nous sommes depuis deux ans, une équipe de huit personnes assure la relation clients mais également le partenariat avec les technologies purement françaises.

Et vos clients ?

R. G. : Tous nos clients en France n’utilisent pas nécessairement toutes les suites logicielles que nous proposons. Pour ce qui est du TMS et de la CDP, nous pouvons citer Orange, Louis Vuitton et Ikea. Nous avons aussi beaucoup de banques pour la sécurité de données, des éditeurs, comme Canal+ pour la partie TMS et France Télévisions, la distribution, l’e-commerce, le tourisme et la tech.

Propos recueillis par Luciana Uchôa-Lefebvre

L’article Du tag management à la customer data platform… récit d’une métamorphose technologique est apparu en premier sur AD-EXCHANGE.FR *.

Transparence et sécurité : Facebook et Twitter prêts pour les élections mi-mandat aux Etats-Unis ?

0
0

Social media

A l’approche des élections mi-mandat aux Etats-Unis (novembre 2018), Facebook et Twitter jouent la carte de la prévention avec la mise en place de nouveaux outils de transparence dédiés à la publicité électorale, dans le but d’éviter que ne se reproduisent les problèmes d’ingérences qui avaient eu lieu lors des élections de 2016.

Facebook archive notamment les publicités électorales afin d’en déterminer le caractère politique et le contenu selon différentes catégories et d’y mentionner les informations de campagne telles que le ciblage démographique, le budget ou encore les impressions par annonce. Le programme de transparence inclut aussi de nouvelles fonctionnalités permettant d’afficher l’ensemble des annonces diffusées par une page, accompagnées des informations relatives au compte. De son côté, sur un modèle similaire, Twitter affichera également l’intégralité des publicités électorales (et leurs informations) diffusées la semaine antérieure.

Malgré tout, les précautions prises par les deux réseaux sociaux ne leur assurent pas une protection contre les tentatives de manipulation. Fin juillet, Facebook identifiait 32 comptes ou profils Facebook et Instagram créés entre 2017 et mai 2018, destinés à la diffusion de messages sur des thèmes polémiques. Ceux-ci, suivis par 290 000 comptes, avaient pu poster un total de 10 000 messages dont près de 150 contenus avaient été sponsorisés pour en augmenter la visibilité.

Silo Stéphanie, d’après AdExchanger

 

L’article Transparence et sécurité : Facebook et Twitter prêts pour les élections mi-mandat aux Etats-Unis ? est apparu en premier sur AD-EXCHANGE.FR *.

Que peut apporter la Customer Data Platform aux éditeurs ?

0
0

 

techno adtech

Initialement utilisée par les marques dans le but d’améliorer la relation client et d’augmenter les conversions, la Customer Data Platform (CDP) fait de plus en plus parler d’elle mais reste encore peu utilisée par les éditeurs alors qu’elle peut également leur être bénéfique. Que peut apporter la CDP aux éditeurs ?

En permettant entre autres une connexion aux différentes plateformes de l’écosystème, une réconciliation des données offline/online (utile à la gestion des identifiants) ainsi qu’une automatisation des processus d’optimisation, la CDP aide à optimiser les campagnes et à en maximiser les performances. Les quelques éditeurs qui l’utilisent l’exploitent notamment pour l’extension du ciblage des publicités, la personnalisation des contenus et l’attribution.

Regroupant tous les points de contacts existants, l’outil facilite la compréhension des comportements et évite en outre les problèmes de portabilité à l’origine le plus souvent d’une perte de données lors d’un passage d’une plateforme à une autre.

La CDP est donc un outil intéressant pour les éditeurs cherchant à s’approprier leurs données d’audience sans dépendre de systèmes externes et à apporter de la valeur aux annonceurs. Son utilisation peut être aisément couplée avec celle d’une DMP, qui quant à elle permettra l’activation des données d’audience qui auront été segmentées par la CDP.

Stéphanie Silo d’après AdExchanger

 

L’article Que peut apporter la Customer Data Platform aux éditeurs ? est apparu en premier sur AD-EXCHANGE.FR *.

RGPD : quel impact observé sur l’activité des fournisseurs de données ? (interview E. Carcassonne, Nielsen)

0
0

Quelques mois après l’entrée en vigueur du Règlement général de protection de données (RGPD), nous cherchons à comprendre l’impact de la nouvelle réglèmentation européenne sur l’activité des fournisseurs de données dites « 3rd party », un maillon important de la chaîne de l’industrie publicitaire en ligne. Nous interrogeons Émilie Carcassonne, vice-présidente Europe du Sud de Nielsen Marketing Cloud.

Quel est l’impact du RGPD sur votre activité ?

Emilie Carcassonne, Nielsen.
Emilie Carcassonne, Nielsen.

E.C. L’entrée en vigueur du GDPR a eu un impact sur les volumes de données disponibles dans notre data exchange car certains éditeurs ont préféré stopper la commercialisation de leurs données afin d’encourir un risque zéro d’un point de vue légal. Certains partenaires se sont donc désengagés mais cela n’a heureusement pas été le cas de la majorité. Après il est certain que la mise en conformité a été vraiment chronophage. Il a fallu adosser à chaque contrat de fournisseur de données un DPA (data protection agreement) afin de définir les rôles respectifs dans la collecte et le traitement des données, ainsi que les finalités de traitement, ce qui a engendré un grand nombre d’échanges entre les équipes juridiques de nos partenaires et notre équipe « Privacy ».

Est-ce une bonne ou une mauvaise chose pour l’industrie ?

E.C. Sur le principe je vois ce règlement d’un très bon œil puisque cela a permis de faire le tri entre les acteurs sérieux et les acteurs qui avaient un peu moins de scrupules à utiliser des données de surf sans autorisation, ni possibilité d’opt-out pour les internautes. Donc je dirai que le GDPR a permis de faire le ménage, ce qui a été positif pour nous en termes de croissance. Après il y a eu des effets de bord relativement imprévisibles qui ont été pointés du doigt par toute l’industrie  et qui malheureusement ont pénalisé un certain nombre d’acteurs de notre marché. Je pense notamment à l’attitude quelque peu rigoriste de Google. Il nous reste maintenant à attendre de voir comment le texte relatif à l’ePrivacy évoluera dans les semaines et mois à venir pour comprendre quels seront les réels impacts sur les activités de ciblage et de mesure de Nielsen.

Il nous reste à attendre de voir comment le texte relatif à l’ePrivacy évoluera  pour comprendre quels seront les réels impacts sur les activités de ciblage et de mesure de Nielsen.

Où en est justement la discussion autour du règlement ePrivacy, qui à ce jour semble menacer sérieusement votre secteur d’activité ?

E.C. Le règlement ePrivacy est toujours en discussion et il y a eu quelques rebondissements fin juillet, début août quant à l’alignement des pays membres et à l’interprétation du texte. La perspective d’une approche rapide semble très peu réaliste. Selon les délégations, des négociations pourraient déjà avoir lieu avec le parlement européen nouvellement élu. De nouvelles discussions auront lieu à la mi-septembre et nous devrions en savoir plus.

Votre offre change-t-elle en conséquence ?

E.C. Notre offre n’a pas changé en conséquence car nous avions mis le respect de la vie privée de l’internaute au cœur de notre stratégie et ce dès le lancement d’eXelate aux États-Unis, avant que la société soit rachetée par Nielsen. Nous faisions d’ailleurs historiquement partie des acteurs listés dans l’initiative « YourOnlineChoices » depuis maintenant plus de cinq ans.

Quels sont d’après vous les points forts et les limites des données que Nielsen propose ?

E.C. Nos points forts sont tout d’abord notre offre de données à la fois massive et granulaire, ce qui nous permet de mettre à disposition tous types de segments d’audience pour cibler les internautes de manière efficace. Nous adressons l’ensemble des verticales, à savoir l’automobile, le voyage, la finance, luxe, le secteur tech, les telco ou encore la grande consommation, pour laquelle nous disposons de segments d’audience uniques (Nielsen FMCG). Nous avons également développé via le rachat de Visual DNA en décembre 2016 une offre pychographique unique avec notamment des segments attitudinaux ou personnalités de shoppers. Notre offre FMCG certes issue de notre panel consommateur a l’avantage d’être unique et représentative de la consommation cross-enseignes. Nous avons plus de 1300 segments d’audience à disposition. Par ailleurs notre connectivité est inégalée puisque nous sommes aujourd’hui connectés à plus de 200 plateformes média, que ce soit des plateformes multi-écrans ou uniquement vidéo, télé, ou mobile. Nos données sont donc actionnables depuis n’importe quelle plateforme sur n’importe quel inventaire média. Enfin, en ce qui concerne nos limites et les développements potentiels à venir, nous aimerions développer de nouveaux jeux de données liées aux transactions réelles, à l’instar de ce dont nous disposons aux États-Unis. Nous étudions ce sujet pour les marchés d’Europe du Sud de très près depuis déjà un certain temps. Notre idée étant d’apporter toujours plus de valeur au marché.

Que pensez-vous du ciblage contextuel, devenu une tendance forte dans les offres du marché ?

E.C. Je pense que le retour au ciblage contextuel est une conséquence directe de l’application du GDPR et des effets de bord que nous avons rencontrés du fait du positionnement de certains acteurs américains. Il n’en demeure pas moins que le retour au ciblage contextuel est une régression dans la mesure où les technologies disponibles aujourd’hui nous permettent d’aller beaucoup plus loin qu’un simple contexte ou ensemble de mots clés.

Le retour au ciblage contextuel est une régression dans la mesure où les technologies disponibles aujourd’hui nous permettent d’aller beaucoup plus loin qu’un simple contexte.

Vous avez aussi une activité de fournisseur de solutions de DMP. Avec quel profil de client travaillez-vous ?

E.C. Nous travaillons aussi bien avec des acteurs technologiques comme Teads ou Smartclip, qu’avec des acteurs du voyage comme le Groupe Edreams Odigeo ou des acteurs e-commerce. Nous travaillons également avec beaucoup de marques FMCG, telles qu’Unilever, J&J, Chobani ou encore avec des éditeurs tels que CB News. Nous avons également signé un contrat avec le broadcaster TVB en Asie. Autrement dit, notre solution DMP s’adapte à toute typologie d’acteurs.

Questions formulées par Luciana Uchôa-Lefebvre

L’article RGPD : quel impact observé sur l’activité des fournisseurs de données ? (interview E. Carcassonne, Nielsen) est apparu en premier sur AD-EXCHANGE.FR *.

Programmatique : quelle stratégie adopter pour reprendre le contrôle sur son activité publicitaire ? (interview de F. Duclos, Free)

0
0

transparence, contrôle, maîtrise, visibilité

Début 2018, Media.Figaro et Le Monde Publicité annonçaient avoir mis fin à leur collaboration avec plus d’une dizaine de partenaires technologiques depuis leur rapprochement au sein de l’Alliance Skyline. Une décision prise à la fois dans l’optique d’améliorer la qualité de l’expérience utilisateur de leurs sites et de reprendre le contrôle sur leurs inventaires, deux éléments que l’activité programmatique avait peu à peu affecté. Résultat : au bout de quelques mois, les deux éditeurs enregistraient +50 % de chiffres d’affaires.

Dirigeant la régie de Free depuis sa création et commercialisant seule les espaces publicitaires du site, Françoise Duclos, Directrice Commerciale a pris le train de la programmatique très tôt. Nous avons eu l’honneur de l’interviewer afin de prendre la température du marché et de savoir si la démarche initiée par ces deux gros éditeurs était en passe de se généraliser.

 Quel est votre point de vue sur la décision de Media.Figaro et Le Monde Publicité ? Etes-vous dans cette même démarche et sur quels critères sélectionnez-vous vos partenaires ?

F.D : Je pense que la décision de Le Monde et de Le Figaro est réactive. Cela répond à plusieurs problématiques et rappelle que plus on a de partenaires, moins bien on travaille avec eux.

Il est nécessaire de tester la fiabilité des partenaires. Les collaborations peuvent apporter de bonnes comme de mauvaises surprises qui nous poussent à se passer de certaines d’entre elles.

Plus la liste de partenaires est réduite, plus grande est la possibilité de garder la main sur son inventaire mais également sur son budget. La complexité est de déterminer avec qui travailler. Autrement dit, de savoir en quoi un acteur est meilleur qu’un autre et quelle est sa valeur différenciante.

A la Régie de Free, nous avons dans un premier temps commencé à exploiter Doubleclick Ad Exchange afin de solder nos invendus (inventaires). Nous travaillions avec beaucoup de partenaires que nous faisions tourner en pass back pour maximiser le remplissage, ainsi que des SSP. Nous avons à peu près tout tester en terme de technologies native et programmatique.

Plus la liste de partenaires est réduite, plus grande est la possibilité de garder la main sur son inventaire mais également sur son budget.

A l’instar de Le Monde et de Le Figaro, nous avons réduit le nombre de nos partenaires. Nous nous sommes en effet limité à un partenaire par secteur : Amazon, Criteo et Doubleclick Ad Exchange. En ce qui concerne le Native Advertising, nous travaillons de plus en plus étroitement avec Outbrain mais nous n’avons négligé personne du marché.

Nous privilégions l’aspect relationnel pour le choix de nos partenaires et tachons de nous assurer que nos partenaires aient une volonté ferme de travailler avec nous. Le conseil, la fiabilité et la performance font évidemment partie des autres critères que nous recherchons chez un partenaire.

Parmi les éléments qui constituent la perte de contrôle sur leur activité publicitaire, les éditeurs comptent un manque de visibilité sur la diffusion avec pour conséquence des problèmes de brand safety. Faites-vous le même constat ?

F.D : Je ne pense pas que le programmatique en lui-même soit en cause dans la perte de contrôle évoquée par les éditeurs sur leurs inventaires. Je pense qu’il s’agit plus d’une question de volumétrie. En effet, on ne vend pas un magazine de 15 pages comme l’on vendrait un livre de 4 tomes.

On ne peut pas rentrer dans le détail lorsque l’on dispose d’un milliard d’impressions, on se concentre sur les opérations spéciales ainsi que sur la home page et toute autre partie importante du portail. En ce qui me concerne par exemple, je n’ai bien évidemment pas le temps de surveiller toutes les publicités sur nos webmails qui se comptent par centaines de millions. Or, il peut y avoir du tout-venant. Dans ces cas-là, les blocklists offrent une aide précieuse du moins lorsqu’elles sont bien paramétrées. Car dans le même temps, nous ne sommes pas à l’abri des problèmes techniques rencontrés par les partenaires qui peuvent avoir des conséquences désastreuses. Pour citer une anecdote : quoi de plus ironique et énervant pour un opérateur que de retrouver sur sa home page l’habillage très flashy d’un concurrent direct avec pour message « Changez d’opérateur », ce à cause d’une règle de blocklist qui « aurait sautée ».

Même avec une blocklist, il peut en effet y avoir des soucis de ciblage et de diffusion. Certains acteurs perdent ainsi de gros éditeurs de leur portefeuille.

Media.Figaro et Le Monde Publicité (y compris l’Alliance Skyline) sont désormais les seuls à vendre leurs inventaires. Ils évoquent une augmentation de leur CPM net de + 50% net depuis l’adoption de leur nouvelle stratégie. L’ampleur de cette croissance vous surprend-elle ?

F. D : Qui d’autres que les éditeurs seraient plus à même de vendre leur inventaire ? Nous maîtrisons notre commercialisation et gagnons plus, tout simplement parce que nous vendons mieux. Je suis personnellement et éthiquement en phase avec Le Figaro et Le Monde.

Aujourd’hui, nous maîtrisons davantage le sujet tandis qu’auparavant il était facile de se laisser séduire par les arguments de commerciaux promettant des revenus incrémentaux extraordinaires.

En outre, il ne faudrait pas passer sous silence les pertes financières dues à certaines pratiques douteuses qui créent une perte de confiance des éditeurs envers ces acteurs. Ces pratiques ne sont pas forcément volontaires mais mettent en exergue un certain manque de maîtrise de l’outil programmatique, ce qui nous poussent également à nous questionner sur le contrôle que nous avons réellement sur nos données dans le cadre des échanges programmatiques.

Qui d’autres que les éditeurs seraient plus à même de vendre leur inventaire ?

In fine, travailler avec moins de partenaires ne permet pas forcément de gagner plus d’argent bien que ce soit l’enjeu, mais cela assure d’en perdre moins et de perdre moins de temps.

A la Régie Free, nous augmentons actuellement nos revenus grâce au native qui selon nous est une solution de revenus incrémental assez efficace. Côté innovation, nous sommes en phase d’implémentation de notre propre header bidder qui pourra accueillir davantage de SSP et autres partenaires, sur lequel nous misons beaucoup pour une meilleure optimisation de la valeur et une meilleure maîtrise de notre inventaire.

 Propos recueillis par Stéphanie Silo

 

L’article Programmatique : quelle stratégie adopter pour reprendre le contrôle sur son activité publicitaire ? (interview de F. Duclos, Free) est apparu en premier sur AD-EXCHANGE.FR *.

Quelle place pour la personnalisation à l’ère du RGPD ? (interview J. de Lempdes, Prisma)

0
0

Prisma Media Solutions a fait le pari de lancer une solution innovante de personnalisation de l’emailing au moment même où toute l’industrie se préparait à l’entrée en vigueur du Règlement général de protection de données (RGPD). Pour mieux saisir le rôle des publications Prisma dans ce lancement et pour comprendre le principe de cette solution qui associe e-mail, data et vidéo, compatible avec le règlement selon la régie, nous interrogeons  Jérôme de Lempdes, directeur délégué de la data room de Prisma Media Solutions.

L’emailing vidéo personnalisé, solution lancée par Prisma Media Solutions en début d’année, a-t-elle « pris » ?

Jérôme de Lempdes, Prisma Media Solutions.
Jérôme de Lempdes, Prisma Media Solutions.

J. L. Le principe de cet outil, lancé en mars, est d’associer le levier le plus ROiste du digital – l’e-mail – avec la data et la vidéo pour offrir aux annonceurs une nouvelle manière de communiquer avec leurs cibles en alliant les solutions les plus fortes en termes à la fois de ROI,  de mémorisation et de compréhension du produit. On sait que la vidéo augmente de plus de 74 % la compréhension du  service ou du produit de l’internaute qui la visualise. La personnalisation est au cœur de ce dispositif : on peut adapter l’envoi à une personne avec son prénom, le message et l’offre en fonction des informations dont on dispose sur elle. La vidéo ne se déclenche pas directement à l’ouverture de l’e-mail, l’utilisateur doit cliquer sur un gif animé qui représente la vidéo en accéléré. L’offre a été très bien accueillie, nous sommes en discussions avec nos clients. Mais en même temps, le marché ne semble pas encore assez mature car on remarque qu’il y a beaucoup d’incertitude notamment eu égard au RGPD. Du fait que l’on évoque la data et la personnalisation, certains s’interrogent sur l’adéquation de ce produit avec l’entrée en vigueur du règlement. Or, il s’agit d’une solution totalement compatible.

Le RGPD vient en quelque sorte freiner son adoption, mais si l’un n’empêche pas l’autre, que dites-vous alors à vos clients pour le leur expliquer ?

J. L. Nous travaillons uniquement sur la base de données « opt-in» : ce sont toutes des personnes qui nous ont donné leur consentement pour recevoir nos e-mails. Nous nous adressons uniquement aux abonnés de chez Prisma et aux abonnés de nos éditeurs partenaires. Rien ne change avec cette solution, et aucune donnée ne sort de chez nous. Nous avons et gardons la main sur la data.

Quels liens entre cette solution et les contenus éditoriaux de chez Prisma ?

J. L. Nous disposons en régie des bases de données emailing qui sont très massives, soit 20 millions d’emails dedupliqués correspondant aux lecteurs et abonnés des publications de chez Prisma. Au sein de la data room de Prisma Media Solutions nous distinguons deux activités : d’une part, la commercialisation des espaces publicitaires des 85 newsletters de nos éditeurs qui diffusent des contenus très variés en lien avec nos publications à des fréquences diverses (quotidienne, hebdomadaire, mensuelle, etc.) ; d’autre part, une activité de régie emailing pour les marques à travers une trentaine de bases externes d’éditeurs partenaires hors Prisma, qui font appel à nous pour commercialiser leurs bases auprès d’annonceurs parce que nous avons développé un fort savoir-faire dans ce domaine de l’emailing. Nous sommes ainsi en mesure de pousser ce format de l’emailing vidéo personnalisée sur ces deux types d’offres.

Propos recueillis par Luciana Uchôa-Lefebvre

L’article Quelle place pour la personnalisation à l’ère du RGPD ? (interview J. de Lempdes, Prisma) est apparu en premier sur AD-EXCHANGE.FR *.


Quelle stratégie de contenu peuvent adopter les éditeurs suite à la mise à jour du News feed de Facebook ?

0
0

content marketing, contenu

Suite à la mise à jour du fil d’actualité de Facebook destinée à maximiser la portée des posts utilisateurs au détriment de ceux des pages, les éditeurs doivent désormais composer avec les nouvelles règles de Facebook et revoir leur stratégie de contenu pour fidéliser leur audience. En s’appuyant sur la data, les éditeurs peuvent notamment adopter une tactique efficace.

Adapter le contenu selon les intérêts des utilisateurs les plus fidèles

Avec une bonne connaissance des métriques proposées par le rapport de Facebook, il est par exemple possible de déterminer quels types d’utilisateurs (ex : hommes entre 25 et 34 ans) et quelle part d’entre eux ont visionné des vidéos au moins 3 fois au cours des 5 derniers jours. Ainsi, lorsque les contenus diffusés durant ce laps de temps ont été de même nature (ex : football), ces données permettent aux éditeurs de faire des arbitrages et de choisir de produire des vidéos pertinentes et adaptées à cette cible afin de l’engager et de l’inciter à revenir de lui-même sur la page ou le site.

Adapter la diffusion du contenu pour fidéliser les visiteurs irréguliers

En outre, le défi majeur consiste à engager les utilisateurs non réguliers dont les données ne sont pas disponibles (50 à 75% de l’audience totale) avec les premiers éléments qu’ils voient. En plus de rendre le contenu diffusé sur Facebook plus pertinent en fonction de ce que regardent les visiteurs fidèles, les éditeurs peuvent réduire la quantité de contenus non pertinents afin d’éviter qu’il ne soient vus par les utilisateurs restants. Pour engager ces derniers, il reste la possibilité d’étudier les attributs des profils fournis par un CMS (système de gestion de contenu) puis d’adapter la diffusion des divers contenus sur une base individuelle.

Proposer de nouveaux contenus (recommandation)

Recommander des contenus sur les pages articles offre de plus l’occasion de maximiser le temps passé par l’utilisateur sur le site et de le fidéliser. Cependant, pour plus d’efficacité, le moteur de recommandation de contenu doit être enrichi par une plateforme de données afin de proposer des contenus susceptibles de l’intéresser.

La data science n’est pas l’apanage de la publicité et les éditeurs qui l’auront compris n’auront aucun mal à engager leur audience malgré la mise à jour du News Feed de Facebook.

Stéphanie Silo, d’après ExchangeWire

L’article Quelle stratégie de contenu peuvent adopter les éditeurs suite à la mise à jour du News feed de Facebook ? est apparu en premier sur AD-EXCHANGE.FR *.

Comprendre Sygma, le standard lancé par les régies de TF1, FranceTV et M6 pour l’accès à leur data loguée en vidéo programmatique (itw P. Boscher, TF1)

0
0

Les régies publicitaires de TF1, France Télévisions et M6 viennent de lancer un standard commun de commercialisation de leurs inventaires vidéo associés à leurs données loguées, le Sygma data video access. Ces inventaires étaient jusqu’à présent commercialisés exclusivement en gré à gré et sans qu’aucune coordination n’existe entre les régies de ces chaînes. Peut-on voir dans Sygma une logique d’alliance ? Concrètement, où trouver ces inventaires et quels impacts peut-on espérer de ce lancement en programmatique sur le prix de ces emplacements qui, associés à des données déterministes, valent de l’or ? Pour répondre à ce questions et bien d’autres nous interrogeons Philippe Boscher, directeur de marketing digital, data, études, adressable TV  et innovation à TF1 Publicité.

Quel est le fondement de « Sygma data video access » ?

Philippe Boscher, TF1 Publicité.
Philippe Boscher, TF1 Publicité.

Nous sommes aujourd’hui au croisement de deux grandes tendances du digital que sont l’essor du programmatique comme méthode de commercialisation des inventaires publicitaires et de la data, et notamment la data issue du login. M6, TF1 et France Télévisions ont, chacun à son tour, mis en place des systèmes d’identification (login) pour l’accès à leurs contenus en ligne. Aujourd’hui nous avons chacun plus de 20 millions d’utilisateurs logués. Jusqu’à présent, cette data n’était pas commercialisée en programmatique alors que nos annonceurs sur ces canaux ne cessaient de nous la demander. Avant Sygma, nous ne pouvions en effet associer cette data à nos médias sur les places de marché, car nous ne souhaitions pas nous exposer au risque de fuite de données. Puisque nous avions tous les trois ce même problème, nous avons conclu qu’il était plus efficace de trouver une solution commune pour sécuriser l’accès à ces données: nous ne pouvions en effet, chacun de son côté développer son propre DSP ou demander de manière isolée à un DSP du marché d’opérer des développements sur mesure , en revanche à trois, c’est différent ! C’est la raison pour laquelle nous avons rédigé ensemble un cahier de charges commun : c’est une liste de critères et d’exigences que l’on impose aux DSP pour permettre l’accès à nos données. Au-delà du volet sécurité, ce cahier de charges inclut des critères de temps de réponse et de disponibilité technique. Il faut également que le DSP développe une interface dédiée pour l’accès à Sygma. L’acheteur qui se connecte aujourd’hui à TubeMogul/Adobe se voit proposer un onglet spécifique Sygma.

Pourquoi le choix d’Adobe et est-ce que d’autres DSP pourront le proposer aussi ?

TubeMogul est parmi les plus fortes références du marché en matière d’achat vidéo programmatique. Puisqu’ils ont accepté de mettre en place ces développements spécifiques pour nous, qui à mon sens ne sont pas compliqués à mettre en place mais qui ont tout de même demandé plusieurs mois de travail, nous avons signé une période d’exclusivité avec eux d’environ une année. Après, d’autres DSP pourront bénéficier de la même offre à condition de respecter notre cahier de charges.

Expliquez-nous les mécanismes qui font que la donnée peut échapper à votre contrôle et la réponse apportée par le standard Sygma à ce problème.

Le risque de fuite de données se trouve dans la créa. Quand le trading desk utilise son DSP pour programmer sa campagne, il upload la créa. Notre processus de vérification a lieu à ce moment-là pour nous assurer que la créa ne dispose pas d’un script servant à alimenter la DMP d’un annonceur ou d’une agence.

Mais la créa pourra-t-elle continuer d’embarquer des pixels servant à mesurer l’impact des campagnes ?

Dans les pixels de tracking, il y a de choses qui sont autorisées et d’autres non. Ce que l’on veut strictement interdire, ce sont les pratiques consistant à alimenter des DMP tierces. En voici un exemple : je fais une campagne pour des femmes de 25-34 ans et je profite pour stocker ces cookies afin ensuite de les exposer à du display pas cher en RTB… Avec Sygma, l’annonceur ne pourra pas se servir de nos données pour constituer une base de qualification de ses cibles, c’est strictement interdit. Sans ce cahier de charges, nous ne pouvions pas maîtriser cet aspect.

Êtes-vous  vraiment surs que cela stoppera définitivement toute fuite de données ?

En informatique, on n’est jamais sûr à 100 % car tout évolue et il peut toujours y avoir des petits malins pour trouver une faille. Mais nous travaillons avec des annonceurs sérieux qui savent que capter la data des éditeurs c’est une grosse prise de risque dans le contexte du RGPD, sans parler du fait que c’est très discutable commercialement.

Comment cela se passe concrètement pour l’acheteur : aura-t-il l’accès à vos inventaires séparément, où est-ce les prémices d’une alliance entre vous ?

L’acheteur se connecte à TubeMogul, il clique sur Sygma et là il découvre trois lignes : FT, TF1 et M6. Nous avons simplifié et harmonisé les segments de ciblage, en faisant usage de la  même nomenclature, car notre objectif est de faciliter la vie des acheteurs. Mais il ne s’agit pas d’une alliance : nos datas restent complètement séparées, tout comme les processus de commercialisation et de négociation du prix.

Il ne s’agit pas d’une alliance : nos datas restent complètement séparées, tout comme les processus de commercialisation et de négociation du prix.

J’imagine que ces inventaires seront exclusivement proposés dans le cadre de private deals ?

Ce sera en effet plutôt du private deal, la part accessible en open RTB sera marginale.

Quel impact sur le prix de vos inventaires ?

C’est un inventaire extrêmement qualitatif et il va de soi que nous espérons le vendre cher. Au-delà du prix, ce standard répond à une vraie attente des trading desks. Ces derniers disposent des budgets et souhaitent pouvoir investir en vidéo et en data loguée. Nous espérons donc obtenir de la valeur mais également du volume, car grâce à ce standard commun et à cette plateforme dédiée, ce sera beaucoup plus simple pour les acheteurs d’accéder à nos inventaires. L’univers digital nous impose de simplifier pour faciliter les choses pour les acheteurs. S’il est vrai que nous proposons moins de volume que YouTube, la qualité n’est pas du tout la même !

Propos recueillis par Luciana Uchôa-Lefebvre

 

 

 

 

L’article Comprendre Sygma, le standard lancé par les régies de TF1, FranceTV et M6 pour l’accès à leur data loguée en vidéo programmatique (itw P. Boscher, TF1) est apparu en premier sur AD-EXCHANGE.FR *.

Data et média : Comprendre l’intérêt d’une offre multi-sites (interview E. Proyart, Team Media)

0
0

Comment une régie parvient-elle à trouver des synergies payantes pour les annonceurs entre des publications aux audiences a priori si diverses. Avec quelles solutions et quel recours aux plateformes programmatiques ? Nous interrogeons Emilie Proyart, directrice du digital de Team Media la régie du Parisien et des Échos.

 Vous réunissez des marques dont les stratégies de monétisation sont très diverses. Les Echos fait très peu de programmatique, alors que Le Parisien semble avoir beaucoup plus de recours à cette méthode de monétisation. Comment concilier toutes ces différences ?

Nos commerciaux vendent en gré à gré et en programmatique. Si pour Les Echos, ils vendent principalement du gré à gré, c’est parce que c’est une marque de niche, avec des lecteurs CSP+ très captifs, BtoB. Cet inventaire est très recherché sur le marché et le mode de vente traditionnel « en direct » reste une pratique forte, la partie intégrée à l’offre programmatique correspondant à très peu. Pour ce qui est du Parisien, il s’agit d’une marque qui était vendue aux côtés de l’Équipe du temps où ce dernier était associé au Parisien dans Team Media. Le Parisien n’était donc pas un support très connu ou mis en avant. Pour le faire émerger, nous avons réalisé un travail important de branding de la marque. Il s’agit de la 1ère audience déportée sur Google et Facebook, et de la 5ème marque de presse en audience internet global Médiamétrie avec 16.2 M de visiteurs en juin 2018, ce qui est à la fois énorme, et encore très méconnu du marché. Comme les audiences respectives de ces deux marques sont très différentes, nous ne les commercialisons pas de la même manière. Il va de soi qu’il y a une place plus importante pour Le Parisien dans notre offre programmatique. La force de Team Media est de pouvoir réunir toutes ces audiences : nous avons 35 millions de cookies qualifiés et sommes capables de dire si telle personne qui lit Le Parisien lit aussi les Echos.

 Le public qui lit Les Echos ne lit pas forcément Le Parisien.

Pas forcément en effet, mais nous avons tout de même un volume de cookies de plusieurs millions qui est commun aux Echos et au Parisien !

 Cela veut dire que vous les mettez ensemble dans vos segments d’audience ?

Oui, bien sûr. C’est là toute la richesse d’une offre multi-sites : pouvoir croiser la donnée, l’enrichir, la modéliser, et proposer des offres data en extension d’audience, en retargeting, etc., au sein de Team Media ou via Gravity, l’alliance data + média, sur laquelle nous pouvons acheter directement en opérant en self-serve. Nous avons une plateforme de gestion de données (DMP), depuis trois ans. Nous avons par conséquent la capacité de créer des segments. Avec d’un côté une audience rare qui vaut cher et, de l’autre, un inventaire démultiplié qui coute un peu moins cher, l’intérêt de la DMP est de permettre de bien valoriser tout type de cookies. Cela nous autorise à faire du retargeting en interne grâce à l’audience que nous sommes capables de qualifier. Par exemple, je peux recibler sur Le Parisien un internaute qui a consulté Les Echos pour un annonceur intéressé par une thématique touchant à l’économie.

 Les éditeurs chez vous bénéficient ainsi d’autres dispositifs à proposer aux annonceurs que leurs propres solutions. Combien de leur inventaire reste chez eux et combien est commercialisé par vous ?

Nous commercialisons l’ensemble de l’inventaire de nos éditeurs. Il peut encore subsister quelques contrats gérés par l’éditeur (certains contenus sponsorisés par exemple) mais cela a tendance à passer par la régie. Nous travaillons main dans la main avec l’éditeur pour s’assurer a minima que tous les contrats sont analysés avec une vue RPM (revenu pour 1 000 impressions) et ainsi les maximiser. En effet sur une même page certains emplacements peuvent être vendus plus chers par la régie et moins cher par l’éditeur selon son contrat, et inversement. Peu importe que les revenus tombent à la régie ou chez l’éditeur au final, l’important c’est de générer un maximum de revenus par page et de partager tous les axes de business development possibles entre la régie et l’éditeur.

La suite de l’interview d’Emilie Proyart, directrice du digital de Team Media sera publiée demain.

 Propos recueillis par Luciana Uchôa-Lefebvre

L’article Data et média : Comprendre l’intérêt d’une offre multi-sites (interview E. Proyart, Team Media) est apparu en premier sur AD-EXCHANGE.FR *.

Onboarding : sur quels critères doivent se baser les marques pour choisir leur solution ?

0
0

Data, tracking.

Pour les marques, l’onboarding permettant de réconcilier les données on et offline est indispensable afin de réussir à toucher les prospects ayant manifesté un désir d’achat. D’après WInterberry Group, près de 2,6 milliards de dollars seront investis dans des solutions spécialisées dans la résolution des problèmes d’identité. Cependant, le choix de la solution reste difficile pour les marques.

Bien que de nombreuses technologies traitent les données à caractères personnelles, bon nombre ne disposent pas des moyens nécessaires pour les onboarder et les activer. Une autre partie d’entre elles dont les retargeters effectuent un matching probabiliste des devices avec les cookies sans les relier à de vrais individus, ce qui là encore ne permet pas d’identifier ni d’engager les prospects ou consommateurs avec précision, en temps réel.

Alors que la multiplication des devices diminue le temps consacré par les consommateurs à leur prise de décision, les marques doivent veiller à ce que leur solution d’onboarding puisse les connecter aux clients en direct sur plusieurs points de vente mais aussi intégrer et onboarder les données instantanément. Ainsi, ils pourront activer la data en intéragissant avec leurs clients aux moments contextuels et décisifs dans les heures qui suivent.

Les marques auront donc tout à gagner en sélectionnant des plateformes capables d’allier reach, adressabilité et rapidité. D’une part, elles s’assureront de toucher leurs cibles et de renforcer leur relation client mais pourront également profiter des opportunités d’add et de cross selling.

Stéphanie Silo d’après AdExchanger

L’article Onboarding : sur quels critères doivent se baser les marques pour choisir leur solution ? est apparu en premier sur AD-EXCHANGE.FR *.

Cookies : le SRI fait le point avec le « Pense Pas Bête »

0
0

SRI pense pas bête

Elément central du tracking en publicité digitale, le cookie permet entre autres aux éditeurs de collecter des données sur les visiteurs de leurs sites, d’améliorer l’expérience utilisateur selon leurs préférences mais surtout de monétiser leur audience. La collecte de données en ligne relève d’une certaine technicité et à cela s’ajoute les changements introduits par la mise en application du Règlement Général sur la Protection des Données le 25 mai 2018.

Le Syndicat des Régies Internet (SRI) propose de faire le point sur les cookies et assimilés à travers un guide accessible via ce lien.

Stéphanie Silo

 

 

L’article Cookies : le SRI fait le point avec le « Pense Pas Bête » est apparu en premier sur AD-EXCHANGE.FR *.

DOOH : un marché facile à conquérir pour Google ?

0
0

OOH

En représentant 50% des dépenses en affichage au 4ème trimestre 2017, le DOOH connaît un essor qui ne pouvait qu’interpeler Google. La société a d’ailleurs récemment annoncé faire son entrée sur le marché du DOOH allemand et signé un partenariat avec Asiaray, proprietaire de médias outdoor à Hong Kong. Cependant, malgré sa dominance sur le marché publicitaire, en tant que nouvel entrant, le géant devra se confronter à des obstacles.

Le DOOH : un projet astucieux pour Google

Sur un marché digital entaché par les problèmes liés à la brand safety et à la transparence, les panneaux digitaux implantés de façon stratégique offre des emplacements de qualité, sûrs et visibles suscitant un sentiment de confiance chez les annonceurs. Pour Google, le DOOH est en outre un moyen idéal de capitaliser sur les micro-moments sur le terrain mais aussi d’étendre sa puissance sur l’ensemble des supports digitaux. En échange d’achats d’espace OOH via sa plateforme, le géant permettrait aux annonceurs de bénéficier de ses données : une mine d’or qui offrirait une envergure inédite au DOOH avec notamment la possibilité d’évaluer le succès d’une campagne dans une zone géographique donnée grâce à l’analyse des requêtes sur son moteur de recherche ou au suivi du trafic en magasin.

Les obstacles à l’entrée

Néanmoins, le géant devra se confronter aux sociétés et organismes déjà fortement positionnés sur certains marchés où l’écosystème DOOH est déjà bien en place. Au Royaume-Uni notamment, ROUTE, une société de mesure d’audience OOH intégrées aux JIC (Joint Industry Currencies) détient un rôle important auprès des annonceurs et de leurs agences. En plus d’offrir une mesure et des analyses poussées (probabilité de vues basée sur l’eye-tracking), la société est une référence dans le développement de métriques standards.

Nul ne sait réellement pour le moment de quelle façon Google compte pénétrer le marché ni quelles seront les difficultés rencontrées. Il est possible d’envisager un monopole sur les achats programmatiques et sur une sélection d’inventaires. Dans tous les cas, le scénario le plus probable est que la société préférera sans doute posséder des solutions plutôt que des panneaux. Ce qui serait une bonne nouvelle pour l’industrie, ceci réduisant l’impact d’un éventuel « walled garden ».

Stéphanie Silo d’après ExchangeWire

L’article DOOH : un marché facile à conquérir pour Google ? est apparu en premier sur AD-EXCHANGE.FR *.

Social et métriques : Faut-il encore faire confiance aux données statistiques de Facebook ?

0
0

Performance.

Au fil du temps, Facebook a acquis la réputation de fournir des données erronées dans ses rapports statistiques. Et pour une partie des marketers, ces incidents ne seraient pas totalement involontaires comme le confirme le récent procès du géant soupçonné d’avoir pris connaissance du problème de mesure des vidéos vues (2016) bien avant qu’il n’ait été annoncé. La confiance des annonceurs dans les chiffres fournis par la plateforme pourrait bien s’effriter.

Les efforts de Facebook pour s’engager dans une mesure fiable

Pour rester crédibles vis-à-vis de ses partenaires, Facebook œuvre désormais dans le but de signaler toute nouvelle erreur découverte mais aussi pour se faire accréditer des acteurs certificateurs réputés du marché. Après avoir créé son Measurement Council permettant aux annonceurs de donner leur avis sur l’approche de Facebook en matière de métriques et mesures digitales, le géant a notamment été audité plusieurs mois avant de recevoir cette année l’accréditation du Media Rating Council (MRC) destinée à certifier que les impressions publicitaires de la plateforme répondent aux standards les plus exigeants en matière de fiabilité. Toutefois, cette accréditation ne concerne pas les intégrations tierces pour la mesure de la visibilité.

Les vidéos vues : une métrique de moindre importance pour les acheteurs ?

De leur côté, s’ils reconnaissent l’engagement de Facebook pour rétablir la confiance, une partie des acheteurs a renoncé à l’idée d’intégrer l’indicateur des vidéos vues dans les rapports élaborés pour leurs clients. Et pour cause, cet indicateur, objet du scandale, avait été gonflé par l’incorporation accidentelle de vidéos vues dépassant 3 secondes (seuil à partir duquel sont comptabilisées les vidéos vues), ce qui avait occasionné une surestimation de l’ordre de 60% à 80%.

Au vu du grand nombre d’annonceurs qui engagent des dépenses importantes en fonction des résultats fournis par les rapports de Facebook, le géant a tout intérêt à se concentrer sur la livraison de statistiques fiables à ces partenaires suite à cet incident qui malgré tout n’a pas eu de graves conséquences pour la plateforme. Car tout bon annonceur sait en effet que contrairement aux vidéos vues à 100%, les vidéos vues ne représentent pas un indicateur significatif étant comptabilisées à partir de 3 secondes par la plateforme qui diffuse de surcroît les vidéos en autoplay.

Stéphanie Silo d’après ExchangeWire

 

L’article Social et métriques : Faut-il encore faire confiance aux données statistiques de Facebook ? est apparu en premier sur AD-EXCHANGE.FR *.


Ciblage : la taxonomie, une mine d’or sous-estimée

0
0

Online Advertising

Souvent négligée au sein des discussions autour du marketing digital, la taxonomie basée sur des mots-clés a pourtant un rôle important à jouer non seulement dans la classification des contenus, la navigation et les recherches sur les sites web mais également dans le cadre de la stratégie éditoriale et du ciblage pour les annonceurs.

Un travail continu basé sur l’expertise humaine et technologique

Impliquant un investissement important en temps, en technologie et expertise humaine, la taxonomie n’est jamais vraiment terminée. Il s’agit en effet d’un travail continu qui sera plus ou moins important selon l’échelle des éditeurs. Pour les gros éditeurs notamment, la création et le maintien d’une taxonomie approfondie est un investissement rentable qui améliore les expériences utilisateur et de contenu. Cette tâche nécessite un travail méticuleux afin de veiller à ce que les contenus existants et les nouveaux contenus soient étiquetés de façon cohérente, en phase avec les recherches effectuées par les internautes et à jour (nouveaux mots-clés, synonymes, etc.)

La combinaison de l’expertise humaine et technologique est la base d’une taxonomie forte. Les gros éditeurs peuvent facilement appliquer 100 attributs à un contenu. A cela s’ajoute les taxonomies tierces de Google et de l’IAB permettant de normaliser le contenu sur 5 à 10 niveaux de profondeur et suggérant parfois des mots-clés omis par les éditeurs. De plus, le Machine Learning et l’automatisation peuvent être utilisés pour appliquer la taxonomie en place sur le reste des contenus, ce qui représente un gain de temps et élimine la subjectivité humaine en garantissant que tout le contenu est classé de la même manière. Ces méthodes technologiques nécessiteront néanmoins le contrôle des rédacteurs et des taxonomistes.

Quels avantages pour les éditeurs ?

Certes, ceci représente un travail important mais qui rapporte davantage aux éditeurs et à leurs partenaires publicitaires. Une taxonomie riche offre aux éditeurs une grande précision, base d’un excellent ciblage.

Les éditeurs pourront également obtenir une connaissance plus approfondie de leur audience et identifier voire anticiper les tendances à des niveaux granulaires grâce aux recherches émergentes (à l’instar de la search intelligence). Une richesse d’informations qui permettra d’éclairer leur stratégie éditoriale, de combler les lacunes de contenu (en mettant par exemple à jour les balises avec de nouveaux mots-clés) ou de promouvoir le contenu en fonction de la demande croissante. En outre, la taxonomie peut même être envisagée pour alimenter la recherche vocale.

Pour les éditeurs comme pour les annonceurs, la taxonomie peut donc révéler une mine d’or grâce à la précision qu’elle offre pour une expérience utilisateur contextuelle unique et la data générée, relative à l’audience et aux nouvelles tendances exploitables à des fins publicitaires.

Stéphanie Silo d’après AdExchanger

L’article Ciblage : la taxonomie, une mine d’or sous-estimée est apparu en premier sur AD-EXCHANGE.FR *.

L’attribution : un processus difficile mais nécessaire

0
0

Attribution

Entre data instable et imprécision, l’attribution s’avère être un exercice fastidieux et coûteux pour une grande partie des spécialistes du marketing. L’incertitude sur les résultats des méthodes utilisées frustrent en effet les professionnels.Or, il n’existe pas de solution ni d’outil miracle pour mesurer chaque influence, action ou résultat généré par les canaux. Tous les modèles d’attribution sont défectueux allant des données manquantes aux hypothèses incorrectes. Forts de ce constat, les marketers peuvent avancer grâce à une mesure multicanale.

Une révision indispensable des attentes

Bien sûr, lier chaque interaction client on & offline à une vente quantifiable représente le Saint Graal. En attendant, les spécialistes doivent savoir clairement ce que leur modèle est capable de fournir ou non. Un modèle d’attribution multicanal peut offrir des informations exploitables leur permettant d’affiner leur budget, leur message, leur offre et leur stratégie de marque. Dans le cadre de la publicité TV par exemple, un modèle d’attribution pourra notamment leur fournir des informations sur les moments de la journée qui génèrent le plus fort taux de réponse, les chaînes et les marchés les plus efficaces ou encore sur le spot qui a eu le plus gros impact.

Les marketers doivent également déterminer ce qui est mesurable ou non. Selon les supports sur lesquels seront diffusées leurs publicités, ils pourront en effet identifier les influences positives générées par la marque dans les minutes qui suivent la diffusion ainsi que dans les jours et les semaines suivantes. Le suivi de l’influence d’autres leviers tels que le search sur Google ou les commandes en ligne est relativement simple et immédiat. En revanche, la mesure de l’amélioration de la notoriété de la marque sera plus difficile.

L’utilisation de plusieurs modèles pour s’assurer de la fiabilité des résultats

Qu’ils travaillent ou non avec des agences ou partenaires fournisseurs de technologies d’attribution, les spécialistes doivent optimiser leur modèle de données et s’assurer que le modèle soit assez flexible pour prendre en charge les points de données uniques de leur propres entreprise, produit ou campagnes. En outre, afin de raffermir leur confiance dans les analyses et informations qu’ils reçoivent, il est essentiel d’utiliser deux modèles d’attribution distincts en faisant si besoin appel à une société d’attribution externe modélisant simultanément les données. Ainsi, une similitude de résultats des deux différentes méthodes permettra aux professionnels de s’assurer de la précision de leurs analyses.

Stéphanie Silo, d’après AdExchanger

L’article L’attribution : un processus difficile mais nécessaire est apparu en premier sur AD-EXCHANGE.FR *.

Retailers : Comment conquérir de nouvelles cibles et générer du trafic en point de vente (Interview T.Opoczynski, Singlespot)

0
0

Face à la forte concurrence du e-commerce, les retailers traditionnels doivent aujourd’hui s’appuyer sur la technologie pour développer des stratégies de conquête toujours plus performantes et ainsi renforcer leur position sur leur marché. Afin d’en savoir plus sur cette tendance, nous avons interviewé Thomas Opoczynski, CEO & Co-founder de Singlespot (plateforme drive-to-store) lors de l’édition 2018 du MobileOne.

Dans quel contexte évolue Singlespot et à quels objectifs répond la technologie ?

T.O : Singlespot est une start-up basée à Paris (disposant également de bureaux à Londres, Milan et Madrid) qui collecte et qualifie des données de localisation afin d’optimiser le marketing des retailers et des marques. Nous avons développé une technologie de collecte de données de localisation qui permet de reconstruire le parcours physique des consommateurs. Grâce à cette data, nous sommes en mesure de faire deux choses : développer des campagnes publicitaires dont l’objectif est de générer du trafic en point de vente et offrir à nos clients un état des lieux du marché grâce à une analyse des comportements et des déplacements des consommateurs.

De quelle manière la technologie permet-elle aux retailers d’optimiser leur stratégie de conquête ?

T.O : Afin de permettre aux retailers de générer du trafic en magasin, nous effectuons un ciblage des individus en fonction de leur historique ou plus précisément des enseignes et points d’intérêt qu’ils ont visité pour ensuite les toucher via la diffusion de publicités. Nous pourrions par exemple permettre à Carrefour de cibler les clients de concurrents vivant à moins de 5 km de l’un de ses magasins, leur diffuser une annonce, pour être ensuite capable de mesurer les visites effectives des personnes ciblées et exposées à la campagne.

Dans un second temps, nous aidons nos clients à monitorer leurs performances de visites en point de vente grâce aux données de localisation.

Aujourd’hui, les retailers utilisent différents systèmes plus ou moins limités pour la mesure des entrées et sorties de leurs points de vente. Notre objectif est d’offrir aux marques une alternative grâce à une base régulièrement alimentée par des données comportementales intégrant les déplacements des consommateurs. Ces données nous permettent de leur offrir une quasi-étude de marché : nombre de visites constatées sur un magasin spécifique, la part de marché d’un magasin sur sa zone de chalandise, les évolutions de cette part de marché ou encore la zone géographique dans laquelle vivent les clients. Toutes ces informations sont mises à jour en temps réel grâce à la data collectée quotidiennement.

L’exploitation des informations d’achat pourraient permettre aux retailers d’aller encore plus loin dans cette démarche de conquête, pensez-vous pouvoir accéder à ses données dans le futur ?

T.O : En terme de conversion, il y a en effet deux métriques : la visite qui ne s’accompagne pas forcément d’un achat et l’achat sur le point de vente. Actuellement, nous ne recueillons pas les données d’achat. C’est une mine d’or que les retailers détiennent et retiennent. Nos données permettent de mesurer l’impact de tout ce que peuvent aujourd’hui faire des retailers, toutefois, nous aurions bien sûr souhaité avoir l’opportunité d’exploiter ses données. Nous invitons tous les retailers à travailler avec nous en ce sens, cependant, ceux-ci ont du mal à partager cette donnée sur laquelle ils sont assis depuis des années.

En renforçant la protection des données personnelles en Europe, le RGPD a introduit de nouveaux défis pour les acteurs de l’industrie de la publicité. Quels sont les vôtres ?

T.O :  A l’arrivée du RGPD, les acteurs du marché ont dû se remettre en question en s’assurant qu’ils travailleraient en conformité avec le règlement. Sur notre secteur, il n’y a pas eu de vraies guidelines, ce qui a engendré un flou et une angoisse généralisée. Ceci s’est notamment traduit par une petite défiance du marché et une baisse des investissements média.

De notre côté, nous avons été impactés de façon indirecte comme le reste des acteurs à causes des multiples interrogations levées, et notamment des interrogations sur la meilleure façon d’informer de façon explicite les individus sur la collecte des données pour un consentement éclairé ou encore la définition du meilleur temps de conservation des données pour alimenter la technologie.

Nous avons donc mobilisé nos équipes et travaillé en collaboration avec des avocats afin de répondre aux exigences du RGPD.

En avril 2018, Singlespot a levé 6 millions d’euros auprès d’Iris Capital pour augmenter l’efficacité des campagnes drive-to-store des commerçants. L’entreprise développe actuellement ses activités en Europe.

Propos recueillis par Stéphanie Silo

L’article Retailers : Comment conquérir de nouvelles cibles et générer du trafic en point de vente (Interview T.Opoczynski, Singlespot) est apparu en premier sur AD-EXCHANGE.FR *.

Protection de la vie privée  : Une hausse des investissements en 3rd party data aux Etats-Unis

0
0

Certes, la protection des données personnelles a été renforcée, néanmoins l’écosystème des données tierces n’est pas prêt de s’effondrer autant. C’est notamment ce démontre une étude réalisée aux Etats-Unis par l’IAB Data Center of Excellence.

Des investissements en données third party en hausse

Selon un récent rapport de l’IAB et Winterberry Group, les marketeurs sont prêts à dépenser 19,2 Md$  en données d’audience third-party, en technologies et en solutions pour gérer, traiter et analyser toutes ces données. Ceci représente une augmentation de 17,5 % d’une année sur l’autre.

Cette année, malgré la mise en application du RGPD, les professionnels ont paradoxalement augmenté leurs dépenses en third-party data, passant de 10,14 Md$ l’année précédente à 11,94 Md$ en 2018 (soit +17,7%), tandis que les dépenses en technologies d’activation de données sont passées de 6,17 Md$ à 7,23 Md$ (soit + 17,2%). En outre, il faut noter que cette hausse est également imputable à l’évolution du contexte réglementaire, les règles de confidentialité suscitant des investissements dans la technologie de la gouvernance des données et de la sécurité.

Des données encore primordiales aux US pour mieux comprendre les audiences

Bien que les professionnels américains respectent mieux la vie privée des consommateurs, la first-party data leur reste indispensable pour une meilleure compréhension des segments d’audience. L’industrie US ne semble pas pressée de se préparer au jour où ces données seront plus difficilement accessibles. D’ailleurs, pour la première fois cette année, les dépenses en données tierces numériques dépasseront les investissements en informations personnelles “traditionnelles” telles que le nom et l’adresse postale.

Les Etats-Unis en attente de l’application du California Consumer Privacy Act

En plaçant la confidentialité des données au coeur du débat, le RGPD a eu une portée internationale et a entraîné dans son sillage le California Consumer Privacy Act (CCPA), signé par le gouverneur de Californie le 28 juin 2018 pour une entrée en vigueur le 1er janvier 2020.

Les marketeurs US ont donc encore du temps devant eux pour non seulement exploiter tout le potentiel de la data tierce mais aussi pour observer la scène européenne et se préparer à la nouvelle réglementation du CCPA qui inscrira dans la loi des mesures strictes concernant la confidentialité des données des consommateurs.

Stéphanie Silo d’après AdExchanger

L’article Protection de la vie privée  : Une hausse des investissements en 3rd party data aux Etats-Unis est apparu en premier sur AD-EXCHANGE.FR *.

Quel bilan pour l’adtech en 2018 ? (Interview J. Gardès, Adform)

0
0

Sablier_temps

L’année 2018 arrive bientôt à son terme et avec elle un certain nombre d’évolutions observées dans l’adtech qui laissent déjà entrevoir quelques tendances fortes pour 2019. Nous interrogeons Julien Gardès, vice-président pour l’Europe du Sud d’Adform, plateforme DSP, pour connaître son analyse.

Télévision, DOOH, audio…

Julien Gardès, Adform.
Julien Gardès, Adform.

J.G. Nous sommes arrivés à un stade où l’ensemble des médias sont disponibles en programmatique. L’innovation et la valeur dans le marketing digital viendront de la diversification de canaux, comme la télévision (même si des contraintes et des verrous existant encore), le DOOH et l’audio.

 DMP

J.G. Une autre tendance forte concerne la propriété des données. L’entrée en vigueur de législations de protection des données personnelles pousse les annonceurs à vouloir maîtriser parfaitement ce qui est fait des données dont ils disposent. Nous constatons chez Adform une explosion de l’adoption de DMP par nos clients.

Ad-exchange.fr :  L’annonceur peut considérer que la donnée est à lui. Mais est-ce que l’utilisateur pense la même chose ?

J.G. La donné de l’utilisateur lui appartient. Le Règlement général de protection des données (RGPD) a mis l’utilisateur au centre du débat. Il lui a donné le pouvoir de choisir, à travers notamment les plateformes de gestion du consentement (CMP). Nous devons aussi gagner la confiance des internautes en leur affichant moins de publicités, et en veillant à ce que le message soit plus pertinent, ciblé et donc efficace. Des initiatives comme Digital Ad Trust vont dans ce sens. Il va de soi que si les taux d’ad blockers devait continuer d’augmenter nous arrêterions tous de travailler !

 L’internalisation de l’adtech

J.G. Une autre tendance forte en France est l’internalisation par les annonceurs des technologies publicitaires. Cela est en partie le reflet d’une volonté de marques de reprendre plus de contrôle sur le pilotage de leurs campagnes. Historiquement nous avons toujours travaillé avec les prestataires de nos utilisateurs finaux. Cependant maintenant nous sommes des plus en plus en situation de répondre à des appels d’offres émis directement par les annonceurs. Ces nouvelles responsabilités que les annonceurs assument expliquent aussi l’émergence de nouvelles sociétés. Ces dernières se positionnent plutôt dans le conseil sur les technologies à adopter et sur leurs points forts et faibles, notamment pour des problématiques data. C’est le cas d’Accenture, de Converteo ou d’Ebiquity. Ce sont des acteurs avec lesquels nous collaborons.

Ad-exchange.fr: Les annonceurs sont désormais en direct avec vous alors ?

J.G. Ce sont plutôt des systèmes hybrides, une sorte de semi-internalisation à travers laquelle l’annonceur contracte directement avec des technologies comme la nôtre. La raison est que l’annonceur souhaite avoir plus de transparence et de maîtrise sur ce qui est fait, tout en déléguant à son agence l’activité de media trading. Ce système devient le plus répandu du marché. Cela permet aux marques de se réapproprier leurs données, de maîtriser leurs coûts et d’être moins dépendantes de leurs prestataires. 

La gestion des identités

J.G. La gestion des identités est une autre problématique forte de ce marché. L’industrie n’a toujours pas réussi à trouver une solution cross-device satisfaisante. Celle-ci est nécessaire à une meilleure gestion du capping et par conséquent à une meilleure expérience utilisateur. On voit émerger des alliances, mais il n’existe pas encore de solution qui puisse être commune à tous. Tant que l’on n’aura pas trouvé de monnaie commune pour travailler les uns avec les autres, on sera toujours confronté à d’immenses difficultés technologiques pour gérer la capacité à identifier un même individu sur ses différents devices. Et pendant ce temps, ce sont bien les grandes plateformes walled gardens qui garderont toute leur force. Or, il y a bien une vie en dehors de ces environnements clos, et il faut que l’on arrive à dépasser ces contraintes !

L’industrie n’a toujours pas réussi à trouver une solution cross-device satisfaisante.

Ad-exchange.fr: Mais tout cela relève de la volonté de travailler ensemble, non ?

J.G. Oui, ce problème illustre le désordre qui règne dans le marché programmatique qui souffre de l’absence d’une vraie instance régulatrice. Nous avons besoin de standards, de bonnes pratiques et d’interopérabilité.

Propos recueillis par Luciana Uchôa-Lefebvre

L’article Quel bilan pour l’adtech en 2018 ? (Interview J. Gardès, Adform) est apparu en premier sur AD-EXCHANGE.FR *.

Viewing all 124 articles
Browse latest View live




Latest Images