Météo contrastée pour les algorithmes ! Intervenant ce mardi soir lors de la présentation des programmes du groupe M6 pour la saison 2017/2018, le patron de sa régie David Larramendy annonçait avec une satisfaction non dissimulée que le cap des 18 millions d’inscrits à 6Play avait été franchi (+3 millions en 6 mois), et revendiquait le bénéfice qu’il tirait de l’exploitation de leurs données d’usage en terme de ciblage publicitaire et d’optimisation de la programmation ; à l’autre extrémité du spectre, le directeur des programmes d’ARTE Alain le Diberder inaugurait fin août le concept de « numérique bio ». Autrement dit, le refus des « algorithmes complexes dictant au téléspectateur quels programmes regarder » ; s’exprimant devant l’Association des Journalistes Médias, la présidente de France Télévisions Delphine Ernotte tentait, elle, le moyen terme : « les algorithmes, je ne vois pas pourquoi s’en priver, mais pas seuls. Notre enjeu, ce n’est pas la recommandation, qui est maintenant un standard, mais c’est de voir comment faire partager des choses étonnantes »…
Parce que leur construction est généralement – et presque par nature – invisible et inaccessible à l’utilisateur final, et qu’ils résonnent avec d’autres buzzwords du monde digital (Big Data, Intelligence artificielle…), le débat sur les algorithmes a pris ces derniers mois un tournant irrationnel, et presque théologique, jusqu’à les accuser d’avoir « fait » l’élection de Donald Trump ou de favoriser la radicalisation, donc la montée du terrorisme islamiste.
Dans une note parue en début d’année, le CSA Lab s’est attaché à structurer la réflexion en distinguant différentes natures d’algorithmes : algorithmique statistique qui « propose au consommateur ce qui est supposé lui plaire le plus, sans lui laisser la main dans le processus de sélection » et algorithmique sémantique qui « invite le consommateur à participer au choix de la proposition, sur le mode d’une interaction avec un système expert proche de l’humain (human like) ».
On peut aussi raisonner en fonction des domaines d’application concernés : information et partage de données sensibles apparaissent évidemment comme les plus sensibles.
Moteurs de recherche et réseaux sociaux ont été mis en accusation, s’agissant de la première, en raison de « l’effet de bulle » qu’ils favoriseraient : parce que j’ai commencé à consulter des sites jihadistes, on me propose des « contenus » comparables, de façon croissante au fil de mes visites, jusqu’à créer un effet d’enfermement et de renforcement progressif de mes « convictions » ; dans son 6e Digital News Report, publié au début de l’été, le Reuters Institute s’inscrivait en faux, notant « qu’en moyenne, les utilisateurs des réseaux sociaux, des agrégateurs d’information et/ou des moteurs de recherche consomment une information plus diversifiée que les autres, dans ses sources comme dans ses contenus ».
Une prudence plus grande semble de mise concernant le second. On imagine par exemple sans peine les conséquences que pourrait avoir, pour un particulier, le plein accès de son assureur à ses données de conduite automobile (via le constructeur), de comportements alimentaires (via les plateformes de e-commerce) ou de pratiques sexuelles (au travers de ses logs à des sites de rencontres), par exemple. Mais il s’agit moins là d’une « mise sous surveillance » des algorithmes en eux-mêmes, que du type de data dont ils s’alimentent. Réglementation sur les données personnelles et éducation de l’internaute sur les moyens d’éviter la transmission des données qu’il juge sensible, doivent permettre d’y pourvoir.
Reste la publicité.
Et si les algorithmes appliqués à la communication n’étaient guère plus, au fond, qu’un perfectionnement des techniques de ciblage éditorial et de mediaplanning qui ont vu la presse inventer les magazines à centres d’intérêt, puis la radio et la télévision lui emboiter le pas avec les réseaux FM et chaînes thématiques ? Le principe est simple : le message est plus efficace et mieux accepté quand il « colle » au profil socio-démographique et aux habitudes de consommation de celui qui le reçoit. Face à un reciblage parfois pataud, donc exaspérant (8 jours de propositions multiples pour des hôtels situés aux Etats-Unis par exemple, récemment, après avoir consulté une plateforme de voyage, y avoir effectué une réservation… et avoir donc déjà répondu au besoin), on aimerait même que le partage de données ait été plus complet !
Et l’application des techniques de personnalisation à la télévision, comme envisagé par la consultation publique en cours à la DGMIC devrait permettre aux annonceurs de bénéficier de ce gain d’efficacité en même temps qu’elle devrait aider le média à reprendre de la valeur sur la commercialisation de ses espaces.
Espérons simplement que la nouvelle majorité saura faire preuve d’une plus grande célérité sur ce sujet, que la précédente à propos de l’aménagement des règles applicables au parrainage : il se sera écoulé 4 ans, pour ce dernier, entre la consultation ouverte par la ministre Aurélie Filippetti et sa traduction dans les textes.