[box style=”5″]
Le CSA Lab, groupe de réflexion lancé en juin dernier dans le but d’anticiper les évolutions de l’économie et de la régulation audiovisuelle à l’ère du numérique, s’est penché, dans ce premier rapport, sur les risques et enjeux liés au développement d’outils algorithmiques dédiés à la présentation et à la mise en avant de contenus audiovisuels. Les préconisations touchent la préservation de la diversité culturelle, la loyauté des algorithmes et leur maîtrise par les utilisateurs.
[/box]
Le rapport du CSA Lab fait écho par bien des aspects à celui publié le 15 décembre dernier par le Conseil général de l’économie sur la régulation des algorithmes. Au nombre des thèmes communs, on retrouve les inquiétudes nées de l’usage des algorithmes, et plus particulièrement celle de voir les utilisateurs soumis par l’orientation algorithmique à des propositions de types de contenus sélectionnés sur la base de leurs préférences supposées, et dépossédés ainsi de leur libre arbitre. L’analyse des enjeux liés aux algorithmes est également conduite par la CNIL, qui a ouvert un débat public sur la question et a promis la publication d’un rapport dès l’automne 2017.
Concernant les algorithmes utilisés dans le secteur audiovisuel (notamment par les services de type VOD ou SVOD), le rapport distingue algorithmes statistiques et algorithmes sémantiques. Les premiers, moins onéreux, permettent de proposer aux utilisateurs des contenus en fonction de leurs visionnages antérieurs et des productions populaires disponibles. Les seconds, plus coûteux, répertorient des bases de données de contenus et proposent aux utilisateurs des résultats de recherche, par association de mots-clés. Ils supposent donc une action de l’utilisateur qui met en avant les mots clés de son choix.
Pour le CSA Lab, les algorithmes statistiques présentent un danger plus grand d’enfermement et de manipulation ; l’usager n’ayant qu’un rôle passif et se voyant proposer des préférences suivant la logique top-down, sans qu’il définisse les critères qui détermineront les offres qui lui seront présentées.
En tout état de cause, le CSA Lab constate que, quel que soit le type d’algorithme proposé, la part d’aléa dans la découverte de créations culturelles risque d’être quasi-nulle.
De ces constats, le CSA Lab tire trois objectifs et des propositions visant à les atteindre :
- La préservation de la diversité culturelle: pour favoriser la découverte de produits culturels variés et susceptibles de plaire aux utilisateurs sans risquer de les enfermer dans des préférences réduites par l’usage des algorithmes, une transparence accrue de leur fonctionnement devrait s’imposer.
- La promotion d’une maîtrise responsable des données par les usagers. Cela permettrait une meilleure détermination des préférences culturelles des utilisateurs. A ce titre, une intervention aisée sur le paramétrage des algorithmes devrait être promue et rendue facilement accessible. Les utilisateurs seraient ainsi en mesure de s’assurer que le champ des produits qui leur est proposé n’est pas excessivement restreint (et qu’ils peuvent ajouter des paramètres à ceux issus de leur seule consommation).
- La garantie de la loyauté des algorithmes doit assurer aux utilisateurs que les prestataires de services n’utilisent pas les données personnelles recueillies à des fins autres que l’objet de l’algorithme sans informer ou recueillir leur consentement (notamment en termes de publicité). La transparence est seule susceptible d’instaurer la confiance.