[box style=”5″]
Le Conseil général de l’économie a été chargé le 27 octobre 2015 par le secrétaire d’Etat chargé du numérique de présenter des propositions relatives aux modalités de régulation des algorithmes de contenus. Publié le 15 décembre 2016, le rapport propose cinq recommandations, visant à favoriser la transparence du fonctionnement des algorithmes de traitement de contenu, l’intervention humaine dans la prise de décision à l’appui des algorithmes, le contrôle de la fiabilité de leur fiabilité et la limitation de la discrimination des résultats produits par ces algorithmes.
[/box]
Les algorithmes de contenus sont désignés comme les algorithmes « utilisés sur le web pour filtrer les contenus, ordonner des réponses à une recherche, sélectionner les informations pertinentes, faire des recommandations, calculer un score ou prédire un événement ». Ces algorithmes ont pris une importance essentielle dans l’économie numérique en raison de la masse de données hétérogènes produite par les services et utilisateurs d’internet et du potentiel économique considérable du traitement de ces données. Les algorithmes permettent par exemple au moteur Google de traiter les 3,3 milliards de requêtes quotidiennes, conduisant à quelques 30 000 milliards de pages indexées. De même pour Facebook, qui distribue 4,5 milliards de « like » et reçoit 350 millions de photos à mettre en ligne chaque jour.
Si le rapport effectue un état des lieux des enjeux, risques et opportunités liés aux algorithmes et à leur régulation, il ne propose pas de « nouvelle régulation sectorielle qui s’appliquerait aux algorithmes ». Les propositions et axes de régulation sont précédés d’une étude des différents enjeux économiques, sociaux et juridiques liés aux algorithmes.
Les enjeux majeurs sont les suivants : i) il n’est pas certain que les critères de référencement de résultats pour une requête commerciale respectent le droit de la concurrence, ii) le fait que la configuration elle-même de l’algorithme puisse profiter à celui qui le développe, tout en donnant une apparence de neutralité, fait douter de la loyauté de celui-ci et iii) en matière informationnelle et culturelle, les algorithmes risquent autant d’orienter les internautes vers des nouveautés diverses que de les enfermer dans des thématiques hermétiques et redondantes (CNIL).
Face à ces risques, le rapport pose la question des modalités de régulation : législation, droit souple (codes de bonnes pratiques), autorégulation ou gouvernance scientifique de l’éthique algorithmique.
L’analyse des risques et enjeux finit sur plusieurs constats : la pratique algorithmique a besoin d’une régulation internationale (ou du moins européenne) pour être efficace. Les objectifs sont la mise en place d’une transparence réelle du fonctionnement des algorithmes, de garanties de l’intervention humaine dans la prise de décisions et d’un contrôle normé des résultats des algorithmes.
Pour répondre à ces objectifs, 5 recommandations sont faites :
- La création d’une plateforme collaborative scientifique afin de développer des outils de contrôle des algorithmes, avec l’intervention et sur le financement d’acteurs publics, en partenariat international ;
- La création d’une cellule de contrôle spécialisée « bureau des technologies de contrôle de l’économie numérique» au sein de la DGCCRF, chargé de mettre en œuvre un contrôle effectif de la légalité du fonctionnement des algorithmes ;
- La désignation d’une équipe ou personne responsable du fonctionnement d’un algorithme donné ;
- L’identification d’un pilote chargé d’établir des règles internationales de bonnes pratiques ;
- La formation des agents publics pour favoriser la transparence des algorithmes publics.