[box style=”5″]
La Commission européenne a publié jeudi dernier une communication adressée aux plateformes en ligne, qui vise à les inciter à s’engager volontairement dans la lutte contre les contenus illégaux en ligne. Cette communication cible en particulier les plateformes de partage de contenus mis en ligne par les utilisateurs, qui sont encouragées à œuvrer pour réduire la circulation de contenus d’incitation à la haine, terroristes, pédopornographiques ou contrefaisants. La Commission précise les façons dont les plateformes devraient procéder pour mettre en œuvre le retrait desdits contenus ainsi que l’influence de telles mesures sur leur régime de responsabilité.
[/box]
Responsabilité des plateformes et actes de « bon Samaritain »
Si la responsabilité des plateformes est évoquée à de nombreuses reprises dans sa communication, la Commission précise très clairement qu’elle n’entend pas leur imposer de nouvelle obligation, et surtout, qu’elle ne reviendrait pas sur les dispositions de la directive « e-commerce », notamment ses articles 14 (responsabilité limitée des intermédiaires techniques) et 15 (interdiction d’imposer aux plateformes des obligations générales de surveillance). Toutefois, la Commission interprète la directive de façon à laisser de la place pour des mesures « proactives » volontaires (ou « actes de “bon Samaritain” »), sans affecter le régime de responsabilité limité des hébergeurs.
Jusqu’à présent, il découle de l’interprétation de la directive e-commerce faite par la CJUE que tant qu’un prestataire de services de la société de l’information n’a pas de « rôle actif », celui-ci n’est pas tenu responsable des contenus présents sur ses serveurs, dans la mesure où, une fois qu’il est informé de la présence d’un contenu illicite, il fait preuve de diligence dans le retrait dudit contenu.
Sur ce point, la Cour a précisé que le fait d’optimiser et de faire la promotion des offres présentes sur ses serveurs est de nature à lui conférer une telle connaissance, et donc à lui faire perdre le bénéfice de l’exemption de responsabilité (arrêt l’Oréal contre eBay, 12 juillet 2011).
Il semblerait donc que la recherche active de contenus illégaux par une plateforme parmi les contenus qu’elle héberge la condamne de facto à perdre la jouissance de cette exemption.
En rupture avec cette interprétation, la Commission considère que de telles « mesures volontaires et proactives ne conduisent pas automatiquement à la perte par la plateforme du bénéfice de son exemption de responsabilité ». Elle s’appuie également sur l’arrêt l’Oréal contre eBay, qui précise que l’article 14 s’applique à toute situation où un hébergeur « prend connaissance, d’une façon ou d’une autre » de la présence de tels contenus sur ses serveurs, notamment lorsqu’il « découvre l’existence d’une activité ou d’une information illicites à la suite d’un examen effectué de sa propre initiative ».
La Commission en déduit que les mesures proactives visant précisément à identifier de tels contenus n’engagent la responsabilité des plateformes que dans la mesure où, une fois ces contenus identifiés par les plateformes, ils ne sont pas retirés. Il suffira donc aux plateformes de retirer promptement les contenus illégaux qu’elles auront identifiés grâce à leurs propres efforts pour qu’elles conservent leur exemption de responsabilité.
L’automatisation de la lutte contre les contenus illicites
Dans sa communication, la Commission encourage le recours aux « technologies automatiques de détection et de filtrage » et l’innovation dans le développement de ces technologies. Elle précise également que ce type d’outils n’affecte pas la responsabilité des plateformes au sens de la directive « e-commerce ». En effet, le recours à des outils purement techniques est reconnu dans la décision l’Oréal contre eBay comme excluant tout « rôle actif » de la part du prestataire.
Si elle précise que l’intervention humaine dans ces procédures automatiques est important, la Commission souligne tout de même que, en matière de droit d’auteur, ces technologies se sont montrées efficace depuis plusieurs années.
Dans un billet de blog, l’eurodéputée Julia Reda (Verts) critique la position de la Commission et conteste l’efficacité de ces instruments. Elle liste un certain nombre de cas où ces outils ont commis des erreurs ou se sont retrouvés contre-productifs. Elle conclut que l’on ne peut pas « exclure les tribunaux judiciaires, la procédure régulière ou même l’intervention humaine du processus sans conséquences désastreuses pour la liberté d’expression ».
« Notice », « take down » et « stay down »
Le régime de responsabilité limité des hébergeurs mis en place par la directive e-commerce a donné place à une procédure dite de « notice and take down » (notification et retrait), où le contenu illicite, comme une contrefaçon de droit d’auteur, est signalé à une plateforme, qui doit ensuite le retirer promptement.
La Commission recommande aux plateformes de s’aider de tiers dans la détection de contenus illégaux et dans la détermination du caractère illégal de contenus. Elle préconise ainsi une forte coopération avec les autorités nationales et européenne compétentes de façon à ce que les requêtes de suppression de contenus illégaux soient rapidement traitées. Pour concrétiser cette coopération, la Commission envisage la création de « points de contact », c’est-à-dire des interfaces techniques qui favorisent une coopération efficace et rapide.
La Commission suggère également le recours à des tiers de confiance (« trusted flaggers ») dont la spécialisation leur permettrait d’identifier avec précision les contenus illégaux. A titre d’exemple sont cités Europol, compétent pour signaler avec justesse les contenus terroristes, ou INHOPE, l’association internationale de services d’assistance en ligne, pour les abus sexuels d’enfants. Les contenus signalés par les tiers de confiance devraient être priorisés par les plateformes en ligne. Les plateformes sont également invitées à s’adresser à ces tiers en cas de doute quant à l’illicéité d’un contenu.
Par ailleurs, la Commission recommande à nouveau de mettre en place des outils faciles d’utilisation à destination des utilisateurs, pour qu’ils puissent signaler des contenus, et contester le retrait de contenus.
Enfin, la Commission invite les plateformes à mettre en place de systèmes permettant d’empêcher la réapparition en ligne de contenus déjà retirés, au besoin en utilisant d’outils techniques de reconnaissance et de blocage automatique. C’est le concept de « take down and stay down », qui avait été ordonné à des hébergeurs par des juridictions françaises, puis abandonné suite à plusieurs arrêts rendus le 12 juillet 2012 par la Cour de cassation. Cette dernière avait cassé plusieurs décisions rendues au fond qui imposaient ce mécanisme en retenant que cela soumettait les hébergeurs à une obligation générale de surveillance, interdite par l’article 15 de la directive « e-commerce » (article 6 de la LCEN).
Une nouvelle offensive de l’Union contre les contenus illicites en ligne
Cette communication fait écho à la proposition de directive sur le droit d’auteur et à la révision de la directive « Services de médias audiovisuels », actuellement au stade de la négociation en « trilogues » entre le Parlement européen, le Conseil et la Commission. Associée à ces propositions, elle démontre bien l’objectif des institutions européennes d’aboutir à un arsenal législatif efficace pour lutter contre les contenus illicites en ligne.
L’article 28 bis de la révision de la directive « SMA » proposée par la Commission impose aux Etats membres de garantir que les plateformes en ligne assurent la protection de leurs utilisateurs vis-à-vis des contenus incitant à la haine et à la violence.
De son côté, l’article 13 de la proposition de directive « droit d’auteur dans le marché unique numérique » veut imposer aux plateformes, intermédiaires techniques compris, d’adopter des mesures visant à limiter la mise à disposition de contenus protégés par le droit d’auteur. L’article évoque également des « techniques efficaces de reconnaissance de contenus », dont l’utilisation est recommandée, sinon obligatoire. Cette disposition a fait l’objet de nombreuses critiques, accusée notamment d’être contraire à la directive e-commerce, et en particulier aux articles 14 et 15 de celle-ci.