Un tiers des demandes de retraits de contenu à Google serait invalide

Orianne Vialo - 13.04.2016

Edition - International - chercheurs de l’Université de Columbia, - DMCA takedown - droits d'auteur


Une nouvelle étude publiée par des chercheurs de l’Université de Columbia, située à Berkeley, révèle que plus de 28 % des takedown — demandes de retrait de contenus ou désactivation d’URL — reçues par Google sont « douteuses », voire invalides. Près de 5 % des avis de retrait qui ont été examinés ne ciblent pas le contenu supposé porter atteinte aux porteurs de droits d’auteur, tandis que 24 % des avis soulèvent d’autres préoccupations, y compris l’utilisation équitable des données sur internet.

 

Google

 (Cesar Solorzano / CC BY-NC-ND 2.0)

 

 

Ces dernières années, le nombre de demandes de « DMCA takedown » (le fait de demander la désactivation d’une adresse web) adressées à Google a considérablement augmenté. À l’origine de ces réclamations : les détenteurs de droits d’auteur qui exigent qu’un contenu soit supprimé d’un site internet, car il a été publié sans leur accord — il peut s’agir de textes, photos, de vidéos, ou de photos couverts par le droit d'auteur.

 

En 2008, le moteur de recherche recevait seulement quelques douzaines de demandes de takedown par an, mais aujourd’hui, il en traite en moyenne près de deux millions par jour. Mais pour quelle raison les chiffres ne cessent de gonfler ? Tout simplement parce que les détenteurs de droits d’auteur ont pris conscience de la gravité de la situation et exigent massivement des actions antipiratage plus strictes, fonctionnalités le plus souvent mises en place par les moteurs de recherche et autres intermédiaires. 

 

Les propriétaires de ces données volées n’hésitent plus à qualifier le système actuel de « système défaillant » puisque certaines demandes de retrait concernent des URL de sites web qui ont été fermés il y a plus d’un an, à l’image des sites Megaupload.com et BTJunkie.org.

 

Pour sa part, Google craint que l’augmentation graduelle de ces demandes puisse conduire à une augmentation d’erreurs. En effet, plus les demandes se font en grand nombre, plus la marge d’erreur est élevée, et plus le géant américain risque de sanctionner à tord. 

 

Une étude qui en dit long sur le respect des droits d’auteur sur le web 

 

Cette semaine, les chercheurs de l’Université de Columbia ont publié un rapport détaillé du régime de retrait en cours, qui permet d’analyser plus précisément les millions de demandes de retrait que Google reçoit chaque semaine.

 

Cependant, il convient de souligner que les recherches réalisées par les chercheurs de l’Assemblée américaine de l’Université de Columbia ont en partie été financées par Google, comme une volonté du géant d’améliorer la qualité des services qu’il propose.

 

Google a fourni ses données pour analyse à Lumen — un projet de recherche indépendant tiers créé pour analyser les demandes DMCA et autres plaintes formulées à l’encontre du contenu en ligne —, et les chercheurs ont examiné avec exactitude plus de 108 millions de demandes de retrait. La grande majorité de ces dernières étaient issues à 99,8 % de recherches web ciblées. 

 

Ils ont découvert que plus de 28 % des demandes formulées étaient invalides, car elles incriminaient du contenu qui n’était pas forcément détectable, ou alors déjà effacé. Cela inclut également le fait que dans 4,2 % des cas, l’intitulé des données volées ne figure pas directement dans l’URL signalée. Google supprimerait donc ainsi plus de contenus qu’il ne le devrait.

 

« Près d’un tiers des demandes de retrait (28,4 %) présentaient des caractéristiques qui ont soulevé de véritables questions sur leur validité, fondées uniquement sur l’examen et les comparaisons que nous avons pu mener », écrivent les chercheurs dans leur étude.

 

Et de poursuivre : « Les contenus considérés comme frauduleux par les robots des moteurs de recherches ne le sont pas toujours. Ce qui pousse à se demander à quel point leurs algorithmes automatisés peuvent être précis. La principale raison de notre étude est de pousser à revenir à un mode de fonctionnement antérieur, qui consiste à rendre les jugements de ces contenus ciblés plus humains ».

 

Dans une interview accordée à TorrentFreak, Joe Karaganis, coauteur du rapport et vice-président de l’Assemblée américaine de l’Université de Columbia, déclarait « les reports des robots sont parfois problématiques, car l’augmentation de leur volume rend l’examen humain quasi impraticable. » 

 

Des améliorations en vue ? 

 

Actuellement, la société Google répond favorablement à 97,5 % des demandes de retrait, ce qui signifie que la grande majorité des demandes pourtant considérées comme douteuses sont honorées.

 

« Étant donné le risque élevé de sanctions légales appliquées dans le cas où un service rejetterait une demande dite valable, la plupart sinon la totalité des demandes reçues sont acceptées », détaillent les chercheurs.

 

Ces derniers recommandent à Google de changer son algorithme de détection de contenus frauduleux, mais surtout de repenser la façon dont le processus de retrait actuel pourrait être amélioré. 

 

Google pourra bientôt mettre les résultats de cette étude à exécution puisque le gouvernement américain a récemment lancé une consultation publique pour évaluer l’efficacité de la sphère de sécurité des DMCA. Les problématiques abordées incluent les questions tournant autour des demandes de retrait automatiques mais aussi les abus potentiels.

 

(via TorrentFreak)