YouTube tient à rassurer les annonceurs avec de nouvelles mesures de modération. Le service est critiqué pour les nombreuses vidéos polémiques qu’il héberge.
Après de nombreuses critiques liées aux dérives de sa plate-forme, YouTube entend
redresser la barre. Le lundi 4 décembre, la directrice générale du service de Google, Susan Wojcicki a, dans une note de blog, rappelé les efforts de la plateforme vidéo en matière de modération. Elle annonce la constitution d’une équipe de 10.000 personnes assignées à cette tâche, d’ici 2018. Ces modérateurs seront chargés de repérer les contenus sensibles, polémiques ou violant les conditions d’utilisation de la plate-forme.
Ils entraîneront également les algorithmes développés par YouTube à repérer plus rapidement et plus efficacement les vidéos à supprimer. YouTube a pour habitude de
rester évasif quant à la constitution de telles équipes. Cette campagne de recrutement représenterait une hausse de 25% par rapport aux effectifs actuels, rapportent néanmoins plusieurs sources de BuzzFeed. Contacté par le Figaro, un représentant de YouTube indique que ces personnes seront toutes salariées par l’entreprise. Il précise qu’Alphabet, la holding de Google, compte 78.000 employés à travers le monde.
Des algorithmes performants mais faillibles
A la fin du mois de novembre, YouTube a fait les frais d’une large polémique sur le mauvais
contrôle de ses contenus pour et avec des enfants. 270 comptes d’utilisateurs et 150.000 vidéos problématiques ont été supprimés de ses pages. Le service a également retiré la possibilité d’afficher des publicités sur plus de 2 millions de contenus publiés par plus de 50.000 chaînes «faisant semblant de proposer des contenus pour les enfants», dont de nombreux détournements malsains de dessins animés. Fin novembre, plusieurs grandes marques telles que Mars et Lidl ont annoncé la suspension temporaire de leurs campagnes, après avoir constaté que leurs contenus étaient associés à des vidéos dérangeantes mettant en scène l’exploitation d’enfants.
La modération est un combat de longue haleine pour YouTube. Malgré les mesures prises ces dernières années pour reprendre la main sur les contenus violant ses conditions
d’utilisation, de nombreuses vidéos dégradantes, polémiques ou violentes passent encore à travers les mailles du filet. YouTube a notamment élaboré des algorithmes chargés de repérer plus rapidement de tels contenus. Ces derniers ne peuvent pour le moment se passer d’un regard humain, d’après Susan Wojcicki. «Il est essentiel, pour nous, d’avoir recours à des modérateurs humains pour retirer les contenus inappropriés et entraîner nos systèmes d’apprentissage automatique », insiste-t-elle