[Digital Business Africa] – Les modérateurs travaillant pour les géants du Web Google, Facebook et Twitter ont prévenu mardi 17 mars 2020 qu’ils allaient devoir s’appuyer sur les outils de modération automatiques gérés par Intelligence artificielle alors que leurs équipes sont en train de quitter leurs bureaux. Cela, soulignent-ils, risque d’occasionner davantage d’erreurs dans la décision de supprimer ou non certains contenus.
Dans un message posté sur son blog officiel, Google explique ainsi qu’il va devoir «temporairement» avoir davantage recours à l’intelligence artificielle sur YouTube «afin de réduire le nombre de personnes devaient se rendre dans nos bureaux». Mais, rappelle-t-il, «ces outils automatisés ne seront jamais aussi précis qu’une modération humaine. Nous les avons configurés de manière à ce qu’ils repèrent les contenus qui pourraient être en infraction avec notre règlement». Ces signalements sont en temps normal vérifiés par un modérateur.
Ce ne sera plus toujours le cas. L’IA prendra seule sa décision. Par conséquent, «on pourra assister sur YouTube à une recrudescence du nombre de contenus supprimés, dont certains qui ne violent aucunement nos règles», rapporte Siècle Digital. Les créateurs des vidéos pourront toujours faire une réclamation, «mais le temps de traitement sera plus lent que d’habitude». YouTube rappelle par ailleurs qu’il continuera à supprimer toute vidéo propageant de la désinformation sur le coronavirus.
Facebook a annoncé avoir recours à la même politique. Le réseau social dispose de ses propres modérateurs, mais fonctionne aussi avec de nombreux sous-traitants à travers le monde. «Tout au long de cette semaine, nous allons travailler avec ces partenaires pour faire en sorte que leurs salariés n’aillent plus au bureau et restent chez eux. Nous continuerons à les payer», même s’ils ne peuvent plus travailler, annonce-t-il.
Le réseau social semble plus confiant sur les effets secondaires du recours massif à l’IA: «nos investissements de ces trois dernières années sur ces technologies nous ont préparés à cette situation.» Mais Facebook reconnaît que «le temps de réaction pourrait être plus long et des erreurs pourraient en résulter.»
Twitter est plus direct. «Nous allons davantage nous appuyer sur les outils automatisés pour prendre des décisions sur les contenus dangereux ou trompeurs. Mais soyons clairs: ces outils ne comprennent pas toujours le contexte, contrairement à nos équipes, et cela peut conduire à des erreurs», écrit le réseau social sur son blog officiel.
Twitter a donc décidé «de pas supprimer automatiquement les comptes» repérés comme étant dangereux par l’intelligence artificielle. Le réseau social dit travailler à un moyen de concentrer les efforts de ses modérateurs humains «là où cela sera le plus efficace». Parmi les idées, instaurer une sorte de gare de triage des contenus problématiques, afin de les classer en fonction de l’urgence à les traiter.
Gaëlle Massang