[Digital Business Africa] – Au lendemain du massacre de Christchurch, en Nouvelle-Zélande qui avait coûté la vie à 50 personnes et diffusé en direct sur Facebook, le réseau social américain annonce l’imposition des restrictions à sa fonctionnalité « Facebook Live ». Tout le monde a encore à l’esprit la diffusion le 15 mars 2019 en direct de ce massacre pendant de 17 minutes sans aucune interruption. L’objectif donc pour Facebook aujourd’hui est d’éviter qu’une telle diffusion se reproduise, surtout lorsqu’on sait que cette fonctionnalité a déjà été utilisée à plusieurs reprises pour retransmettre des meurtres, des suicides, des viols et des tortures. Et sa solution c’est de restreindre la fonctionnalité, Facebook live, notamment pour les personnes qui ont enfreint les règles de modération du réseau social.
Dans un communiqué publié le 15 mai 2019, Facebook ne précise pas concrètement quelles sont les règles de modération. Par contre, le réseau social donne quelques indices, « Par exemple, quelqu’un qui partage un lien vers un communiqué d’un groupe terroriste sans élément de contexte se verra immédiatement interdire l’utilisation de “Facebook Live” pour une période déterminée ». Cette période de suspension peut par exemple s’étendre sur une durée de 30 jours.
Immédiatement, des critiques ont été formulées à l’encontre de la mesure de Facebook. Par exemple, le fait que cette suspension n’est que temporaires. Bien plus la restriction ne concernera que les personnes qui ont déjà enfreint les règles de Facebook, et ne concernera pas toutes les personnes qui publieront ce type de contenus pour la première fois. Or, par expérience, des utilisateurs sont parvenus à publier des contenus criminels ou terroristes alors qu’ils n’avaient aucun antécédent.
Aussi, l’entreprise annonce son intention de limiter les copies de contenus haineux, de les supprimer systématiquement. Une initiative qui se heurtera aux copies modifiés par des cadrages, des ajouts de textes ou des extraits isolés des contenus haineux. Toutes modifications, qui rendent difficile la détection de ces contenus haineux ou terroristes par le système de Facebook. Pour pallier à cette difficulté, Facebook annonce des investissements dans la recherche, afin de pouvoir détecter automatiquement des copies modifiées des vidéos.
Ecrit par Jephté TCHEMEDIE