Le contexte : La grande majorité de la modération de Facebook se fait maintenant automatiquement par les systèmes d’apprentissage machine de l’entreprise, réduisant ainsi la quantité de contenu pénible que ses modérateurs doivent réviser. Dans son dernier rapport sur l’application des normes communautaires, publié plus tôt ce mois-ci, l’entreprise affirme que 98 % des vidéos et des photos de terroristes sont retirées avant que quiconque ait eu la chance de les voir et encore moins de les signaler.

L’entreprise a formé ses systèmes d’apprentissage machine pour identifier et étiqueter des objets dans des vidéos – des objets banals, comme les vases ou les personnes, aux objets dangereux, comme les armes à feu ou les couteaux. L’IA de Facebook utilise deux approches principales pour rechercher les contenus dangereux. L’une consiste à utiliser des réseaux neuronaux qui recherchent les caractéristiques et les comportements d’objets connus et les étiquettent avec différents pourcentages de confiance.

Formation en cours

Ces réseaux neuronaux sont formés sur une combinaison de vidéos pré-étiquetées par ses examinateurs humains, de rapports d’utilisateurs et bientôt, de vidéos prises par la police métropolitaine de Londres. Les réseaux neuronaux sont capables d’utiliser ces informations pour deviner ce que la scène entière pourrait montrer, et si elle contient un comportement ou des images qui devraient être marquées. Elle a donné plus de détails sur le fonctionnement de ses systèmes lors d’un point de presse cette semaine.

Si le système décide qu’un fichier vidéo contient des images ou des comportements problématiques, il peut le supprimer automatiquement ou l’envoyer à un réviseur de contenu humain. S’il enfreint les règles, Facebook peut alors créer une chaîne unique de chiffres – pour le signaler et le propager dans tout le système afin que les autres contenus correspondants soient automatiquement supprimés si quelqu’un tente de le retélécharger. Ces chaines de chiffres peuvent être partagées avec d’autres entreprises de médias sociaux afin qu’elles puissent également prendre des copies du fichier en question.

“Ces vidéos nous sont incroyablement utiles. Les événements terroristes sont rares, heureusement, mais cela signifie que la quantité de données d’entraînement est si petite“, a déclaré Nicola Bortignon, directeur technique, lors d’un appel.

Un point faible

Facebook lutte toujours pour automatiser sa compréhension du sens, des nuances et du contexte du langage. C’est pourquoi l’entreprise compte sur les gens pour signaler la très grande majorité des cas d’intimidation et de harcèlement qui enfreignent ses règles : seulement 16 % de ces postes sont identifiés par ses systèmes automatisés. Au fur et à mesure que la technologie progresse, on peut s’attendre à voir ce chiffre augmenter. Cependant, l’un des plus grands défis de l’intelligence artificielle demeure la compréhension de la langue.

En mars, un terroriste a tué 49 personnes dans deux mosquées de Christchurch, en Nouvelle-Zélande. Il a diffusé le massacre en direct sur Facebook, et des vidéos ont circulé sur le site pendant des mois après. C’était un signal d’alarme pour l’industrie. Si cela se reproduisait maintenant, il y a de meilleures chances qu’il soit capturé et retiré plus rapidement.