Du "machine learning" pour trouver les multiples exemples d'une même fausse information, c'est ce à quoi travaille Facebook qui veut tacler le "reach" – et donc au final le porte-monnaie – des pages qui diffusent des "hoaxes" sur la plateforme.
© Thought Catalog / Unsplash / Creative Commons
La guerre de Facebook contre les fausses informations propagées sur sa plateforme se poursuit. BuzzFeed a rapporté jeudi 21 juin que le réseau social américain vient de déployer du machine learning pour identifier les pages qui partagent de fausses informations afin de gagner de l'argent, et réduire leur reach, à savoir le nombre de personnes que chaque publication peut atteindre.
Selon BuzzFeed, "cette approche vise spécifiquement des acteurs comme les désormais fameux Macédoniens qui géraient des pages sur la politique américaine et qui ciblaient des Américains en leur mettant de fausses informations sous le nez pendant l'élection présidentielle américaine 2016".
Facebook a donné un peu plus de détails dans la foulée. Sur son blog, le réseau social donne l'exemple d'une journaliste française de 20 Minutes qui a débunké les affirmations de sites qui assuraient que percer les doigts d’une personne souffrant d’un accident vasculaire cérébral permettait de la sauver. Facebook assure que le machine learning lui a ensuite permis "d'identifier 20 domaines, et plus de 1 400 liens partageant la même fausse information".
Cette idée de pouvoir modérer le contenu posté sur une plateforme grâce à l'intelligence artificielle ou du machine learning n'est pas vraiment nouvelle. Gizmodo rappelle que Facebook et YouTube ont déjà émis cette idée pour détecter des contenus terroristes, pédophiles, contenant de fausses informations ou des propos haineux. Mais le site spécialisé précise que si cette technique n'a pas été mise en place plus tôt, c'est parce que même dans les exemples les plus explicites, "cette technologie n'est tout simplement pas à la hauteur pour l'immense quantité de contenus mis en ligne sur la plateforme, et il reste des inquiétudes quant à la transmission de ce pouvoir à l'automatisation – que se passe-t-il si une page est signalée par erreur ?"
Facebook reconnaît lui-même que sa méthode n'est pas infaillible et qu'il pourrait bien y avoir des faux-positifs. Ce qui pourrait faire mal aux pages concernées qui verraient leur reach baisser.
Quant aux pages qui partagent intentionnellement ces hoaxes, elles peuvent regagner leur reach en arrêtant de partager de fausses informations. La carotte et le bâton moderne en somme.