En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil afin d'améliorer la navigation sur le site, d'analyser l'utilisation du site et de contribuer à nos efforts de marketing. Voir notre Politique de confidentialité pour de plus amples renseignements.
Produit
July 19, 2024

Fandom améliore la sécurité communautaire et réduit les coûts de 50 % grâce à l'IA coactive

Découvrez comment la plus grande plateforme de fans au monde utilise l'IA pour automatiser la suppression de contenus offensants, en prenant un temps de suppression de 24 heures à quelques secondes seulement.
Bannière qui dit « Fandom améliore la sécurité communautaire et réduit les coûts de 50 % »

Opportunité

De Westeros à Ponyville : Accepter la quête pour améliorer l'expérience des fans

Fandom est la plus grande plateforme de fans au monde, atteignant 350 millions de fans à travers le monde chaque mois. De Game of Thrones à My Little Pony, la mission de Fandom est de favoriser l'expérience des fans en fournissant aux fans la plus grande bibliothèque en ligne d'informations sur tout et tout ce qui touche le divertissement, les jeux et la culture pop. Fandom sert trois types de clients uniques, chacun ayant des expériences différentes liées à la plateforme :

  • Utilisateurs à la recherche d'informations
  • Rédacteurs superfans cherchant à créer du contenu
  • Les annonceurs tentent de séduit les fans

Des centaines de millions de visiteurs interagissent avec Fandom chaque mois, ce qui signifie des centaines de millions de possibilités pour ces utilisateurs de télécharger du nouveau contenu pour améliorer les pages qui les intéressent. Bien que la plupart des images soient téléchargées avec de bonnes intentions, environ 0,5 % des 2,2 millions d'images téléchargées chaque mois sont malveillantes et enfreignent les conditions d'utilisation de Fandom. Compte tenu de l'échelle importante, ce faible pourcentage entraîne des coûts élevés pour l'examen manuel de chaque image.

Avec des dizaines de millions d'images téléchargées chaque année, il est devenu difficile pour l'équipe de Fandom Trust and Safety de modérer personnellement chaque image. Fandom a embauché des entrepreneurs pour l'aider dans le processus de modération manuelle des images, qui prenait environ 500 heures par semaine, une dépense coûteuse qui s'ajoutait à un processus déjà taxant.

L'équipe avait besoin d'une solution qui automatiserait la modération visuelle du contenu, non seulement pour assurer la confiance continue des utilisateurs de Fandom, mais aussi la sécurité de la communauté et les possibilités de publicité.

Faits saillants

  • 50 % d'économies
  • 500 heures d'étiquetage manuel par semaine réduites de 74 %
  • 2,2 millions d'images téléchargées par mois, dont 90 % sont automatiquement examinées
  • Solution livrée en 6 semaines

Solution

Gérer les méfaits et combattre les trolls avec l'IA coactive

L'équipe de Fandom avait entendu parler de l'IA coactive et a fait une plongée approfondie pour en apprendre davantage sur ses capacités. Les outils de recherche traditionnels se limitent à comprendre le contenu vidéo et image en fonction des métadonnées fournies, tandis que Coactive utilise l'IA multimodale pour comprendre le contenu réel d'un actif visuel de la même manière qu'un humain. Fandom a lancé une preuve de concept (POC) avec Coactive pour voir à quel point l'IA multimodale était bonne pour comprendre les nuances de sa vaste bibliothèque visuelle.

« Nous avons lancé le processus de POC au début de 2023. L'équipe de Coactive nous a livré une solution en seulement six semaines. Nous avons rapidement constaté de la valeur », a déclaré Florent Blachot, vice-président des données chez Fandom. Nous avons reconnu que le retour sur investissement de cette plateforme était très bon et que le potentiel pour l'avenir ne se limite pas à la sécurité des utilisateurs, mais bien au-delà de cela.

Pour le POC, l'équipe de Fandom a créé environ 20 millions d'images problématiques et les a classées en 25 étiquettes nuancées, telles que « gore », « nudité » ou « pornographie ». À partir de là, Coactive a utilisé un modèle de base qui reconnaît les images offensantes combinées à des réglages précis pour faire correspondre davantage les étiquettes aux images qui doivent être supprimées. Chaque image reçoit une note comprise entre 1 et 100 pour déterminer dans quelle mesure elle s'insère dans son étiquette :

  • 90 ans et plus — automatiquement jugés inappropriés
  • 10 à 90 — examen manuel par l'équipe de modération du contenu
  • Une image inférieure à 10 est autorisée sur le site

« Dans la nouvelle solution, notre microservice de revue d'images fait appel à l'une des API de Coactive pour la classification de l'IA par rapport à un ensemble de concepts définis par Fandom. Nous sommes en mesure de définir ces seuils manuellement via notre interface utilisateur personnalisée, que nous pouvons ajuster au besoin », explique Marcin Kostrzewski, ingénieur logiciel principal chez Fandom.

Le POC a été un succès, montrant que l'IA coactive était capable de catégoriser avec précision le contenu et de signaler efficacement ce qui était acceptable, qui enfreignait les termes de la communauté ou qui nécessitait un examen humain. Il a rendu opérationnel le processus de modération des images de bout en bout.

À propos de Fandom

Fandom est la plus grande plateforme de fans au monde, attirant plus de 350 millions de visiteurs par mois dans le divertissement et les jeux vidéo. Accueillant plus de 300 000 wikis, Fandom est la source #1 d'informations approfondies sur la culture pop, les jeux vidéo, la télévision et le cinéma, où les fans apprennent et célèbrent leurs fandoms préférés. Sa division Gaming gère le détaillant de jeux vidéo en ligne Fanatical. Fandom Productions améliore l'expérience des fans avec une couverture éditoriale organisée et du contenu de marque provenant de Gamespot, TV Guide, Metacritic et Honest Trailers nominés aux Emmy Amis.