Fandom améliore la sécurité communautaire et réduit les coûts de 50 % grâce à Coactive AI
Découvrez comment Coactive AI a aidé Fandom à catégoriser et à filtrer les images, réduisant ainsi de 74 % les heures consacrées à la modération de contenu.
Soutien à la clientèle exceptionnel! Ils sont allés au-delà pour m'aider à résoudre mon problème. Je me sentais valorisé en tant que client, et leur engagement à assurer ma satisfaction a laissé une impression durable.
À propos de Fandom
Fandom est la plus grande plateforme de fans au monde, où les fans se plongent dans des mondes imaginaires à travers le divertissement et les jeux vidéo. Attirant plus de 350 millions de visiteurs uniques par mois et accueillant plus de 300 000 wikis, Fandom est la source #1 d'informations approfondies sur la culture pop, les jeux vidéo, la télévision et le cinéma, où les fans découvrent et célèbrent leurs fandoms préférés. La division Gaming de Fandom gère le détaillant de jeux vidéo en ligne Fanatical.
Fandom Productions, la branche de contenu de Fandom, améliore l'expérience des fans grâce à une couverture éditoriale organisée et à un contenu de marque provenant de marques d'édition reconnues et reconnues Gamespot, TV Guide et Metacritic, ainsi que ses bande-annonces Honest nommées aux Emmy Amis
Possibilité:
De Westeros à Ponyville : Accepter la quête pour améliorer l'expérience des fans
Fandom est la plus grande plateforme de fans au monde, atteignant 350 millions de fans dans le monde chaque mois. De Game of Thrones à My Little Pony, la mission de Fandom est de favoriser l'expérience des fans en fournissant aux fans la plus grande bibliothèque en ligne d'informations sur tout ce qui touche le divertissement, les jeux et la culture pop. Fandom sert trois types de clients uniques, chacun ayant des expériences différentes liées à la plateforme :
- Utilisateurs qui recherche d'informations
- Superfans rédacteurs cherchant à créer du contenu
- Annonceurs tentant de séduire les fans
Des centaines de millions de visiteurs interagissent avec Fandom chaque mois, ce qui signifie des centaines de millions de possibilités pour ces utilisateurs de télécharger du nouveau contenu pour améliorer les pages, ou les wikis, qui les intéressent. Bien que la plupart des images soient téléchargées avec de bonnes intentions, environ 0,5 % des 2,2 millions d'images téléchargées chaque mois sont malveillantes et enfreignent les conditions d'utilisation de Fandom. Compte tenu de l'échelle importante, ce faible pourcentage entraîne des coûts élevés pour l'examen manuel de chaque image.
Avec des dizaines de millions d'images téléchargées chaque année, il est devenu difficile pour l'équipe de Fandom Trust and Safety de modérer personnellement chaque image. Fandom a embauché des entrepreneurs pour l'aider dans le processus de modération manuelle des images, qui prenait environ 500 heures par semaine, une dépense coûteuse qui s'ajoutait à un processus déjà exigeant.
L'équipe avait besoin d'une solution qui automatiserait la modération visuelle du contenu, non seulement pour assurer la confiance continue des utilisateurs de Fandom, mais aussi la sécurité de la communauté et les possibilités de publicité.
Solution:
Gérer les méfaits et combattre les trolls avec Coactive AI
L'équipe de Fandom avait entendu parler de Coactive AI et a fait une plongée approfondie pour en apprendre davantage sur ses capacités. Coactive est une plateforme qui exploite la valeur des données vidéo et d'images pour des cas d'utilisation critiques dans la recherche, le marquage et l'analyse grâce à l'intelligence artificielle (IA) multimodale. Coactive a travaillé avec Fandom sur une preuve de concept (POC) pour discuter des façons dont la plateforme pourrait l'aider à assurer la sécurité des utilisateurs.
« Nous avons lancé le processus de POC au début de 2023 et après seulement quelques mois de tests, nous en avons vu la valeur », a déclaré Florent Blachot, vice-président des données chez Fandom. « L'équipe de Coactive nous a livré une solution en seulement six semaines. Nous avons reconnu que le retour sur investissement de cette plateforme était très bon et que le potentiel pour l'avenir ne se limite pas à la sécurité des utilisateurs, mais bien au-delà.
Dans un premier temps, l'équipe de Fandom a créé environ 20 millions d'images problématiques et les a classées en 25 étiquettes nuancées, telles que « gore », « nudité » ou « armes », par exemple. À partir de là, Coactive a créé des modèles d'apprentissage automatique légers et les a affinés pour créer un modèle de base puissant qui reconnaît les images offensantes. Chaque image reçoit une note comprise entre 1 et 100 pour déterminer dans quelle mesure elle s'insère dans son étiquette. Pour les images dont la note est supérieure ou égale à 90, Coactive les juge inappropriées et les retire de Fandom. Pour ceux qui obtiennent un score inférieur à 10, l'image est autorisée sur le site. Au milieu du spectre, l'équipe de modération du contenu examine manuellement les images entre 10 et 90 et les supprime ou les accepte. Cela aide les modèles à apprendre davantage les nuances entre des choses comme le gore avec du sang extraterrestre bleu et les fausses parties du corps.
Après un POC réussi, Fandom a intégré l'API Coactive dans sa pile pour opérationnaliser le processus de modération des images de bout en bout.
Résultat:
Donner plus de pouvoirs aux communautés de fans et affiner le processus en cours de route
Avec le nouveau processus de notation des images en place, les mauvaises images sont extraites des wikis en quelques secondes, et non en quelques heures. Blachot ajoute : « En moyenne, ce processus prend moins d'une demi-seconde. C'est beaucoup plus rapide que le système précédent, où certaines images pouvaient rester sur la page pendant 24 à 36 heures avant d'être supprimées. Et il évolues de manière élastique en fonction de la circulation et de la saisonnalité.
L'automatisation de la modération des images a non seulement permis à l'équipe de Fandom de gagner du temps, mais elle a également amélioré le moral, puisqu'elle ne passe plus des heures à passer des heures à passer des heures à passer au revue des images inquiétantes.
« Coactive nous permet de porter des jugements automatiques pour environ 90 % des images téléchargées sur Fandom. Cela nous permet à lui seul de réduire les coûts de 50 % et de réduire de 74 % le nombre d'heures passées à examiner les images à la main », a déclaré Blachot. « Auparavant, notre équipe et nos entrepreneurs passaient environ 500 heures par semaine à examiner la file d'attente. Il est maintenant réduit à 130 heures maximum. Cette solution réduit non seulement les coûts, mais elle a également des avantages supplémentaires pour la santé mentale, ce qui est inestimable.
Travailler avec Coactive pour peaufiner le processus est un effort continu. Fandom est unique en ce sens qu'une grande partie de son contenu est basé sur des domaines fictifs, de sorte que son contenu visuel ne correspond pas toujours à la solution de données du statu quo. Coactive travaille en étroite collaboration avec Fandom pour améliorer continuellement le processus de tri des images.
Quievryn a ajouté :
« Coactive a répondu à nos attentes les plus folles, et la première année a été un tel succès. Avec la deuxième année, nous prévoyons travailler sur nos processus de métadonnées et de référencement, et nous sommes impatients de les améliorer encore », a-t-il déclaré. « Une bonne plateforme n'est rien si vous n'avez pas de bonnes personnes pour la représenter. Et Coactive a des personnes formidables avec qui nous avons vraiment aimé travailler. »
Après un POC réussi, Fandom a intégré l'API Coactive dans sa pile pour opérationnaliser le processus de modération des images de bout en bout.
Download this Case Study
Coactive AI helps data teams extract insights from unstructured image and video data. It integrates visual data with familiar SQL and big data tools, using pre-trained models for trend analysis, content moderation, search, and mapping.