Ironiquement et malgré les problèmes de harcèlement en interne au sein de la société Ubisoft et au sein de la société Riot, les deux entreprises s'allient pour lutter contre ce type d'agression en ligne qui pourrit la vie de nombreux joueuses et joueurs. Le projet en commun se nomme "Zero Harm in Comms"et il consiste à mettre en place une IA capable de détecter les comportements toxiques dans les jeux en ligne afin de prévenir les autorités compétentes.

Une IA pour Ubisoft et Riot

Les deux mastodontes du jeu vidéo, Ubisoft et Riot Games annoncent le lancement du projet qui doit aboutir à une modération automatique par l'intelligence artificielle de tous les commentaires blessants ou choquants sur les jeux en ligne. Cet outil aura pour objectif de trier les différents messages pour détecter les comportements déplacés. Reste à voir évidemment comment tout ceci va se mettre en place. Comme le précise Riot :

Avec le catalogue varié d'Ubisoft et les jeux très compétitifs de Riot, la base de données créée par ce partenariat devrait couvrir un large éventail de joueurs et de cas, pour mieux former les systèmes à intelligence artificielle à détecter et régler les comportements nuisibles.

Les jeux devenant chaque année plus populaires dans le monde, l'échelle de ce défi croît au même rythme. Voilà pourquoi Riot investit dans des systèmes à IA pour détecter automatiquement les comportements nocifs et faire éclore des communautés plus positives dans tous nos jeux.

Avec ce projet de recherche en commun,, les deux acteurs (Ubisoft et Riot) se disent prêts à partager leurs connaissances afin de régler le problème de toxicité dans les jeux en ligne. L'initiative est en tout cas très intéressante et on a forcément hâte d'en savoir un peu plus sur le sujet.