Actualités / Jeux

Riot Games et Ubisoft s’associent dans un projet de recherche sur l’IA – utilisant les journaux de discussion des joueurs comme données d’entraînement

Riot Games et Ubisoft s'associent dans un projet de recherche sur l'IA - utilisant les journaux de discussion des joueurs comme données d'entraînement

Ubisoft et Riot collaborent sur un projet de recherche anti-toxicité, qui se concentrera sur la collecte de journaux de discussion dans le jeu en tant que données de formation pour les algorithmes d’IA. Les deux sociétés devraient publier leurs conclusions à partir de ces données l’été prochain, date à laquelle les prochaines étapes seront décidées.

Me parlant via un appel Zoom, Wesley Kerr, directeur de la recherche technologique chez Riot, et Yves Jacquier, directeur exécutif d’Ubisoft La Forge, ont tous deux partagé leurs objectifs et leurs espoirs à long terme pour le projet. Saluant comme le premier du genre en tant que collaboration de recherche ouverte dans le domaine de l’IA entre deux sociétés de jeux, ils espèrent que les enseignements publiés l’année prochaine seront la première étape de l’utilisation efficace de l’IA par l’industrie comme outil de réduction de la toxicité.

Pour une raison quelconque, les joueurs d’Udyr ont toujours été extrêmement toxiques lorsque je jouais beaucoup à League. Je me demande si c’est toujours vrai après sa refonte?

Selon Jacquier, le projet a trois objectifs principaux. Premièrement, créer un réseau d’ensembles de données partagés, rempli de données de joueurs entièrement anonymisées. La seconde, pour créer un algorithme d’IA qui peut fonctionner à partir de ces données. Enfin, pour que ce partenariat serve de « prototype » aux futures initiatives de l’industrie contre la toxicité, encourageant la concurrence et de nouvelles avancées dans le domaine.

Il est logique que Riot et Ubisoft soient deux sociétés investies dans la résolution de ce problème, si l’on considère ses titres multijoueurs populaires. Rainbow Six: Siege devient vraiment sale très vite dès que la coopération à l’échelle de l’équipe prend un coup, et les jumeaux troublés de Riot, League of Legends et Valorant, sont trempés dans un limon toxique.

Kerr et Jacquier ont tous deux souligné tout au long de l’interview que l’anonymat des joueurs et le respect des lois régionales et du RGPD figuraient parmi leurs principales priorités. Lorsqu’on lui a demandé si les données des joueurs étaient partagées entre les entreprises, Kerr a souligné que les informations de votre compte League of Legends ne seraient pas envoyées à d’autres entreprises sans le consentement du joueur. Au lieu de cela, les journaux de discussion seraient dépouillés des informations d’identification avant que les algorithmes ne puissent les sélectionner et les exploiter.

Le problème le plus immédiat qui vient à l’esprit lorsque vous entendez parler de la toxicité de l’IA est la persévérance des joueurs, déterminés à vous faire savoir à quel point vous êtes nul. L’invention de nouveaux mots, un lexique de langage trash en mutation, évolue constamment au sein des communautés en ligne. Comment une IA pourrait-elle répondre à cela ? L’astuce, selon Jacquier, est de ne pas se fier au dictionnaire et aux sources de données statiques. D’où l’intérêt d’utiliser les journaux de discussion actuels des joueurs, qui reflètent la méta de toxicité actuelle.

Ensuite, il y a l’autre préoccupation des ratés, en particulier dans un milieu où les plaisanteries amicales entre amis, des coéquipiers aléatoires et même des joueurs ennemis peuvent faire partie de l’expérience. Si je joue sur la voie du haut dans League of Legends et que j’écris “bon ami CS” à mon adversaire de la voie 0/3, c’est juste un peu de plaisanterie, n’est-ce pas ? S’ils me font la même chose, c’est revigorant. Cela me donne envie de gagner plus et améliore l’expérience. Comment une IA peut-elle déterminer la différence entre une véritable toxicité nocive et des plaisanteries ?

« C’est très difficile », déclare Jacquer. « Comprendre le contexte d’une discussion est l’une des parties les plus difficiles. Par exemple, si un joueur menace un autre joueur. Dans Rainbow Six, si un joueur dit “hé, je vais te sortir”, cela peut faire partie du fantasme. Alors que dans d’autres contextes, cela pourrait avoir une signification très différente. Kerr a suivi cela avec certains des avantages des jeux vidéo à cet égard, grâce à d’autres facteurs.

Selon lui, prendre en compte avec qui vous faites la queue est un exemple de facteur qui pourrait aider l’IA à déterminer la toxicité réelle des côtes amusantes. En théorie, vous ne seriez pas touché par des chiens errants si vous traitiez de merde votre meilleur ami de toujours dans un hall de la Ligue.

Quant à l’avenir, tous les regards sont tournés vers les résultats publiés l’an prochain. Pour l’instant, il se concentre uniquement sur les journaux de discussion, mais Riot Games envisageant de surveiller les communications vocales dans Valorant, Kerr a refusé de le retirer de la table en tant que futur domaine de recherche si la collaboration se poursuit au-delà de 2023. Pour l’instant, c’est un plan. Première étape d’un long voyage, les deux sociétés semblent vouées au voyage. Alors que Kerr et Jacquier espèrent tous deux que le projet de recherche produira des résultats importants et inspirera d’autres entreprises à suivre la suite, ils ne croient pas que l’IA soit l’alpha et l’oméga de la modération de la toxicité.

« L’IA est un outil, mais ce n’est pas une solution miracle. Il existe de nombreuses façons d’assurer la sécurité des joueurs, donc l’idée est de mieux comprendre comment cet outil peut être utilisé au mieux pour lutter contre les contenus préjudiciables.”

En fin de compte, cette recherche n’est qu’un élément d’un effort plus large, mais dans l’esprit de Jacquier et de Kerr, un élément qui, espérons-le, s’avérera essentiel à l’avenir. Seul le temps dira s’ils ont raison, s’ils peuvent tenir leur promesse que la vie privée des joueurs sera respectée et si l’IA est vraiment la prochaine frontière dans la bataille contre la toxicité.