TENDANCES
Comparateur
- AUTO
Activision s’associe à Modulate pour utiliser de l’intelligence artificielle au niveau de Call of Duty et modérer les chats vocaux pendant les parties. L’idée est de repérer les joueurs toxiques.

ToxMod est le nom de l’IA utilisée pour détecter les discours haineux prononcés pendant les parties de Call of Duty. Cela repère également la discrimination et le harcèlement, le tout en temps réel.
La bêta de ToxMod est déjà en place en Amérique du Nord. C’est actif dans Call of Duty : Modern Warfare II et Call of Duty : Warzone. Une disponibilité dans les autres pays (sauf en Asie) suivra le 10 novembre avec la sortie de Call of Duty : Modern Warfare III, le nouvel opus de la franchise cette année.
Comment fonctionne ToxMod ? Bonne question, il n’y a pas malheureusement pas beaucoup de détails techniques. En effet, Modulate reste assez léger sur les détails. Il est seulement expliqué que l’IA fait un triage du chat vocal pour signaler les mauvais comportements, analyse les nuances de chaque conversation pour en déterminer la toxicité et permet aux modérateurs de répondre rapidement à chaque incident en fournissant un contexte pertinent et précis.
Que se passe-t-il exactement pour les joueurs toxiques détectés par l’IA ? Rien… pour l’instant du moins. Les modérateurs chez Activision vont malgré tout recevoir les signalements. À voir donc ce que Activision fera à l’avenir.
La fibre à 8 Gb/s s’installe progressivement dans le paysage des box internet en France avec déjà 10 millions de...
Disney et Lucasfilm ont confirmé le retour au cinéma de la version originale de Star Wars, épisode IV : Un nouvel espoir, tel...
La Russie poursuit son isolement numérique en interdisant l’accès à Snapchat, une décision qui s’ajoute à...
MédecinDirect, une plateforme de téléconsultations médicale, annonce avoir fait l’objet d’un piratage. Cette fuite...
Malgré une baisse historique de 35 % de l’audience des sites illégaux entre 2021 et 2025, l’Arcom entend intensifier sa lutte...