Le leader de la diffusion de parties de jeux vidéo en direct peine depuis des mois à endiguer une vague de harcèlement raciste et homophobe, qui consiste en des "raids de haine" contre certains créateurs, notamment des personnes non blanches ou de la communauté LGBTQ.

Les harceleurs viennent sur les fenêtres de chat de leurs victimes, et les inondent d'insultes ou d'images choquantes, comme des croix gammées quand le joueur est juif, par exemple. Si le créateur les bannit, certains reviennent en créant un nouveau compte.

Contenu Sponsorisé
 
 
 
 
 
 

Machine learning

Le nouvel outil, baptisé "Suspicious User Detection", "est là pour vous aider à identifier ces utilisateurs en fonction de certains signaux [...] pour que vous puissiez prendre des mesures", a indiqué Twitch dans un communiqué.

Ce programme, fondé sur des techniques dites de "machine learning" (apprentissage automatisé des logiciels, une catégorie d'intelligence artificielle), distinguera les fraudeurs "probables" et "possibles". Dans le premier cas, leurs messages n'apparaîtront pas en public, seul le joueur et ses modérateurs les verront. A charge à eux de décider ensuite de les surveiller ou de les bannir.

"Aucun système de machine learning n'est fiable à 100%", précise cependant Twitch.

La plateforme appartient au géant des technologies Amazon, qui domine largement l'industrie mondiale du cloud (informatique à distance). Elle affirme accueillir plus de 30 millions de visiteurs par jour.