Un algorithme traque le troll avant même qu’il ne se dévoile

Si le troll, cet animal branché qui pourrit l’ambiance numérique avec ses commentaires acides, violents et déplacés, n’arrive pas à se contrôler, la machine et les réseaux qu'il utilise pourraient, eux, en venir à bout, en l’empêchant de faire éclore son fiel.
Une équipe de chercheurs des universités Cornell et Stanford aux États-Unis vient en effet de mettre au point un algorithme capable d’identifier un troll, dans les univers numériques, avant même qu’il ne frappe. Comment? Par l’analyse fine des cinq premiers messages qu’il y laisse. De la prescience mise au service du civisme 2.0, quoi, avec un taux de succès de 80 %, indiquent les auteurs d’une recherche intitulée «Antisocial Behavior in Online Discussion Communities» (Comportement antisocial dans les groupes de discussion en ligne) et qui vient d’être pré-publiée.
Pendant 18 mois, l’équipe, composée de spécialistes en science de l'informatique, a passé au crible 35 millions de commentaires laissés par 2 millions d’internautes sur les sites d’information CNN et Breitbart, ainsi que sur l’espace pour «geeks» IGN. En concentrant le regard sur les contributions de ceux qui ont fini par se faire exclure de ces cercles de socialisation et d’affirmation de soi par le commentaire, pour cause de violence textuelle, les chercheurs ont réussi à percer la mécanique du troll et surtout à développer son algorithme d’identification de l’obscène personnage.
«Ces internautes ont tendance à tirer tous sur les mêmes ficelles [rhétoriques et discursives], peut-on lire. Ils sont plus susceptibles d’émettre des propos hors sujet, écrivent beaucoup plus mal que les autres et se retrouvent rapidement de moins en moins tolérés dans la communauté en ligne qu’ils fréquentent».
Des travaux antérieurs, relatés dans le papier scientifique, ont montré que ces trolls adoptent d’ailleurs des «conventions linguistiques» tout comme un jargon particulier et partagé qui finissent par devenir des marqueurs permettant de les identifier. Par ailleurs, le troll a tendance à accentuer sa radicalisation en ligne au contact d’un modérateur trop sévère, résument les auteurs de la recherche.
Sur la base de ces données, les chercheurs ont donc mis au point un modèle prédictif qui, par la simple lecture automatique des commentaires laissés sur un site Internet, permet de mettre la main au collet du candidat au dérapage antisocial, avant même qu’il ne dépasse les bornes. Et ce, avec succès 4 fois sur 5.
L’algorithme fait d’ailleurs tomber le masque au bout de cinq commentaires, retournant par le fait même l’arrosoir sur l’arroseur trahi par cette technologie qui, avec la distance qu’elle offre et l’instantanéité qu’elle cultive, permet depuis des années la triste prolifération du troll.
Une équipe de chercheurs des universités Cornell et Stanford aux États-Unis vient en effet de mettre au point un algorithme capable d’identifier un troll, dans les univers numériques, avant même qu’il ne frappe. Comment? Par l’analyse fine des cinq premiers messages qu’il y laisse. De la prescience mise au service du civisme 2.0, quoi, avec un taux de succès de 80 %, indiquent les auteurs d’une recherche intitulée «Antisocial Behavior in Online Discussion Communities» (Comportement antisocial dans les groupes de discussion en ligne) et qui vient d’être pré-publiée.
Pendant 18 mois, l’équipe, composée de spécialistes en science de l'informatique, a passé au crible 35 millions de commentaires laissés par 2 millions d’internautes sur les sites d’information CNN et Breitbart, ainsi que sur l’espace pour «geeks» IGN. En concentrant le regard sur les contributions de ceux qui ont fini par se faire exclure de ces cercles de socialisation et d’affirmation de soi par le commentaire, pour cause de violence textuelle, les chercheurs ont réussi à percer la mécanique du troll et surtout à développer son algorithme d’identification de l’obscène personnage.
«Ces internautes ont tendance à tirer tous sur les mêmes ficelles [rhétoriques et discursives], peut-on lire. Ils sont plus susceptibles d’émettre des propos hors sujet, écrivent beaucoup plus mal que les autres et se retrouvent rapidement de moins en moins tolérés dans la communauté en ligne qu’ils fréquentent».
Des travaux antérieurs, relatés dans le papier scientifique, ont montré que ces trolls adoptent d’ailleurs des «conventions linguistiques» tout comme un jargon particulier et partagé qui finissent par devenir des marqueurs permettant de les identifier. Par ailleurs, le troll a tendance à accentuer sa radicalisation en ligne au contact d’un modérateur trop sévère, résument les auteurs de la recherche.
Sur la base de ces données, les chercheurs ont donc mis au point un modèle prédictif qui, par la simple lecture automatique des commentaires laissés sur un site Internet, permet de mettre la main au collet du candidat au dérapage antisocial, avant même qu’il ne dépasse les bornes. Et ce, avec succès 4 fois sur 5.
L’algorithme fait d’ailleurs tomber le masque au bout de cinq commentaires, retournant par le fait même l’arrosoir sur l’arroseur trahi par cette technologie qui, avec la distance qu’elle offre et l’instantanéité qu’elle cultive, permet depuis des années la triste prolifération du troll.