Vous ne pouvez pas tout faire confiance sur un , c’est pourquoi il est important de vous référer aux sources originales citées dans les notes de bas de page. Mais parfois, même les sources primaires le peuvent. Les chercheurs ont développé une IA axée sur des références Wikipédia en entraînant les algorithmes à identifier les citations douteuses sur le site Web.
Le programme, appelé SIDE, fait deux choses : vérifier si une source principale est exacte et en suggérer de nouvelles. Cependant, l’IA part du principe qu’une affirmation de Wikipédia est vraie. Cela signifie que, même s’il peut vérifier la validité d’une source, il ne peut pas réellement vérifier les affirmations formulées dans une entrée.
Dans un les gens préféraient les citations suggérées par l’IA aux citations originales dans 70 % des cas. Les chercheurs ont constaté que dans près de 50 % des cas, SIDE présentait une source déjà utilisée par Wikipédia comme référence principale. Et dans 21 % des cas, SIDE avait une longueur d’avance en formulant une recommandation déjà jugée appropriée par les annotateurs humains de l’étude.
Bien que l’IA semble démontrer qu’elle peut efficacement aider un éditeur à vérifier les affirmations de Wikipédia, les chercheurs admettent que des programmes alternatifs pourraient surpasser leur conception actuelle en termes de qualité et de rapidité. SIDE est limité dans ses capacités : le programme ne prend en compte que les références correspondant aux pages Web. En réalité, Wikipédia cite des livres, des articles scientifiques et des informations présentées via d’autres médias que le texte, comme les images et les vidéos. Mais au-delà de ses limites techniques, le principe même de Wikipédia est que n’importe quel écrivain, où qu’il soit, peut attribuer une référence à un sujet. Les chercheurs suggèrent que l’utilisation de Wikipédia elle-même pourrait limiter l’étude. Ils font allusion au fait que les personnes qui insèrent des citations sur le site Web pourraient insuffler des préjugés en fonction de la nature des sujets en question.
En attendant, nous savons tous que tout programme, en particulier une IA qui dépend de la formation, pourrait être sujet à l’exposition du . Les données utilisées pour former et évaluer les modèles de SIDE pourraient être limitées à cet égard. Néanmoins, les avantages de l’utilisation de l’IA pour rationaliser la vérification des faits, ou du moins de l’utiliser comme outil d’assistance, pourraient avoir des répercussions ailleurs. Wikipédia et devons faire face à de mauvais acteurs et à des robots qui inondent les places publiques numériques de fausses informations. Cela est particulièrement vrai et important aujourd’hui plus que jamais, à la suite de la désinformation qui se propage aux États-Unis et aux États-Unis. La nécessité d’atténuer la désinformation en ligne pourrait être catalysée par des outils d’IA, comme SIDE, conçus précisément dans ce but. Mais il reste encore quelques progrès à réaliser avant que cela ne soit possible.