Dépassant l’Humain : Le Système d’Intelligence Artificielle de Google qui Révolutionne la Vérification des Faits

L’IA surpasse les humains dans la vérification des faits

Une étude récente de DeepMind, la division de recherche de Google, a découvert qu’un système d’intelligence artificielle (IA) peut surpasser les vérificateurs de faits humains dans l’évaluation de l’exactitude des informations générées par de grands modèles de langage. Cette découverte, qui pourrait avoir un impact significatif dans la lutte contre la désinformation, a suscité un large débat dans la communauté scientifique.

Le système, connu sous le nom de Search-Augmented Factuality Evaluator (SAFE), utilise un grand modèle de langage pour décomposer le texte généré en faits individuels. Par la suite, il utilise les résultats de la recherche Google pour déterminer l’exactitude de chaque affirmation. Cette approche innovante permet à SAFE d’évaluer la véracité des informations de manière plus efficace et précise que les méthodes traditionnelles de vérification des faits.

Performance ‘surhumaine’ et économies de coûts

Dans un ensemble de données d’environ 16 000 faits, SAFE a coïncidé avec les évaluations humaines 72% du temps. Cependant, dans un échantillon de 100 désaccords entre SAFE et les évaluateurs humains, le jugement de SAFE était correct dans 76% des cas. Cette performance ‘surhumaine’ a suscité un débat autour du terme «surhumain» utilisé dans l’étude, certains arguant qu’il pourrait être trompeur.

En plus de sa performance supérieure, SAFE est également nettement moins cher que les vérificateurs de faits humains, étant environ 20 fois moins cher. Cette économie de coûts, combinée à sa haute précision, fait de SAFE un outil précieux pour évaluer l’exactitude factuelle des modèles de langage. En fait, il a été utilisé pour évaluer 13 principaux modèles de langage, constatant que les modèles les plus grands produisent généralement moins d’erreurs factuelles.

Besoin de transparence et de développement rigoureux

Néanmoins, l’étude souligne également le besoin d’une plus grande transparence autour des bases humaines utilisées. Comprendre les détails spécifiques du processus et les antécédents des travailleurs de la foule est essentiel pour évaluer les capacités de SAFE dans le contexte approprié.

Les outils de vérification automatique des faits comme SAFE pourraient jouer un rôle clé dans l’atténuation des risques d’informations inexactes générées par les modèles de langage. Cependant, un développement transparent et rigoureux de ces technologies avec les contributions d’une large gamme de parties prenantes est essentiel. Dans un monde de plus en plus numérique, l’importance de la vérification automatique des faits dans la lutte contre la désinformation ne peut être sous-estimée.

Sarah est non seulement une experte en marketing digital, mais aussi une créatrice de contenu avec une grande expérience dans le domaine. Diplômée en Sociologie de l'Université de Barcelone et ayant un post-diplôme en Marketing Digital de l'Inesdi, Sarah a réussi à se distinguer en tant que Directrice de Marketing Digital. Sa connaissance approfondie des tendances digitales et sa capacité à identifier des opportunités de croissance ont été fondamentales pour le succès de nombreuses campagnes. De plus, elle donne des cours et des conférences dans des écoles de commerce prestigieuses, des universités et des événements, partageant ses connaissances et expériences avec d'autres professionnels et étudiants.

Cette entrée est également disponible dans : Español Português

Laisser un Comentarioaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *