Une Expérience qui Déclenche un Problème Technologique
Le géant technologique Microsoft a connu une situation sans précédent avec son moteur de recherche, Bing. L’incident a commencé lorsque Bing a cité un article inexistant du célèbre mathématicien et cryptographe Claude E. Shannon, une fausse information générée par deux chatbots. Cet événement souligne les défis auxquels les entreprises sont confrontées lors de la mise en œuvre de l’intelligence artificielle (IA) et comment celle-ci peut être manipulée pour diffuser des informations erronées.
Le problème remonte à une publication sur le blog de Daniel Griffin, récemment diplômé d’un doctorat en recherche web à l’Université de Californie, Berkeley. Griffin avait programmé deux chatbots pour résumer un article inexistant de Shannon. À sa surprise, il a découvert que sa publication avait « empoisonné » Bing avec de fausses informations.
Les Conséquences d’une Mauvaise Utilisation de l’Intelligence Artificielle
Les répercussions de cet incident ont été significatives. Bing a présenté les «hallucinations» des chatbots comme si elles étaient des faits réels, ce qui a amené Griffin à souligner qu’il n’y a aucune indication pour l’utilisateur que certains résultats proviennent de conversations avec de grands modèles de langage (LLMs). Cette expérience accidentelle montre comment la précipitation à mettre en œuvre l’IA peut causer des problèmes même aux entreprises les plus familiarisées avec la technologie.
Détecter automatiquement le texte généré par l’IA peut être un défi pour les moteurs de recherche. Cependant, Griffin suggère que Microsoft aurait pu mettre en place des mesures de protection de base, comme interdire que le texte des transcriptions de chatbot devienne un extrait en vedette. Cette mesure aurait pu empêcher Bing de citer l’article inexistant.
Réponse de Microsoft et Réflexions Finales
En réponse à l’incident, Microsoft a ajusté Bing pour éviter d’afficher du contenu de faible autorité. Caitlin Roulston, directrice des communications chez Microsoft, a déclaré que l’entreprise avait développé un processus pour identifier ces problèmes et ajustait les résultats en conséquence.
Cet incident souligne la nécessité d’une supervision et d’une régulation accrues dans l’utilisation de l’IA. Alors que les entreprises continuent de mettre en œuvre cette technologie à grande échelle, il est crucial d’établir des mesures préventives pour éviter la propagation de fausses informations et garantir l’intégrité des résultats de recherche.
Sandra est spécialiste en marketing digital et experte en réseaux sociaux. Elle a obtenu un post-diplôme en Communication et RP pour les marques de mode à Idep Barcelone, ainsi qu'un autre en Marketing et réputation en ligne : communautés virtuelles. Sandra est au courant des dernières tendances et des meilleures pratiques sur les réseaux sociaux, ce qui se reflète dans son travail quotidien en générant un impact positif dans le monde numérique.
Cette entrée est également disponible dans : Español Português