Éviter l’extinction humaine : Des experts en IA proposent des mesures préventives face aux risques extrêmes dans le développement de l’intelligence artificielle
Evaluation précoce et pause du développement si nécessaire, parmi les propositions pour éviter la manipulation humaine, l’accès aux armes et l’exploitation des vulnérabilités cybernétiques.
Un groupe de leaders technologiques et d’experts en intelligence artificielle (IA) a récemment publié une lettre ouverte exhortant les entreprises qui développent cette technologie à prendre des mesures préventives face aux éventuels risques extrêmes que pourrait entraîner son utilisation. Parmi ces dangers figurent la manipulation et la tromperie des êtres humains, un accès inapproprié aux armes ou l’exploitation de vulnérabilités cybernétiques.
Les chercheurs, provenant de diverses universités et institutions internationales, suggèrent qu’il est fondamental d’évaluer ces risques dès les premières étapes du processus de développement. S’ils identifient des menaces significatives, ils recommandent de suspendre l’avancement jusqu’à ce qu’elles puissent être correctement atténuées.
Détection précoce et tests spécifiques pour prévenir les dommages irréparables
Toby Shevlane, scientifique chercheur chez DeepMind et auteur principal de l’article publié avec la lettre ouverte, souligne la responsabilité que les entreprises leaders en IA ont à détecter les problèmes émergents avant qu’ils ne causent des dommages irréparables. « Les entreprises doivent être vigilantes face à tout signe inquiétant », affirme Shevlane.
Une proposition présentée par les experts consiste à réaliser des tests techniques spécifiques pour explorer des capacités potentiellement dangereuses au sein des modèles développés. Un exemple mentionné est le jeu « Make-me-say », qui permet d’évaluer si un modèle d’IA est capable de manipuler des personnes en leur faisant dire ou faire des choses contre leur volonté.
Promotion de la transparence et collaboration avec auditeurs externes et chercheurs indépendants
De plus, les chercheurs suggèrent la création d’un panneau d’information où seraient affichés les résultats obtenus lors des tests effectués sur chaque modèle. De cette façon, tant les développeurs que les utilisateurs pourraient évaluer quelles actions le système pourrait entreprendre entre de mauvaises mains et prendre des décisions informées à ce sujet.
Une autre mesure proposée est d’impliquer des auditeurs externes et des chercheurs indépendants pour évaluer les risques avant et après le déploiement du modèle. Cependant, il y a un débat sur l’accès que ces acteurs externes devraient avoir aux informations sensibles liées au développement et au fonctionnement de l’IA.
Vers une intelligence artificielle éthique et responsable : garantir des bénéfices sans mettre en danger notre sécurité et notre bien-être
La lettre ouverte représente un appel urgent de la part d’experts dans le domaine technologique pour garantir que l’intelligence artificielle soit développée selon des paramètres éthiques et responsables. Ce n’est qu’ainsi que nous pourrons assurer que ses avantages soient exploités sans mettre en danger notre sécurité et notre bien-être.
Sarah est non seulement une experte en marketing digital, mais aussi une créatrice de contenu avec une grande expérience dans le domaine. Diplômée en Sociologie de l'Université de Barcelone et ayant un post-diplôme en Marketing Digital de l'Inesdi, Sarah a réussi à se distinguer en tant que Directrice de Marketing Digital. Sa connaissance approfondie des tendances digitales et sa capacité à identifier des opportunités de croissance ont été fondamentales pour le succès de nombreuses campagnes. De plus, elle donne des cours et des conférences dans des écoles de commerce prestigieuses, des universités et des événements, partageant ses connaissances et expériences avec d'autres professionnels et étudiants.
Cette entrée est également disponible dans : Español Português