Pression sur le NIST pour définir les normes de l’Intelligence Artificielle
Le Institut National des Normes et de la Technologie (NIST) des États-Unis est dans le collimateur pour établir des normes dans le domaine de l’Intelligence Artificielle (IA). Cette demande survient à un moment où la recherche dans ce domaine en est encore à ses débuts. Les législateurs américains ont exprimé leur inquiétude face à ce qu’ils perçoivent comme un « désaccord significatif » entre les experts en IA sur la façon d’aborder, de mesurer et de définir les problèmes de sécurité liés à cette technologie. Ce désaccord, couplé à l’état actuel de la recherche sur la sécurité en IA, pose des défis importants pour le NIST.
Réponse du NIST et opinions des experts
Le NIST a confirmé la réception d’une lettre reflétant ces préoccupations et a assuré qu’il répondrait par les canaux appropriés. De plus, l’institut prend des mesures pour augmenter la transparence dans son processus, demandant des informations aux experts externes et aux entreprises sur les normes pour évaluer et tester les modèles d’IA.
Les préoccupations exprimées par les législateurs sont partagées par certains experts en IA. Rumman Chowdhury, PDG de Parity Consulting, soutient que le NIST a besoin de plus que des mandats et de bonnes intentions pour faire correctement son travail. Yacine Jernite, responsable de l’apprentissage automatique et de la société chez Hugging Face, souligne que les grandes entreprises technologiques disposent de beaucoup plus de ressources que le NIST. Margaret Mitchell, scientifique en chef de l’éthique chez Hugging Face, ajoute une autre couche de complexité au problème : le secret croissant autour des modèles commerciaux d’IA rend difficile la mesure pour une organisation comme le NIST.
Initiatives gouvernementales et collaboration avec les entreprises technologiques
Dans ce contexte, la Maison Blanche a émis un décret demandant au NIST d’accomplir plusieurs tâches, y compris la création d’un nouvel Institut de Sécurité en Intelligence Artificielle. De plus, en avril, une force de tâche britannique centrée sur la sécurité de l’IA a été annoncée, dotée d’un financement initial de 126 millions de dollars.
Le décret fixe également un délai agressif pour que le NIST développe des directives pour évaluer les modèles d’IA, des principes pour tester ces modèles et un plan pour que les nations alliées des États-Unis acceptent les normes du NIST.
Bien que l’on ne sache pas exactement comment le NIST interagit avec les grandes entreprises technologiques, on sait que des entreprises comme Microsoft et Anthropic, ainsi que des organisations comme Partnership on AI et Future of Life Institute, ont participé à des discussions sur le cadre de gestion des risques du NIST.
En conclusion, le NIST est confronté à une tâche monumentale et complexe dans un domaine qui évolue encore rapidement. La pression pour définir les normes de l’IA est forte, mais il en va de même pour la nécessité de le faire correctement et avec suffisamment de transparence.
Sarah est non seulement une experte en marketing digital, mais aussi une créatrice de contenu avec une grande expérience dans le domaine. Diplômée en Sociologie de l'Université de Barcelone et ayant un post-diplôme en Marketing Digital de l'Inesdi, Sarah a réussi à se distinguer en tant que Directrice de Marketing Digital. Sa connaissance approfondie des tendances digitales et sa capacité à identifier des opportunités de croissance ont été fondamentales pour le succès de nombreuses campagnes. De plus, elle donne des cours et des conférences dans des écoles de commerce prestigieuses, des universités et des événements, partageant ses connaissances et expériences avec d'autres professionnels et étudiants.
Cette entrée est également disponible dans : Español Português