Nouvelles réglementations pour l’Intelligence Artificielle en Chine
Le Comité Technique de Normalisation de la Sécurité de l’Information Nationale de Chine (TC260) a présenté un projet avec des réglementations détaillées pour évaluer le problème potentiel des modèles d’Intelligence Artificielle (IA) générative. Ce document, qui établit des critères clairs et fournit des métriques spécifiques, est considéré par les experts comme le plus concret et spécifique en relation avec la régulation de l’IA générative.
Critères et Métriques pour l’IA Générative
Le projet de TC260 établit des critères clairs sur quand une source de données doit être interdite pour entraîner l’IA générative. Il fournit des mesures précises sur le nombre exact de mots-clés et de questions d’échantillon qui doivent être préparés pour tester un modèle. Matt Sheehan, expert en technologie mondiale, considère que c’est le document le plus concret et spécifique lié à la régulation de l’IA générative à ce jour.
Implications pour les Entreprises et Règles Spécifiques
Les implications pour les entreprises sont significatives. Le document fournit un guide sur comment se conformer aux régulations de l’IA générative et clarifie ce que les entreprises devraient considérer comme un «risque de sécurité» dans les modèles d’IA.
En ce qui concerne les règles spécifiques, il est souligné que tous les modèles fondamentaux d’IA sont actuellement entraînés sur de nombreux corpus (bases de données de texte et d’images), certains d’entre eux ayant des biais et du contenu non modéré. Les normes du TC260 exigent que les entreprises non seulement diversifient les corpus (en mélangeant langues et formats) mais aussi évaluent la qualité de tous leurs matériaux d’entraînement.
De plus, les entreprises doivent échantillonner aléatoirement 4 000 « pièces de données » d’une source. Si plus de 5% des données sont considérées comme « informations illégales et négatives », ce corpus doit être inclus dans la liste noire pour les futurs entraînements.
En résumé, le projet du TC260 représente une étape importante dans la régulation de l’IA générative. Il fournit aux entreprises un guide clair et spécifique sur la façon de se conformer aux réglementations et ce qu’il faut considérer comme un risque de sécurité. Cependant, il pose également de nouveaux défis, car les entreprises doivent maintenant évaluer et diversifier leurs corpus d’entraînement, ainsi que échantillonner et analyser de grandes quantités de données pour garantir leur conformité.
Clara est créatrice et éditrice de contenus, avec une solide formation en sciences et une spécialisation en intelligence artificielle. Sa passion pour ce domaine en constante évolution l'a amenée à acquérir les connaissances nécessaires pour comprendre et communiquer les avancées les plus récentes dans ce domaine. Grâce à son expérience et à ses compétences en rédaction et édition de contenus, Clara est capable de transmettre de manière claire et efficace des concepts complexes liés à l'intelligence artificielle et ainsi les rendre accessibles à tous types de publics.
Cette entrée est également disponible dans : Español Português