Nuevas Normativas para la Inteligencia Artificial en China
El Comité Técnico de Normalización de Seguridad de la Información Nacional de China (TC260) ha presentado un borrador con normativas detalladas para evaluar la problemática potencial de los modelos de Inteligencia Artificial (IA) generativa. Este documento, que establece criterios claros y proporciona métricas específicas, es considerado por expertos como el más concreto y específico en relación a la regulación de la IA generativa.
Criterios y Métricas para la IA Generativa
El borrador del TC260 establece criterios claros sobre cuándo una fuente de datos debe ser prohibida para entrenar IA generativa. Proporciona métricas precisas sobre el número exacto de palabras clave y preguntas de muestra que deben prepararse para probar un modelo. Matt Sheehan, experto en tecnología global, considera que este es el documento más concreto y específico relacionado con la regulación de la IA generativa hasta la fecha.
Implicaciones para las Empresas y Reglas Específicas
Las implicaciones para las empresas son significativas. El documento proporciona una guía sobre cómo cumplir con las regulaciones de la IA generativa y aclara qué deberían considerar las empresas como un «riesgo de seguridad» en los modelos de IA.
En cuanto a las reglas específicas, se destaca que todos los modelos fundamentales de IA se entrenan actualmente en muchos corpus (bases de datos de texto e imágenes), algunos de los cuales tienen sesgos y contenido no moderado. Las normas del TC260 exigen que las empresas no solo diversifiquen los corpus (mezclando idiomas y formatos) sino que también evalúen la calidad de todos sus materiales de entrenamiento.
Además, las empresas deben muestrear aleatoriamente 4,000 «piezas de datos» de una fuente. Si más del 5% de los datos se consideran «información ilegal y negativa», este corpus debe ser incluido en la lista negra para futuros entrenamientos.
En resumen, el borrador del TC260 representa un paso importante en la regulación de la IA generativa. Proporciona a las empresas una guía clara y específica sobre cómo cumplir con las regulaciones y qué considerar como un riesgo de seguridad. Sin embargo, también plantea nuevos desafíos, ya que las empresas deben ahora evaluar y diversificar sus corpus de entrenamiento, así como muestrear y analizar grandes cantidades de datos para garantizar su cumplimiento.
Clara es creadora y editora de contenidos, con una sólida formación en ciencias y una especialización en inteligencia artificial. Su pasión por este campo en constante evolución la ha llevado a adquirir los conocimientos necesarios para comprender y comunicar los avances más recientes en este campo. Con su experiencia y habilidades en la redacción y edición de contenidos, Clara es capaz de transmitir de manera clara y efectiva conceptos complejos relacionados con la inteligencia artificial y de esta manera hacerlos accesibles para todo tipo de audiencias.