NIST en la cuerda floja: El apresurado desafío de definir estándares de IA entre discrepancias expertas y secretismo tecnológico

"Una amplia sala de reuniones circular, con un estilo artístico de intrusión mediática y simbolismo global, dominada por tonos oscuros de blanco y verde, que evoca una atmósfera humorística y surrealista."

Presión sobre el NIST para definir estándares de Inteligencia Artificial

El Instituto Nacional de Estándares y Tecnología (NIST) de Estados Unidos se encuentra en el punto de mira para establecer estándares en el ámbito de la Inteligencia Artificial (IA). Esta demanda surge en un momento en que la investigación en este campo todavía se encuentra en sus primeras etapas. Legisladores estadounidenses han manifestado su inquietud ante lo que perciben como un «desacuerdo significativo» entre los expertos en IA respecto a cómo abordar, medir y definir los problemas de seguridad vinculados a esta tecnología. Este desacuerdo, unido al estado actual de la investigación sobre seguridad en IA, plantea retos importantes para el NIST.

Respuesta del NIST y opiniones de expertos

El NIST ha confirmado la recepción de una carta que refleja estas preocupaciones y ha asegurado que responderá a través de los canales apropiados. Además, el instituto está adoptando medidas para incrementar la transparencia en su proceso, solicitando información a expertos externos y empresas sobre los estándares para evaluar y probar modelos de IA.

Las preocupaciones expresadas por los legisladores son compartidas por algunos expertos en IA. Rumman Chowdhury, CEO de Parity Consulting, sostiene que el NIST necesita más que mandatos y buenos deseos para realizar adecuadamente su trabajo. Yacine Jernite, líder de aprendizaje automático y sociedad en Hugging Face, apunta que las grandes empresas tecnológicas disponen de muchos más recursos que el NIST. Margaret Mitchell, científica jefe de ética en Hugging Face, añade otra capa de complejidad al problema: el creciente secretismo en torno a los modelos comerciales de IA dificulta la medición para una organización como el NIST.

Iniciativas gubernamentales y colaboración con empresas tecnológicas

En este contexto, la Casa Blanca ha emitido una orden ejecutiva que solicita al NIST llevar a cabo varias tareas, incluyendo la creación de un nuevo Instituto de Seguridad en Inteligencia Artificial. Además, en abril se anunció una fuerza de tarea del Reino Unido centrada en la seguridad de la IA, que contará con 126 millones de dólares en financiamiento inicial.

La orden ejecutiva también establece un plazo agresivo para que el NIST desarrolle directrices para evaluar modelos de IA, principios para probar estos modelos y un plan para que las naciones aliadas de EE.UU. acuerden los estándares del NIST.

Aunque no está claro cómo el NIST está interactuando con las grandes empresas tecnológicas, se sabe que participaron en discusiones sobre el marco de gestión de riesgos del NIST empresas como Microsoft y Anthropic, así como organizaciones como Partnership on AI y Future of Life Institute.

En conclusión, el NIST se enfrenta a una tarea monumental y compleja en un campo que aún está evolucionando rápidamente. La presión por definir estándares de IA es alta, pero también lo es la necesidad de hacerlo correctamente y con suficiente transparencia.

Sarah es además de experta en marketing digital, creadora de contenido con amplia experiencia en el campo. Graduada en Sociología por la Universidad de Barcelona y con un Postgrado en Marketing Digital en Inesdi, Sarah ha logrado destacarse como Directora de Marketing Digital.

Su profundo conocimiento de las tendencias digitales y su habilidad para identificar oportunidades de crecimiento han sido fundamentales para el éxito de numerosas campañas. Además, imparte clases y conferencias en prestigiosas escuelas de negocio, universidades y eventos, compartiendo sus conocimientos y experiencias con otros profesionales y estudiantes.

Esta entrada también está disponible en: Français Português

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *