OpenAI y su ambicioso proyecto Superalignment: Domando la superinteligencia artificial para el beneficio de la humanidad

Una mesa de comedor circular iluminada con luces de neón cerca de un proyector, en un ambiente de estudio de diseño y arquitectura contemporánea con tonos oscuros, blancos y naranjas, evocando la estética del artista Ildiko Neer.

OpenAI y su ambición por controlar la IA superinteligente

OpenAI, la organización de investigación en inteligencia artificial (IA) que nació con el compromiso de desarrollar IA en beneficio de toda la humanidad, ha estado incrementando sus objetivos comerciales desde el lanzamiento de ChatGPT y durante su reciente crisis de gobernanza. En este contexto de cambios, OpenAI ha constituido un nuevo equipo de investigación dedicado a la supervisión de las futuras IA superinteligentes.

En julio, OpenAI anunció la creación del equipo de investigación Superalignment. Este grupo tiene como misión desarrollar técnicas para controlar las futuras IA superinteligentes. Como parte de este esfuerzo, OpenAI se ha comprometido a destinar un quinto de su capacidad informática disponible al proyecto Superalignment.

Primeros resultados del equipo Superalignment

El equipo Superalignment ha publicado recientemente un artículo de investigación con resultados experimentales preliminares. Las pruebas se han centrado en permitir que una IA inferior guíe a una más inteligente sin disminuir su capacidad. Este escenario está diseñado para representar un futuro en el que los humanos deben colaborar con sistemas de IA más inteligentes que ellos.

El proceso actual de supervisión, analizado por los investigadores de OpenAI, se utiliza para ajustar sistemas como GPT-4, el modelo detrás de ChatGPT, para que sea más útil y menos dañino. Este proceso implica que los humanos proporcionen retroalimentación al sistema de IA sobre qué respuestas son adecuadas y cuáles no.

Hacia la automatización del proceso de supervisión

No obstante, a medida que avanza la IA, OpenAI está investigando cómo automatizar este proceso. Esto se debe a la posible incapacidad futura de los humanos para proporcionar retroalimentación útil a medida que la IA se vuelve más poderosa.

Como parte de este esfuerzo, el equipo Superalignment ha experimentado con el uso del generador de texto GPT-2 de OpenAI para enseñar a GPT-4. Sin embargo, encontraron que GPT-4 se volvió menos capaz y similar al sistema inferior. Para solucionar este problema, probaron dos ideas.

La primera solución propuesta fue entrenar modelos progresivamente más grandes para reducir el rendimiento perdido en cada paso. La segunda fue agregar un ajuste algorítmico a GPT-4 que permitió al modelo más fuerte seguir la guía del modelo más débil sin disminuir su rendimiento tanto como normalmente sucedería.

A pesar de estos avances, los investigadores reconocen que estos métodos no garantizan un comportamiento perfecto del modelo más fuerte. Sin embargo, describen los resultados como un punto de partida para futuras investigaciones. Los expertos externos han proporcionado comentarios positivos sobre los esfuerzos proactivos de OpenAI para controlar las IA superhumanas, lo que sugiere un futuro prometedor para la investigación en este campo.

Susana es una profesional destacada en marketing y comunicación, creadora de contenido y experta en SEO. Es licenciada en Psicología por la Universidad de Santiago de Compostela y cuenta con un máster en Marketing y Comportamiento del Consumidor de la Universidad de Granada y la Universidad de Jaén. Además, ha compartido sus conocimientos a través de conferencias y workshops.
Con amplia experiencia en estrategias de marketing y comunicación, Susana ha logrado optimizar la visibilidad y el posicionamiento de las marcas a través de técnicas de SEO.

Esta entrada también está disponible en: Français Português

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *