ChatGPT de OpenAI: El Poder y los Peligros de los Modelos de Lenguaje a Gran Escala

Imagen de personas trabajando en sus laptops en la SSA, con un estilo de líneas precisas, reminiscente de la escuela de Vancouver y el renacimiento de San Francisco, utilizando una estética outrun y Bryce 3D.

El auge de los modelos de lenguaje de gran tamaño

Los modelos de lenguaje de gran tamaño, una tecnología poderosa y transformadora, han irrumpido en el panorama tecnológico con una fuerza inusitada. Un claro ejemplo de ello es el ChatGPT de OpenAI, lanzado hace un año, que ha demostrado su potencial en múltiples aplicaciones. Sin embargo, como ocurre con cualquier tecnología emergente, su uso puede ser tanto beneficioso como perjudicial. Algunos usuarios han encontrado formas de «liberar» estos modelos para fines maliciosos.

A pesar de ello, muchas startups están construyendo prototipos y productos utilizando las API de estos modelos. Según OpenAI, más de 2 millones de desarrolladores están utilizando sus API.

Funcionamiento y desafíos de los modelos de lenguaje

Pero, ¿cómo funcionan estos modelos? Los modelos de lenguaje predicen el texto que debería seguir a una entrada dada. Se entrenan con grandes cantidades de texto y chips informáticos durante semanas o meses. Con suficientes datos y entrenamiento, los modelos pueden responder a una amplia gama de entradas con información coherente y pertinente.

No obstante, esta tecnología no está exenta de problemas y sesgos. Los modelos pueden aprender sesgos a partir de sus datos de entrenamiento. Además, pueden fabricar información cuando la respuesta a un estímulo no es clara. Sin salvaguardas adecuadas, pueden ofrecer consejos peligrosos, como cómo obtener drogas o fabricar bombas.

La necesidad de salvaguardas adicionales

Para controlar estos riesgos y garantizar la seguridad en los modelos de lenguaje, las empresas utilizan la retroalimentación humana para afinar los modelos y reducir su mal comportamiento. Sin embargo, Robust Intelligence proporcionó ejemplos preocupantes de cómo se pueden eludir estas salvaguardas.

La investigación en este campo está en pleno auge. Un grupo de investigación liderado por Eric Wong desarrolló un método similar para generar «liberaciones». Por su parte, Brendan Dolan-Gavitt, profesor en la Universidad de Nueva York, advierte que la afinación humana no es una forma segura de proteger los modelos.

Ante este panorama, Dolan-Gavitt sugiere que las empresas que utilizan estos modelos deben emplear salvaguardas adicionales. Es necesario diseñar sistemas que eviten que los usuarios malintencionados accedan a información a la que no deberían tener acceso. En definitiva, el uso seguro y responsable de los modelos de lenguaje es un desafío que requiere la colaboración de toda la comunidad tecnológica.

Sandra es especialista en marketing digital y experta en redes sociales. Ha completado un posgrado en Comunicación y RRPP de marcas de moda en Idep Barcelona, así como otro en Marketing y reputación online: comunidades virtuales. Sandra está al tanto de las últimas tendencias y mejores prácticas en redes sociales, y eso se refleja en su trabajo diario generando un impacto positivo en el mundo digital.

Esta entrada también está disponible en: Français Português

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *