El debate sobre la Inteligencia Artificial y la libertad de expresión
El pasado 27 de marzo, la ciudad de Boston acogió un evento de networking que congregó a expertos en Inteligencia Artificial Generativa (IAG) y en libertad de expresión. El debate principal se centró en la protección legal de los modelos de lenguaje de gran escala (LLM) y la necesidad de regular la IAG para evitar posibles consecuencias catastróficas.
La Inteligencia Artificial y la Primera Enmienda
En Estados Unidos, algunos juristas sostienen que los LLM están amparados por la Primera Enmienda. Benjamin Wittes, defensor de esta postura, argumenta que sistemas como ChatGPT son expresivos y generan contenido que puede ser considerado discurso. Wittes sostiene que el contenido generado por la IA es el discurso protegido de sus programadores humanos o de sus propietarios corporativos.
Los riesgos de la Inteligencia Artificial y la necesidad de regulación
No obstante, Peter Salib, profesor de derecho en la Universidad de Houston, alerta sobre los peligros de la IA. Según Salib, la IA tiene el potencial de inventar nuevas armas químicas, facilitar a los no programadores el hackeo de infraestructuras vitales y jugar «juegos de manipulación» complejos. Incluso sostiene que la IA podría llegar a ejecutar asesinatos políticos totalmente automatizados con drones.
Ante estos riesgos, los líderes mundiales están promoviendo regulaciones para una IA segura y ética. Sin embargo, si el discurso de la IA está protegido, las leyes que intenten regularlo tendrían que superar obstáculos extremadamente altos.
Salib argumenta que la IA es diferente tanto conceptual como técnicamente de otros software. Algunos sostienen que las salidas de la IA pertenecen a los propios sistemas. En cuanto a si es discurso corporativo, Salib sostiene que las corporaciones tienen derechos de expresión porque son «derivados de los derechos de los humanos que las constituyen». Por tanto, los derechos de expresión corporativos dependen de los derechos de los humanos que componen la corporación.
Para mitigar los riesgos, Salib propone regular las salidas de la IA en sí mismas. Las regulaciones de seguridad de la IA deben incluir reglas sobre lo que los modelos pueden «decir».
Conclusión: el delicado equilibrio entre regulación y libertad de expresión
En conclusión, la regulación de la IA es un tema complejo y delicado. Las leyes deben diseñarse para prevenir que las personas sean engañadas, dañadas o asesinadas. Sin embargo, también deben respetar los derechos de expresión y evitar la censura. El equilibrio entre estos dos aspectos será clave para el futuro de la IA.
Sarah es además de experta en marketing digital, creadora de contenido con amplia experiencia en el campo. Graduada en Sociología por la Universidad de Barcelona y con un Postgrado en Marketing Digital en Inesdi, Sarah ha logrado destacarse como Directora de Marketing Digital.
Su profundo conocimiento de las tendencias digitales y su habilidad para identificar oportunidades de crecimiento han sido fundamentales para el éxito de numerosas campañas. Además, imparte clases y conferencias en prestigiosas escuelas de negocio, universidades y eventos, compartiendo sus conocimientos y experiencias con otros profesionales y estudiantes.