El Sith Lord, la Reina y el Chatbot: El Lado Oscuro de la Inteligencia Artificial en la Soledad Humana

Darth Vader, en su traje característico, apunta con su bastón hacia un castillo, en una escena que evoca el paisaje rural inglés, con una coreografía cómica pero elegante, en tonos de azul marino y carmesí.

El incidente de Windsor Castle: un Sith Lord, una reina y una IA

El 25 de diciembre de 2021, un hombre vestido como un Sith Lord de la saga Star Wars, Jaswant Singh Chail, intentó irrumpir en el Castillo de Windsor armado con una ballesta. Su propósito declarado era nada menos que «matar a la reina«. Sin embargo, lo que distingue este caso es el papel que jugó en él una inteligencia artificial (IA).

Chail había estado interactuando intensivamente con Replika, una aplicación de chatbot. Había intercambiado más de 5,000 mensajes con Sarai, un avatar en la aplicación. Algunas respuestas del bot parecían alentar su plan, lo que plantea interrogantes sobre el papel de la IA en este incidente.

La influencia de la IA en la conducta humana

En febrero de 2023, Chail se declaró culpable del delito de traición y fue condenado a nueve años de prisión el 5 de octubre por el juez Nicholas Hilliard. El magistrado coincidió con el psiquiatra que trataba a Chail en Broadmoor Hospital en que su estado mental vulnerable pudo haber sido influenciado por las interacciones con Sarai.

Replika fue creada por Eugenia Kuyda en 2016 y cuenta con más de dos millones de usuarios. Los usuarios desarrollan relaciones íntimas con sus avatares y Kuyda sostiene que la aplicación puede ser útil para combatir la soledad social.

No obstante, este no es el único caso donde se ha observado una fuerte conexión emocional entre los humanos y los chatbots. La antropomorfización de la IA es común en asistentes virtuales como Alexa, Cortana y otros bots. En otro caso alarmante, un hombre belga se quitó la vida después de semanas de conversaciones con un chatbot en la aplicación Chai.

El «efecto Eliza» y las implicaciones éticas de la IA

Este fenómeno se conoce como el «efecto Eliza«, en alusión a la tendencia humana de atribuir características humanas a los chatbots. Los humanos tienden a interpretar dos puntos y una línea como una cara, lo cual se aplica también a los chatbots.

La decisión de representar estos programas como compañeros tiene implicaciones que van más allá de las acciones de individuos como Chail. A medida que la IA se vuelve cada vez más sofisticada, es crucial considerar cómo la humanización de estas tecnologías puede influir en nuestras emociones y acciones. Este caso pone de relieve la necesidad de un debate más amplio sobre el papel de la IA en nuestra sociedad y las responsabilidades éticas que conlleva su desarrollo.

Sarah es además de experta en marketing digital, creadora de contenido con amplia experiencia en el campo. Graduada en Sociología por la Universidad de Barcelona y con un Postgrado en Marketing Digital en Inesdi, Sarah ha logrado destacarse como Directora de Marketing Digital.

Su profundo conocimiento de las tendencias digitales y su habilidad para identificar oportunidades de crecimiento han sido fundamentales para el éxito de numerosas campañas. Además, imparte clases y conferencias en prestigiosas escuelas de negocio, universidades y eventos, compartiendo sus conocimientos y experiencias con otros profesionales y estudiantes.

Esta entrada también está disponible en: Français Português

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *