Deepfakes en la Política: El Caso de la Primera Dama Jill Biden y el Debate sobre la Ética de la Inteligencia Artificial

Una mujer sentada frente a una cámara en un estudio de televisión, rodeada de otros medios, con un estilo meticuloso que combina tonos oscuros de rosa y gris claro, y toques de verde academia, ámbar claro y azul, evocando la estética Barbiecore y la escuela del noroeste.

Deepfakes en la política: un nuevo fenómeno

El mundo de la política está siendo sacudido por un fenómeno emergente que está cambiando la forma en que se transmiten los mensajes: los deepfakes. Un reciente ejemplo de esto es un video deepfake de la Primera Dama de los Estados Unidos, Jill Biden, criticando las políticas de su esposo, el presidente Biden. Este video, que ha causado revuelo en las redes sociales, fue creado por el cineasta y productor Kenneth Lurt utilizando técnicas de aprendizaje automático.

Para dar vida a este video, Lurt colaboró con ElevenLabs, una startup especializada en inteligencia artificial (IA) de voz y audio. La empresa generó una voz realista para Jill Biden que se combinó con clips seleccionados de la campaña de Biden, informes de noticias sobre Palestina y videos de redes sociales que mostraban el sufrimiento en Gaza.

La IA y los deepfakes en la publicidad política

Este caso es solo un ejemplo del creciente uso de la IA y la tecnología deepfake en la publicidad política. Cada vez son más los anuncios políticos que utilizan medios sintéticos para transmitir sus mensajes. Sin embargo, esta tendencia también ha generado preocupaciones sobre la proliferación e intensificación de información engañosa en las próximas elecciones.

A pesar del papel crucial que juega la tecnología en estos casos, Lurt enfatiza que las habilidades humanas son necesarias para crear algo convincente con IA. La postproducción y la experiencia cinematográfica juegan un papel fundamental para dar vida a estos videos.

Motivaciones y desafíos del contenido generativo

El proyecto de Lurt tenía una motivación clara: quería llamar la atención sobre el sufrimiento humano en Palestina a través de una narrativa provocativa y emocionalmente impactante. El uso de técnicas modernas de medios sintéticos le permitió plasmar este concepto provocativo.

Sin embargo, el contenido generativo presenta desafíos. Los problemas relacionados con la verdad, la confianza y la responsabilidad son cuestiones que las sociedades deben abordar. Lurt ve su papel más alineado con medios satíricos como The Onion que con campañas de desinformación.

Para mitigar las amenazas de deepfake sin caer en la censura, los reguladores y defensores están buscando estrategias. La participación informada y la educación en alfabetización mediática son fundamentales para combatir estas amenazas. Además, se necesita una cooperación multilateral coordinada para mitigar las amenazas emergentes sin invadir los ámbitos protegidos de la expresión política.

El caso de Lurt sirve como un estudio de caso sobre las promesas y dilemas éticos que surgen de las tecnologías generativas avanzadas. Mientras que estas herramientas pueden ser utilizadas para crear narrativas poderosas y provocativas, también plantean preguntas sobre la verdad, la confianza y la responsabilidad en nuestra sociedad digital.

Sarah es además de experta en marketing digital, creadora de contenido con amplia experiencia en el campo. Graduada en Sociología por la Universidad de Barcelona y con un Postgrado en Marketing Digital en Inesdi, Sarah ha logrado destacarse como Directora de Marketing Digital.

Su profundo conocimiento de las tendencias digitales y su habilidad para identificar oportunidades de crecimiento han sido fundamentales para el éxito de numerosas campañas. Además, imparte clases y conferencias en prestigiosas escuelas de negocio, universidades y eventos, compartiendo sus conocimientos y experiencias con otros profesionales y estudiantes.

Esta entrada también está disponible en: Français Português

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *