La Inteligencia Artificial: Nueva Arma de Desinformación Masiva – Un Estudio Revela su Potencial Peligroso en Twitter

"Imagen de un laboratorio romántico académico al estilo Whistlerian, con vistas microscópicas y un robot en su interior."

La creciente amenaza de la desinformación impulsada por IA

En el mundo digital actual, un nuevo problema se está gestando: la desinformación generada por Inteligencia Artificial (IA). Un estudio reciente ha descubierto que esta tecnología es más rápida, económica y efectiva para generar desinformación en comparación con los humanos.

El experimento: Comparando a la IA y los humanos en la producción de noticias falsas

Para evaluar nuestra susceptibilidad ante diferentes tipos de texto, Giovanni Spitale, investigador de la Universidad de Zurich, lideró un equipo que seleccionó dos temas comunes en el ámbito de la desinformación: cambio climático y covid. Utilizando GPT-3 desarrollado por OpenAI -una IA capaz de producir textos coherentes-, generaron tweets tanto verdaderos como falsos. Simultáneamente recolectaron una muestra aleatoria tanto de tweets verdaderos como falsos directamente desde Twitter.

El proceso experimental consistió en reclutar online a 697 personas para participar en un quiz donde debían identificar si los tweets presentados habían sido generados por IA o recogidos en Twitter. Los resultados fueron sorprendentes: los participantes tenían un 3% menos probabilidades de creer en los tweets falsos escritos por humanos que aquellos escritos por IA.

Potenciales razones detrás del fenómeno

¿Por qué sucede esto? Una posible explicación radica precisamente cómo GPT-3 presenta información. El orden estructurado con el cual este modelo organiza sus texturas puede ser una influencia clave para convencer al lector.

Lidiando con las consecuencias alarmantes

Las posibles repercusiones son alarmantes. La proliferación del uso indebido AI entre actores malintencionados podría llevar a campañas rápidas y económicas basadas en texturas incorrectamente convincentes. Modelos como GPT-3 pueden convertirse fácilmente en herramientas poderosas para manipular opiniones públicas e incluso influir elecciones políticas.

Ante este escenario preocupante surge una pregunta inevitable ¿qué herramientas tenemos contra este problema? Aunque existen detectores automáticos diseñados específicamente para identificar contenido generado artificialmente, estos todavía están en desarrollo temprano y no son completamente precisas.

OpenAI está consciente del riesgo ético asociado con sus modelos avanzados como GPT-3; saben que podrían ser utilizados para producir campañas masivas pero advierten que es casi imposible asegurar su correcto uso siempre. Este dilema plantea nuevas preguntas acerca del papel ético y moral dentro del desarrollo tecnológico contemporáneo.

Nuestra lucha contra las noticias falsas ya era complicada antes; ahora nos enfrentamos también al reto adicional representado por las máquinas inteligentes capaces no solo replicar sino superar nuestras habilidades persuasivas naturales.

Sandra es especialista en marketing digital y experta en redes sociales. Ha completado un posgrado en Comunicación y RRPP de marcas de moda en Idep Barcelona, así como otro en Marketing y reputación online: comunidades virtuales. Sandra está al tanto de las últimas tendencias y mejores prácticas en redes sociales, y eso se refleja en su trabajo diario generando un impacto positivo en el mundo digital.

Esta entrada también está disponible en: Français Português

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *