Nightshade: La herramienta que ‘envenena’ el arte para protegerlo de la Inteligencia Artificial

Una mujer trabajando en estatuas de arcilla en un estudio, con un estilo inspirado en ilustraciones científicas y motivos de calaveras, en una atmósfera de academia gris y desconstructiva inspirada en la biología marina.

La Inteligencia Artificial y el conflicto con los derechos de autor

El creciente uso de la Inteligencia Artificial (IA) en diversas industrias ha generado un aumento en la oposición contra empresas como OpenAI, acusadas de utilizar datos de entrenamiento sin autorización. Artistas y sellos discográficos han presentado demandas por el uso no autorizado de su trabajo para entrenar productos comerciales de IA, alegando que esta práctica permite la creación de trabajos competidores a través de la IA. Los conjuntos de datos utilizados para entrenar a los modelos de IA suelen incluir material obtenido de la web, lo que ha generado un conflicto con los artistas que ven su trabajo utilizado sin permiso.

Nightshade: una nueva herramienta para proteger los derechos de los artistas

Sin embargo, una nueva herramienta llamada Nightshade podría cambiar el panorama. Desarrollada por investigadores de la Universidad de Chicago, Nightshade permite a los artistas «envenenar» su arte para los modelos de IA que buscan entrenarse con él. La herramienta altera los píxeles en una forma invisible al ojo humano pero detectable por la IA.

El funcionamiento de Nightshade es sencillo pero efectivo: causa que los modelos de IA aprendan nombres incorrectos para los objetos y escenas que están observando. Por ejemplo, las imágenes envenenadas de perros aparecen como gatos para un modelo de IA.

Los resultados y el futuro prometedor de Nightshade

Los resultados del uso de Nightshade son sorprendentes. Después de aprender a partir de 50 muestras envenenadas, la IA comenzó a generar imágenes extrañas. Con 100 muestras, generaba un gato cuando se le pedía un perro y viceversa con 300 muestras.

Defenderse contra Nightshade no es tarea fácil. Requiere que los desarrolladores del modelo eliminen las imágenes con píxeles envenenados, lo cual es difícil de detectar. Además, las imágenes envenenadas ya ingeridas para un conjunto de datos de entrenamiento también necesitarían ser detectadas y eliminadas.

El objetivo de los investigadores con Nightshade es ayudar a equilibrar el poder entre las empresas de IA y los artistas. Buscan crear un poderoso disuasivo contra el desprecio a los derechos de autor y la propiedad intelectual de los artistas.

Los próximos pasos para Nightshade incluyen la presentación de un artículo sobre la herramienta para su revisión por pares en la conferencia de seguridad informática Usenix. Sin duda, esta innovadora herramienta podría cambiar la forma en que las empresas de IA utilizan los datos de entrenamiento y proteger los derechos de los artistas en el proceso.

Susana es una profesional destacada en marketing y comunicación, creadora de contenido y experta en SEO. Es licenciada en Psicología por la Universidad de Santiago de Compostela y cuenta con un máster en Marketing y Comportamiento del Consumidor de la Universidad de Granada y la Universidad de Jaén. Además, ha compartido sus conocimientos a través de conferencias y workshops.
Con amplia experiencia en estrategias de marketing y comunicación, Susana ha logrado optimizar la visibilidad y el posicionamiento de las marcas a través de técnicas de SEO.

Esta entrada también está disponible en: Français Português

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *