Actualidad

Nueva herramienta para que los artistas puedan combatir plagios en Inteligencia Artificial (IA)

(Foto: © Turingsolutions).

QUIEN A HIERRO MATA…

Se llama Nightshade y la desarrolla la Universidad de Chicago

Lunes 20 de noviembre de 2023

Esta tecnología esconde píxeles envenenados en las obras de arte para inutilizar a la IA y funciona de manera con otra herramienta llamada GLAZE también desarrollada por el mismo equipo ¿Podrán conseguir los desarroles de IA un antidoto ?



REDACCIÓN. según publica MIT Technology Review un equipo de la Universidad de Chicago, dirigido por el profesor Ben Zhao, ha creado una herramienta que permite a los artistas introducir píxeles envenenados en sus obras antes de ponerlas en línea.

Esta herramienta se llama NightShade (Belladona, en español) espera que sirva a los artistas para luchar contra empresas como Midjourney, Dall-e o Stable Diffusion que utilizan el trabajo de los artistas para entrenar sus modelos sin su autorización ni pagar derechos de autor.

Un modelo de aprendizaje automático es un archivo que se ha entrenado para reconocer determinados tipos de patrones. Puede entrenar un modelo con un conjunto de datos, y proporcionarle un algoritmo que puede usar para averiguar y obtener información de esos datos.

Según esta información y a manera de resumen, Nightshade actuaría como un troyano, realizando cambios en los píxeles de una imagen que no son visibles a simple vista, pero proporciona a la IA datos inexactos alterando de manera significativa cómo deberían verse ciertas imágenes. Por ejemplo, una imagen envenenada por Nightshade de un gato le enseñaría a la IA a generar una imagen de un perro.

Como los modelos de IA generativa son excelentes para establecer conexiones entre palabras, Nightshade infecta no sólo la palabra "perro", sino todos los conceptos similares, como "cachorro", "husky" y "lobo". El virus también funciona con imágenes relacionadas tangencialmente. Por ejemplo, si el modelo extrajo una imagen desde el término "arte de fantasía", los conceptos prediseñados como "dragón" y "un castillo en El Señor de los Anillos " serían manipulados de manera similar para convertirlos en "otra cosa".

El equipo de Zhao ha comprobado la efectividad de Nightshade en los últimos modelos de Stable Diffusion, una plataforma de inteligencia artificial que afirma ser capaz de generar imágenes foto realistas con cualquier entrada.

¿Por qué se crea Nightshade? Zhao considera que la desigualdad de poder entre las empresas de inteligencia artificial y los propietarios de contenidos es ridícula: Un estudio de cine, una empresa de juegos, una galería de arte o un artista independiente, lo único que pueden hacer para evitar ser absorbido por un modelo es 1) listas de exclusión voluntaria y 2) directivas de no eliminar.

El pasado febrero, en Pecados del Arte ya publicó que la misma universidad también desarrollaron Glaze , una herramienta que permite a los artistas "enmascarar" su estilo personal del artista para evitar que las empresas de inteligencia artificial lo eliminen. Nightshade Funciona de manera similar: cambia los píxeles de las imágenes de maneras sutiles que son invisibles para el ojo humano pero manipulan modelos de aprendizaje automático para interpretar la imagen como algo diferente de lo que realmente muestra.

Los tribunales estadounidenses aún no se han pronunciado definitivamente sobre esta práctica de las empresas y modelos de Inteligencia Artificial y los reguladores están buscando comentarios sobre una posible legislación que podría afectarla de una forma u otra.

Hasta el momento, Las empresas de IA que han copiado el trabajo de los artistas para sus modelos, se enfrentan a demandas de los creadores, a quienes no se les dio ninguna advertencia previa, ninguna posibilidad de dar su consentimiento ni los Derechos o royalties por su trabajo para ser utilizado en los modelos.

TEMAS RELACIONADOS: