Actualidad

Midjourney habría empleado las imágenes de más de 16.000 artistas sin consentimiento

(Foto: ©EFF).

tacita a tacita...

La lista se compartió accidentalmente a través de una hoja de cálculo pública de Google

Miércoles 10 de enero de 2024

El sitio web haveibeentraned.com ofrece la oportunidad de ver si un trabajo se ha incluido como modelo de aprendizaje en un programa de IA. También cuenta con un Registro de No Capacitar, que impide que las obras se incluyan en este tipo de programas .



REDACCIÓN. Según informa ART NEWS PAPER Las listas que contienen los nombres de más de 16.000 artistas supuestamente utilizados para entrenar el programa de inteligencia artificial (IA) Midjourney se han vuelto virales en línea, renovando el debate sobre los derechos de autor y el consentimiento en la creación de imágenes de IA. Entre los nombres se encuentran Frida Kahlo, Walt Disney y Yayoi Kusama., Andy Warhol, Anish Kapoor, Yayoi Kusama, Gerhard Richter, Frida Kahlo, Andy Warhol, Ellsworth Kelly, Damien Hirst, Amedeo Modigliani, Pablo Picasso, Paul Signac, Norman Rockwell, Paul Cézanne, Banksy y Vicente van Gogh.

la Base de Datos de Midjourney también incluye a Hyan Tran, un niño de seis años y antiguo colaborador de arte que participó en una recaudación de fondos para el Hospital Infantil de Seattle en 2021.

La indignación entre los artistas en X (Twitter) se inició con la publicación de una hoja de cálculo de Google llamada “Midjourney Style List”, supuestamente recuperada de los desarrolladores de Midjourney durante un proceso de refinamiento del programa para imitar obras de artistas y estilos específicos. Mientras que el acceso al documento web (que permanece parcialmente visible en Internet Archive) fue rápidamente restringido, muchos de los artistas e indicaciones que aparecieron también aparecen en documentos judiciales de acceso público para una demanda colectiva de 2023., dentro de una lista de 25 páginas de nombres a los que se hace referencia en imágenes de entrenamiento para el programa Midjourney.

Aunque la práctica de utilizar el trabajo de artistas humanos sin su permiso para entrenar programas de IA, este aspecto sigue estando en un limbo alegal , las controversias en torno a documentos como la “Midjourney Style List” arrojan luz sobre los procesos reales de convertir obras de arte protegidas por derechos de autor en material de referencia de IA.

En una serie de publicaciones En X, el artista Jon Lam (que trabaja para el desarrollador de videojuegos Riot Games) compartió capturas de pantalla de un chat en el que los desarrolladores de Midjourney supuestamente discuten la precarga de nombres y estilos de artistas en el programa desde Wikipedia y otras fuentes, garantizando que el trabajo de los artistas seleccionados estaría disponible para la imitación y se presentaría predominantemente como material de referencia para la creación de imágenes.

Una captura de pantalla muestra una aparente publicación del director ejecutivo de Midjourney, David Holz, en la que da la bienvenida a la incorporación de 16.000 artistas a la formación del programa. Otro contiene un mensaje en el que un miembro del chat aborda sarcásticamente la cuestión de los derechos de autor, diciendo que “todo lo que tienes que hacer es usar esos conjuntos de datos extraídos y [sic] olvidará convenientemente lo que usaste para entrenar el modelo. Problemas legales del boom solucionados para siempre”.

Los conjuntos de datos "extraídos" mencionados en el chat son una característica central de la demanda colectiva, que también está ganando adeptos en línea, que busca obtener una compensación de Stability AI, Midjourney y DeviantArt por el uso no consensuado del trabajo de artistas humanos en la formación de programas de IA generativa.

Aunque un juez federal en EE.UU desestimó parcialmente la demanda original en octubre por ser “defectuosa en numerosos aspectos”, fue modificada y presentada de nuevo en noviembre, añadiendo a varios demandantes a la demanda, así como al generador de vídeo Runway AI a la lista de acusados.

Lam ha instado a los artistas que encontraron sus nombres entre la lista de más de 16.000 a registrarse como demandantes adicionales, diciendo: "Los techbros de la generación AI le harían creer que la demanda está muerta o desestimada, no, la demanda todavía está viva y coleando, y se han agregado más pruebas y demandantes al expediente del caso".

El expediente actualizado señala que “el Tribunal rechazó el intento de Stability AI de desestimar la demanda más importante de los demandantes, a saber, el reclamo de infracción directa de derechos de autor por apropiación indebida de miles de millones de imágenes para el entrenamiento de IA”. También se negó el intento de Midjourney de desestimar la demanda.

Un elemento central de la afirmación de que Midjourney es culpable de infracción de derechos de autor es el uso que hace su programa del conjunto de datos LAION-5B, una colección de 5.850 millones de imágenes recopiladas de Internet, incluidas obras protegidas por derechos de autor.

Si bien todas las iteraciones de LAION se hicieron públicas con la solicitud de que "solo deberían usarse con fines de investigación académica", la demanda alega que Midjourney utilizó conscientemente la colección en sus servicios monetizados, entrenando el programa de IA generativa de la compañía en imágenes de LAION. El caso también afirma que el uso por parte de Midjourney del software de conversión de texto a imagen Stable Diffusion de Stability AI constituye una infracción de derechos de autor, ya que el programa en sí, fue "entrenado" por una colección de obras no acreditadas y protegidas por derechos de autor.

En casi todos los debates sobre IA generativa se han mencionado herramientas para que los artistas combatan la infracción de derechos de autor, en Pecados del Arte ya se publicó el pasado noviembre el lanzamiento del programa Glaze de la Universidad de Chicago.. Con el objetivo de proteger a los artistas de programas como Midjourney y Stable Diffusion.

Glaze altera los datos digitales de una imagen para que "parezca sin cambios a los ojos humanos, pero a los modelos de IA les parezca un estilo artístico dramáticamente diferente".

El sitio web haveibeentrained.com ofrece la posibilidad de ver si un trabajo se ha incluido como modelo de aprendizaje en un programa de IA. También cuenta con un Registro de No Capacitar, que impide que las obras se incluyan en este tipo de programas .

TEMAS RELACIONADOS: