A finales del 2023 nos enteramos de que la artista multidisciplinar barcelonesa Alicia Framis fue la primera mujer en casarse con una escultura holográfica que fue creada utilizando datos de gente que han formado parte de su vida (parejas, amistades y familia). El holograma inteligente, que tenía capacidad para interactuar, fue generado gracias a la inteligencia artificial (IA) y a una técnica avanzada de fotografía que consistió en crear imágenes tridimensionales basadas en el empleo de la luz.
Por otro lado, la IA ya está siendo utilizada para crear obras de arte en formato de pintura o música provocando una enorme transformación de la industria cultural. Ejemplo de ello es que la última estrella del Museo de Arte Moderno de Nueva York (MoMA) es una enorme inteligencia artificial que se nutre de más de las 180.000 obras y archivos que forman parte del fondo de este prestigioso museo y que ha sido ideada por el artista y programador turco Refik Anadol quien afirma que “utiliza datos para crear arte como un pintor usa pigmentos”.
Ante el crecimiento exponencial que está sufriendo la IA, la Unión Europea ha aprobado un Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadoras en materia de inteligencia artificial y será la primera parte del mundo donde la IA estará regulada de forma completa. Incluso España ha dictado ya un Real Decreto (Real Decreto 817/2023, de 8 de noviembre, que establece un entorno controlado de pruebas para el ensayo del cumplimiento de la propuesta del citado Reglamento europeo.
Aunque el Reglamento europeo no entrará plenamente en vigor hasta dos años después de su publicación en el Diario Oficial de la UE, existen algunas partes que entrarán a funcionar antes de esa fecha.
El Reglamento tiene como objetivo garantizar que los sistemas de IA utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores europeos y su enfoque está basado, no en regular la tecnología en sí, sino las aplicaciones de alto riesgo.
De esta forma se dividen los riesgos en cuatro tipos: el mínimo riesgo, el alto riesgo, el riesgo inaceptable y el riesgo específico de transparencia.
Para el mínimo riesgo no existen obligaciones específicas. Se trata de la mayoría de los sistemas de IA, como los sistemas de recomendación o filtros de spam. Aun así, las empresas pueden comprometerse voluntariamente con códigos de conducta adicionales.
Para el alto riesgo se deben cumplir requisitos estrictos tales como sistemas de mitigación de riesgos, información clara para el usuario y ciberseguridad.
Para el riesgo inaceptable existirá prohibición total de aquellos sistemas de IA que representen una amenaza clara para los derechos fundamentales como, por ejemplo, sistemas que manipulen el comportamiento humano, la puntuación social (social scoring) por parte de Gobiernos o empresas, el reconocimiento de emociones en el lugar de trabajo o en instituciones educativas o ciertos usos de sistemas biométricos (como el reconocimiento facial).
Y para el riesgo específico de transparencia, deberán ser plenamente identificables por parte de los usuarios los sistemas de IA como chatbots y se deberá etiquetar el contenido generado por IA.
Las empresas que no cumplan las normas pueden verse sancionadas con multas que varían desde los 35 millones de euros o el 7% del volumen de negocios global anual por violaciones de aplicaciones de IA prohibidas, hasta los 7,5 millones de euros o el 1,5% por proporcionar información incorrecta.
Como toda normativa, aporta seguridad jurídica y certeza legal y, en este caso, también técnica que evitará
Beatriz Niño · Socia NIAL ART
Abogada especialista en el Mercado del Arte