Oficinas Centrales

Bahía de Ballenas No. 58
Col. Verónica Anzures, Alcaldía Miguel Hidalgo
C.P. 11300, Ciudad de México

Contácto

En la constante lucha por preservar la integridad del trabajo artístico frente al avance desenfrenado de la inteligencia artificial (IA), un grupo de investigadores liderado por el profesor Ben Zhao de la Universidad de Chicago ha ideado una estrategia novedosa. Bajo el nombre de “Nightshade”, esta herramienta se presenta como un veneno sutil que los artistas pueden inyectar directamente en sus obras de arte para contrarrestar el uso no autorizado en el entrenamiento de modelos de IA.

https://www.technologyreview.com/2023/10/23/1082189/data-poisoning-artists-fight-generative-ai/

La realidad es que, hasta ahora, las opciones de los artistas eran limitadas: demandar a las compañías de IA o confiar en que los desarrolladores respetaran las solicitudes de exclusión. Zhao y su equipo han tomado un enfoque diferente al introducir Nightshade, una herramienta que opera a nivel de píxeles, corrompiendo las imágenes de manera invisible al ojo humano.

En palabras del profesor Zhao, “Nightshade envenena cualquier modelo que utilice imágenes para entrenar IA”. Este enfoque disruptivo ofrece a los artistas una forma de defender sus creaciones de manera proactiva, introduciendo un elemento de incertidumbre en las imágenes de entrenamiento.

La herramienta manipula las imágenes de manera tan sutil que el ojo humano no puede detectar la corrupción a simple vista. Funciona mediante la distorsión de píxeles, y una vez que se usan suficientes imágenes distorsionadas para entrenar a la IA, el modelo completo comienza a desmoronarse. Los resultados son sorprendentes: un modelo como el Stable Diffusion XL de Stability AI, después de ser alimentado con datos de Nightshade, interpreta un “auto” como “vaca”, un perro como un gato, y un sombrero se convierte en una tarta.

Esta técnica no solo afecta a modelos de IA en general, sino que también se defiende contra intentos específicos de replicar el estilo de artistas reconocidos. Si se le pide al modelo que cree una pintura al estilo del famoso artista de ciencia ficción y fantasía Michael Whelan, el modelo envenenado produce algo muy alejado de su obra.

Para que Nightshade tenga un impacto significativo, se necesitarían cientos o incluso miles de imágenes envenenadas, dependiendo del tamaño del modelo de IA. Sin embargo, esta estrategia podría plantar la semilla de la duda en aquellos desarrolladores que consideran el uso de datos de entrenamiento obtenidos de Internet.

Stability AI, una de las compañías afectadas, ha respondido afirmando su compromiso con la representación equitativa y la reducción de sesgos. Sin embargo, la implementación de Nightshade plantea desafíos significativos para empresas que utilizan activamente el trabajo de artistas en el entrenamiento de sus modelos de IA.

Esta no es la primera incursión de Ben Zhao en la protección del trabajo artístico contra la IA. Anteriormente, lideró el desarrollo de Glaze, una herramienta que crea una especie de “capa de estilo” para ocultar las imágenes de los artistas a los generadores de arte de IA. Según Zhao, Nightshade se integrará como otra herramienta en Glaze, y también se lanzará en el mercado de código abierto para que otros desarrolladores creen herramientas similares.

En un momento en el que la IA y el arte convergen de maneras fascinantes y a veces controvertidas, herramientas como Nightshade ofrecen a los artistas una defensa activa contra la apropiación no autorizada de su creatividad. A medida que la tecnología avanza, la lucha por mantener el control sobre el arte se intensifica, y los artistas están dispuestos a explorar medidas cada vez más ingeniosas para proteger su obra.

Referencias:

  • Zeff, M. (2023, 6 diciembre). 23andMe to hacked users: We won’t see you in court. Gizmodo. https://gizmodo.com/23andme-terms-of-service-hacked-users-1851077109
  • Illán, P. H. (2023, 24 octubre). Nightshade: la nueva herramienta para envenenar la IA que servirá a los artistas. Andro4all. https://www.lavanguardia.com/andro4all/tecnologia/nightshade-la-herramienta-para-envenenar-la-ia-que-encabeza-la-rebelion-de-los-artistas
  • Heikkilä, M. (2023, 24 octubre). This new data poisoning tool lets artists fight back against generative AI. MIT Technology Review. https://www.technologyreview.com/2023/10/23/1082189/data-poisoning-artists-fight-generative-ai/
  • https://chat.openai.com
  • https://www.artguru.ai/es/
Share:

José Luis

administrator