Sin embargo, es “simplista pensar que si tienes un problema de seguridad actual y estás intentando diseñar una herramienta de protección, la respuesta debería ser que funcione perfectamente o no la implementes”, cube Zhao, citando el spam. filtros y cortafuegos como ejemplos. La defensa es un juego constante del gato y el ratón. Y cree que la mayoría de los artistas son lo suficientemente inteligentes como para comprender el riesgo.
Ofreciendo esperanza
La lucha entre los creadores y las empresas de IA es feroz. El paradigma precise en IA es construir modelos cada vez más grandes y, al menos actualmente, no se puede eludir el hecho de que requieren vastos conjuntos de datos extraídos de Web para entrenar. Las empresas de tecnología argumentan que cualquier cosa en la Web pública es un juego limpio y que es “imposible” construir herramientas avanzadas de IA sin materials protegido por derechos de autor; Muchos artistas argumentan que las empresas tecnológicas les han robado su propiedad intelectual. y violó la ley de derechos de autor, y que necesitan formas de mantener sus obras individuales fuera de los modelos, o al menos recibir el crédito y la compensación adecuados por su uso.
Hasta ahora, los creativos no están precisamente ganando. Una serie de empresas ya han reemplazado diseñadores, redactores e ilustradores con sistemas de inteligencia synthetic. En un caso de alto perfil, Marvel Studios utilizó imágenes generadas por IA en lugar de arte creado por humanos en la secuencia del título de su serie de televisión de 2023 Invasión secreta. En otro, una emisora de radio despidió a sus presentadores humanos y los reemplazó con IA. La tecnología se ha convertido en una importante manzana de discordia entre los sindicatos y los estudios de cine, televisión y creativos, y más recientemente provocó una huelga por parte de artistas de videojuegos. Existen numerosas demandas en curso por parte de artistas, escritores, editores y sellos discográficos contra empresas de inteligencia synthetic. Probablemente pasarán años hasta que haya una resolución authorized clara. Pero ni siquiera un fallo judicial necesariamente desenredará las difíciles cuestiones éticas creadas por la IA generativa. Tampoco es possible que cualquier regulación gubernamental futura lo haga, si es que alguna vez se materializa.
Es por eso que Zhao y Zheng ven a Glaze y Nightshade como intervenciones necesarias: herramientas para defender el trabajo unique, atacar a aquellos que se ayudarían a sí mismos y, como mínimo, ganar algo de tiempo para los artistas. Tener una solución perfecta no es realmente el punto. Los investigadores deben ofrecer algo Ahora, como el sector de la IA avanza a una velocidad vertiginosa, cube Zheng, significa que las empresas están ignorando daños muy reales a los humanos. “Esta es probablemente la primera vez en todas nuestras carreras tecnológicas que realmente vemos tanto conflicto”, añade.
A una escala mucho mayor, ella y Zhao me dicen que esperan que Glaze y Nightshade eventualmente tengan el poder de revisar cómo las empresas de inteligencia synthetic utilizan el arte y cómo lo producen sus productos. Es tremendamente caro entrenar modelos de IA y es extremadamente laborioso para los ingenieros encontrar y purgar muestras envenenadas en un conjunto de datos de miles de millones de imágenes. En teoría, si hay suficientes imágenes de Nightshaded en Web y las empresas de tecnología ven que sus modelos se rompen como resultado, esto podría empujar a los desarrolladores a la mesa de negociaciones para negociar sobre licencias y una compensación justa.
Eso, por supuesto, sigue siendo un gran “si”. Revisión de tecnología del MIT Se comunicó con varias empresas de inteligencia synthetic, como Midjourney y Stability AI, que no respondieron a las solicitudes de comentarios. Mientras tanto, un portavoz de OpenAI no confirmó ningún detalle sobre el envenenamiento de datos, pero dijo que la compañía se toma en serio la seguridad de sus productos y mejora continuamente sus medidas de seguridad: “Siempre estamos trabajando en cómo podemos hacer que nuestros sistemas sean más robustos contra este tipo de abuso”.
Mientras tanto, SAND Lab sigue adelante y busca financiación de fundaciones y organizaciones sin fines de lucro para mantener el proyecto en marcha. También dicen que ha habido interés por parte de grandes empresas que buscan proteger su propiedad intelectual (aunque se niegan a decir cuáles), y Zhao y Zheng están explorando cómo las herramientas podrían aplicarse en otras industrias, como los juegos, los vídeos o la música. . Mientras tanto, planean seguir actualizando Glaze y Nightshade para que sean lo más robustos posible, trabajando estrechamente con los estudiantes en el laboratorio de Chicago, donde, en otra pared, cuelga el libro de Toorenent. Belladona. El cuadro tiene una nota en forma de corazón pegada en la esquina inferior derecha: “¡Gracias! Nos has dado esperanza a los artistas”.
Esta historia se ha actualizado con las últimas cifras de descargas de Glaze y Nightshade.