gracia ye es el Director Senior de Innovación Ética (Ética y Accesibilidad de la IA) en Adobeimpulsando el trabajo international en toda la organización en torno a la ética y desarrollando procesos, herramientas, capacitaciones y otros recursos para ayudar a garantizar que las innovaciones de IA de Adobe líderes en la industria evolucionen continuamente en línea con los valores fundamentales y los principios éticos de Adobe. Grace promueve el compromiso de Adobe de crear y utilizar la tecnología de manera responsable, centrando la ética y la inclusión en todo el trabajo de la empresa en el desarrollo de la IA. Como parte de este trabajo, Grace supervisa el Comité de Ética de IA y la Junta de Revisión de Adobe, que hace recomendaciones para ayudar a guiar a los equipos de desarrollo de Adobe y revisa nuevas funciones y productos de IA para garantizar que cumplan con los principios de responsabilidad, responsabilidad y transparencia de Adobe. Estos principios ayudan a garantizar que llevemos al mercado nuestras funciones impulsadas por la IA y al mismo tiempo mitiguemos los resultados dañinos y sesgados. Grace además trabaja con el equipo de políticas para impulsar la promoción y ayudar a dar forma a las políticas públicas, las leyes y las regulaciones en torno a la IA en beneficio de la sociedad.
Como parte del compromiso de Adobe con la accesibilidad, Grace ayuda a garantizar que los productos de Adobe sean inclusivos y accesibles para todos los usuarios, de modo que cualquiera pueda crear, interactuar y participar en experiencias digitales. Bajo su liderazgo, Adobe trabaja con grupos gubernamentales, asociaciones comerciales y comunidades de usuarios para promover y promover políticas y estándares de accesibilidad, impulsando soluciones industriales impactantes.
¿Puede contarnos sobre el recorrido de Adobe durante los últimos cinco años en la configuración de la ética de la IA? ¿Qué hitos clave han definido esta evolución, especialmente frente a avances rápidos como la IA generativa?
Hace cinco años, formalizamos nuestro proceso de Ética de la IA estableciendo nuestros principios de rendición de cuentas, responsabilidad y transparencia, que sirven como base para nuestro proceso de gobernanza de la Ética de la IA. Reunimos un equipo diverso e interdisciplinario de empleados de Adobe de todo el mundo para desarrollar principios prácticos que puedan resistir la prueba del tiempo.
A partir de ahí, desarrollamos un sólido proceso de revisión para identificar y mitigar posibles riesgos y sesgos en las primeras etapas del ciclo de desarrollo de la IA. Esta evaluación de varias partes nos ha ayudado a identificar y abordar características y productos que podrían perpetuar prejuicios y estereotipos dañinos.
A medida que surgió la IA generativa, adaptamos nuestra evaluación de ética de la IA para abordar nuevos desafíos éticos. Este proceso iterativo nos ha permitido adelantarnos a posibles problemas, garantizando que nuestras tecnologías de IA se desarrollen e implementen de manera responsable. Nuestro compromiso con el aprendizaje continuo y la colaboración con varios equipos de toda la empresa ha sido essential para mantener la relevancia y eficacia de nuestro programa de Ética de IA y, en última instancia, mejorar la experiencia que brindamos a nuestros clientes y promover la inclusión.
¿Cómo se traducen los principios éticos de la IA de Adobe (rendición de cuentas, responsabilidad y transparencia) en las operaciones diarias? ¿Puede compartir algún ejemplo de cómo estos principios han guiado los proyectos de IA de Adobe?
Cumplimos con los compromisos de ética de la IA de Adobe en nuestras funciones impulsadas por la IA mediante la implementación de prácticas de ingeniería sólidas que garantizan una innovación responsable, al tiempo que recopilamos continuamente comentarios de nuestros empleados y clientes para permitir los ajustes necesarios.
Las nuevas funciones de IA se someten a una evaluación ética exhaustiva para identificar y mitigar posibles sesgos y riesgos. Cuando presentamos Adobe Firefly, nuestra familia de modelos de IA generativa, se sometió a una evaluación para mitigar la generación de contenido que podría perpetuar estereotipos dañinos. Esta evaluación es un proceso iterativo que evoluciona basándose en una estrecha colaboración con los equipos de productos, incorporando comentarios y aprendizajes para seguir siendo relevante y eficaz. También llevamos a cabo ejercicios de descubrimiento de riesgos con equipos de productos para comprender los impactos potenciales y diseñar mecanismos de prueba y retroalimentación adecuados.
¿Cómo aborda Adobe las preocupaciones relacionadas con el sesgo en la IA, especialmente en las herramientas utilizadas por una base de usuarios diversa y international? ¿Podría dar un ejemplo de cómo se identificó y mitigó el sesgo en una función específica de IA?
Estamos evolucionando continuamente nuestros procesos de evaluación y revisión de la ética de la IA en estrecha colaboración con nuestros equipos de productos e ingeniería. La evaluación de ética de la IA que hicimos hace unos años es diferente a la que tenemos ahora, y anticipo cambios adicionales en el futuro. Este enfoque iterativo nos permite incorporar nuevos aprendizajes y abordar preocupaciones éticas emergentes a medida que evolucionan tecnologías como Firefly.
Por ejemplo, cuando agregamos soporte multilingüe a Firefly, mi equipo notó que no entregaba el resultado esperado y algunas palabras se bloqueaban sin querer. Para mitigar esto, trabajamos estrechamente con nuestro equipo de internacionalización y hablantes nativos para ampliar nuestros modelos y cubrir términos y connotaciones específicos de cada país.
Nuestro compromiso de evolucionar nuestro enfoque de evaluación a medida que avanza la tecnología es lo que ayuda a Adobe a equilibrar la innovación con la responsabilidad ética. Al fomentar un proceso inclusivo y receptivo, garantizamos que nuestras tecnologías de inteligencia synthetic cumplan con los más altos estándares de transparencia e integridad, lo que permite a los creadores utilizar nuestras herramientas con confianza.
Con su participación en la formulación de políticas públicas, ¿cómo navega Adobe en la intersección entre las regulaciones de IA que cambian rápidamente y la innovación? ¿Qué papel juega Adobe en la configuración de estas regulaciones?
Nos involucramos activamente con formuladores de políticas y grupos industriales para ayudar a dar forma a políticas que equilibren la innovación con consideraciones éticas. Nuestras conversaciones con los responsables de la formulación de políticas se centran en nuestro enfoque de la IA y la importancia de desarrollar tecnología para mejorar las experiencias humanas. Los reguladores buscan soluciones prácticas para abordar los desafíos actuales y, al presentar marcos como nuestros principios de ética de la IA, desarrollados en colaboración y aplicados de manera consistente en nuestras funciones impulsadas por la IA, fomentamos debates más productivos. Es basic traer a la mesa ejemplos concretos que demuestren cómo nuestros principios funcionan en acción y mostrar el impacto en el mundo actual, en lugar de hablar a través de conceptos abstractos.
¿Qué consideraciones éticas prioriza Adobe al obtener datos de capacitación y cómo garantiza que los conjuntos de datos utilizados sean éticos y suficientemente sólidos para las necesidades de la IA?
En Adobe, damos prioridad a varias consideraciones éticas clave a la hora de obtener datos de entrenamiento para nuestros modelos de IA. Como parte de nuestro esfuerzo por diseñar Firefly para que sea comercialmente seguro, lo capacitamos en conjuntos de datos de contenido con licencia, como Adobe Inventory, y contenido de dominio público cuyos derechos de autor han expirado. También nos centramos en la diversidad de los conjuntos de datos para evitar reforzar sesgos y estereotipos dañinos en los resultados de nuestro modelo. Para lograr esto, colaboramos con diversos equipos y expertos para revisar y seleccionar los datos. Al adherirnos a estas prácticas, nos esforzamos por crear tecnologías de IA que no solo sean poderosas y efectivas, sino también éticas e inclusivas para todos los usuarios.
En su opinión, ¿qué importancia tiene la transparencia a la hora de comunicar a los usuarios cómo se entrenan los sistemas de inteligencia synthetic de Adobe como Firefly y qué tipo de datos se utilizan?
La transparencia es essential cuando se trata de comunicar a los usuarios cómo se entrenan las funciones de inteligencia synthetic generativa de Adobe, como Firefly, incluidos los tipos de datos utilizados. Genera confianza en nuestras tecnologías al garantizar que los usuarios comprendan los procesos detrás de nuestro desarrollo de IA generativa. Al ser abiertos sobre nuestras fuentes de datos, metodologías de capacitación y las salvaguardias éticas que implementamos, empoderamos a los usuarios para que tomen decisiones informadas sobre cómo interactúan con nuestros productos. Esta transparencia no solo se alinea con nuestros principios básicos de ética de la IA, sino que también fomenta una relación de colaboración con nuestros usuarios.
A medida que la IA continúa escalando, especialmente la IA generativa, ¿cuáles cree que serán los desafíos éticos más importantes que enfrentarán empresas como Adobe en el futuro cercano?
Creo que los desafíos éticos más importantes para empresas como Adobe son mitigar los sesgos dañinos, garantizar la inclusión y mantener la confianza de los usuarios. La posibilidad de que la IA perpetúe inadvertidamente estereotipos o genere contenido dañino y engañoso es una preocupación que requiere vigilancia continua y salvaguardias sólidas. Por ejemplo, con los avances recientes en la IA generativa, es más fácil que nunca para los “malos actores” crear contenido engañoso, difundir información errónea y manipular la opinión pública, socavando la confianza y la transparencia.
Para abordar esto, Adobe fundó la Iniciativa de Autenticidad de Contenido (CAI) en 2019 para construir un ecosistema digital más confiable y transparente para los consumidores. El CAI implementa nuestra solución para generar confianza en línea, llamada Credenciales de contenido. Las credenciales de contenido incluyen “ingredientes” o información importante como el nombre del creador, la fecha en que se creó una imagen, qué herramientas se utilizaron para crear una imagen y cualquier edición que se realizó a lo largo del camino. Esto permite a los usuarios crear una cadena digital de confianza y autenticidad.
A medida que la IA generativa siga escalando, será aún más importante promover la adopción generalizada de credenciales de contenido para restaurar la confianza en el contenido digital.
¿Qué consejo le daría a otras organizaciones que recién están empezando a pensar en marcos éticos para el desarrollo de la IA?
Mi consejo sería comenzar por establecer principios claros, simples y prácticos que puedan guiar sus esfuerzos. A menudo veo empresas u organizaciones centradas en lo que parece bueno en teoría, pero sus principios no son prácticos. La razón por la que nuestros principios han resistido la prueba del tiempo es porque los diseñamos para que sean viables. Cuando evaluamos nuestras funciones impulsadas por IA, nuestros equipos de productos e ingeniería saben lo que estamos buscando y qué estándares esperamos de ellos.
También recomendaría que las organizaciones inicien este proceso sabiendo que será iterativo. Puede que no sepa qué va a inventar Adobe en cinco o diez años, pero sí sé que evolucionaremos nuestra evaluación para cumplir con esas innovaciones y los comentarios que recibamos.
Gracias por la gran entrevista, los lectores que deseen obtener más información deben visitar Adobe.