33.6 C
Colombia
sábado, julio 5, 2025

Nuestro informe de transparencia de IA responsable de 2025: cómo construimos, apoyamos a nuestros clientes y crecemos


En mayo de 2024, publicamos nuestro informe inaugural de transparencia de IA responsable. Eran Agradecido por los comentarios que recibimos de nuestros interesados ​​en todo el mundo. Sus concepts han informado a esta segunda anual Informe de transparencia de IA responsableque subraya nuestro compromiso continuo de construir tecnologías de IA en las que la gente confía. Nuestro informe destaca los nuevos desarrollos relacionados con la forma en que construimos y implementamos sistemas de IA de manera responsable, cómo apoyamos a nuestros clientes y al ecosistema más amplio, y cómo aprendemos y evolucionamos.

El año pasado ha visto una ola de adopción de AI por organizaciones de todos los tamaños, lo que provocó un enfoque renovado sobre una gobernanza efectiva de IA en la práctica. Nuestros clientes y los socios están ansiosos por aprender cómo tenemos escaló nuestro programa en Microsoft y desarrolló herramientas y prácticas que operacionalizan las normas de alto nivel.

Al igual que nosotros, han encontrado que la creación de confianza La IA es buena para los negocios, y esa buena gobernanza Desbloquea oportunidades de IA. De acuerdo a Encuesta de IA responsable de Microsoft de IDC que reunieron concepts sobre actitudes organizacionales y el estado de responsabilidad AI, más del 30% de los encuestados señalan la falta de soluciones de gobierno y gestión de riesgos como los mejores barrera para adoptar y escalar IA. Por el contrario, más del 75% de los encuestados que usan IA responsable Herramientas para la gestión de riesgos cube que han ayudado con privacidad de datos, experiencia del cliente, confianza Decisiones comerciales, reputación de marca y confianza.

Tenemos También se ve nuevos esfuerzos y leyes regulatorios. surgir durante el año pasado. Porque tenemos invertido en operacionalización de prácticas de IA responsables en Microsoft durante cerca de una década, eran bien preparado para cumplir con estas regulaciones y capacitar a nuestros clientes hacer lo mismo. Sin embargo, nuestro trabajo aquí no está hecho. A medida que detallamos en el informe, eficiente y efectivo prácticas de regulación e implementación que apoyan La adopción de la tecnología de IA a través de las fronteras todavía es siendo definido. Nosotros permanecer centrado en contribuir con nuestro concepts prácticas para los esfuerzos de establecimiento de normas y normas alrededor del mundo.

En todas estas facetas de gobierno, es importante permanecer ágil en nuestro enfoque, aplicando aprendizajes desde nuestras implementaciones del mundo actual, actualizando nuestro prácticas para reflejar los avances en el lo último, y asegurarnos de que respondamos a los comentarios de nuestras partes interesadas. Aprends de nuestro principios y el enfoque iterativo se refleja en el Páginas de este informe. A medida que nuestras prácticas de gobierno continúan evolucionar, Bueno Comparta proactivamente nuestras nuevas concepts con Nuestras partes interesadas, ambas en futura transparencia anual informes y otros entornos públicos.

Management de clave de nuestro informe de transparencia 2025

En 2024, realizamos inversiones clave en nuestras herramientas, políticas y prácticas de IA responsables para moverse a la velocidad de la innovación de IA.

    1. Mejoramos nuestras herramientas de IA responsables para proporcionar una cobertura de medición de riesgo y mitigación ampliada para modalidades más allá del texto, al igual que las imágenes, el audio y el video, y el soporte adicional para los sistemas de agente, los sistemas semiautónomos que anticipamos representarán un área significativa de inversión e innovación de IA en 2025 y más allá.
    2. Tomamos un enfoque proactivo y en capas para el cumplimiento de los nuevos requisitos regulatorios, incluida la Ley de IA de la Unión Europea, y proporcionamos a nuestros clientes recursos y materiales que les permiten innovar de acuerdo con las regulaciones relevantes. Nuestras primeras inversiones en la construcción de un programa de IA responsable integral y líder de la industria nos posicionaron bien para cambiar nuestros esfuerzos de preparación regulatoria de IA en alta marcha en 2024.
    3. Continuamos aplicando un enfoque consistente de gestión de riesgos entre los lanzamientos a través de nuestra revisión previa al despliegue y los esfuerzos de equipo rojo. Esto incluyó la supervisión y la revisión de los usos de alto impacto y de mayor riesgo de la IA y los lanzamientos generativos de IA, incluido cada modelo insignia agregado al servicio Azure OpenAI y cada lanzamiento del modelo PHI. Para apoyar aún más la documentación de AI responsable como parte de estas revisiones, lanzamos una herramienta de flujo de trabajo interno diseñada para centralizar los diversos requisitos de IA responsables descritos en el estándar de IA responsable.
    4. Continuamos brindando asesoramiento práctico para usos de alto impacto y de mayor riesgo de la IA a través de nuestros usos sensibles y el equipo de tecnologías emergentes. Las aplicaciones generativas de IA, especialmente en campos como la atención médica y las ciencias, fueron áreas de crecimiento notables en 2024. Al recoger concepts en los casos e investigadores involucrados, el equipo proporcionó una orientación temprana para los riesgos novedosos y las capacidades de IA emergentes, permitiendo innovación e incubar nuevas políticas internas y directrices.
    5. Continuamos apoyándonos en las concepts de la investigación para informar nuestra comprensión de los problemas sociotécnicos relacionados con los últimos avances en la IA. Establecimos el laboratorio de fronteras de IA para invertir en las tecnologías centrales que empujan la frontera de lo que los sistemas de IA pueden hacer en términos de capacidad, eficiencia y seguridad.
    6. Trabajamos con partes interesadas de todo el mundo para avanzar en la construcción de enfoques de gobernanza coherentes para ayudar a acelerar la adopción y permitir a las organizaciones de todo tipo innovar y usar la IA a través de las fronteras. Esto incluyó publicar un libro que discover la gobernanza en varios dominios y ayudar a avanzar en los estándares cohesivos para probar los sistemas de IA.

Mirando hacia la segunda mitad de 2025 y más allá

A medida que la innovación y la adopción de IA continúan avanzando, nuestro núcleo objetivo sigue siendo el mismo: ganar el Confiar en que vemos como basic para fomentar Broad y la adopción de IA beneficiosa en todo el mundo. Como nosotros Continuar ese viaje durante el próximo año, nos enfocaremos en tres áreas para progresar nuestro firme compromiso a la gobernanza de IA mientras se asegura de que nuestros esfuerzos sean Responde a un paisaje en constante evolución:

  1. Desarrollar un riesgo más versatile y ágil Herramientas y prácticas de gestión, mientras Fomentar el desarrollo de habilidades para anticipar y adaptarse a los avances en la IA. Para garantizar a las personas y Las organizaciones de todo el mundo pueden aprovechar El potencial transformador de la IA, nuestra capacidad a anticipar y gestionar los riesgos de la IA debe Mantenga el ritmo de la innovación de IA. Esto nos requiere Para construir herramientas y prácticas que puedan rápidamente adaptarse a los avances en las capacidades de IA y el creciente diversidad de escenarios de implementación que Cada uno tiene perfiles de riesgo únicos. Para hacer esto, nosotros hará mayores inversiones en nuestros sistemas de Gestión de riesgos para proporcionar herramientas y prácticas Para los riesgos más comunes en toda la implementación escenarios, y también Habilitar el intercambio de pruebas conjuntos, mitigaciones y otras mejores prácticas en Equipos en Microsoft.
  2. Apoyando una gobernanza efectiva en toda la cadena de suministro de IA. Construir, ganar y mantener la confianza en la IA es un esfuerzo colaborativo que requiere que los desarrolladores de modelos, los constructores de aplicaciones y los usuarios del sistema contribuyan a un diseño, desarrollo y operaciones confiables. Las regulaciones de IA, incluida la Ley de AI de la UE, reflejan esta necesidad de que la información fluya a través de los actores de la cadena de suministro. Si bien adoptamos este concepto de responsabilidad compartida en Microsoft, también reconocemos que la fijación de cómo las responsabilidades se ajustan es complejo, especialmente en un ecosistema de IA que cambia rápidamente. Para ayudar a avanzar en la comprensión compartida de cómo esto puede funcionar en la práctica, estamos profundizando nuestro trabajo interna y externamente para aclarar los roles y las expectativas.
  3. Avanzar en un ecosistema vibrante a través de compartir normas y herramientas efectivas, Particularmente para AI Medición y evaluación de riesgos. La ciencia de la medición y evaluación del riesgo de IA es un creciente pero aún así un campo naciente. Estamos comprometidos para apoyar la maduración de este campo por continuar haciendo inversiones dentro de Microsoft, incluso en la investigación que empuja a las fronteras de medición y evaluación de riesgos de IA y el herramientas para operacionalizarlo a escala. Nosotros permanecer Comprometido a compartir nuestros últimos avances en herramientas y mejores prácticas con el más amplio ecosistema para apoyar el avance de compartido normas y estándares para la medición del riesgo de IA y evaluación.

Esperamos escuchar sus comentarios sobre el progreso que hemos logrado y las oportunidades para colaborar sobre todo lo que aún queda por hacer. Juntos, podemos avanzar en el gobierno de IA de manera eficiente y efectiva, fomentando la confianza en los sistemas de IA a un ritmo que coincida con las oportunidades que se avecinan.
Explorar el Informe de transparencia de IA responsable de 2025.

Etiquetas: , ,

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles