25.4 C
Colombia
lunes, julio 7, 2025

Azure AI Foundry: asegurando modelos de IA generativos con Microsoft Safety


Los nuevos modelos de IA generativos con una amplia gama de capacidades están surgiendo cada semana. En este mundo de innovación rápida, al elegir los modelos para integrarse en su sistema de IA, es essential hacer una evaluación de riesgos reflexiva que garantice un equilibrio entre aprovechar los nuevos avances y mantener una seguridad sólida. En Microsoft, nos estamos centrando en hacer de nuestra plataforma de desarrollo de IA un lugar seguro y confiable donde pueda explorar e innovar con confianza.

Aquí hablaremos sobre una parte clave de eso: cómo aseguramos los modelos y el entorno de tiempo de ejecución en sí. ¿Cómo protegemos contra un modelo malo que comprometa su sistema de IA, su finca en la nube más grande o incluso la propia infraestructura de Microsoft?

Cómo Microsoft protege los datos y el software program en los sistemas de IA

Pero antes de comenzar eso, permítanme configurar un error muy común sobre cómo se utilizan los datos en los sistemas de IA. Microsoft lo hace no Use datos de clientes para capacitar a modelos compartidos, ni comparte sus registros o contenido con proveedores de modelos. Nuestros productos y plataformas de inteligencia synthetic son parte de nuestras ofertas de productos estándar, sujetos a los mismos términos y límites de confianza que ha esperado de Microsoft, y sus entradas y salidas de modelos se consideran contenido del cliente y se manejan con la misma protección que sus documentos y mensajes de correo electrónico. Nuestras ofrendas de plataforma de IA (Azure ai fundición y Servicio Azure OpenAI) están alojados al 100% por Microsoft en sus propios servidores, sin conexiones de tiempo de ejecución con los proveedores de modelos. Ofrecemos algunas características, como el modelo de ajuste, que le permiten usar sus datos para crear mejores modelos para su propio uso, pero estos son su modelos que permanecen en su inquilino.

Entonces, recurrir al modelo de seguridad: lo primero que debe recordar es que los modelos son solo software program, que se ejecutan en Azure Digital Máquinas (VM) y accedido a través de una API; No tienen poderes mágicos para salir de esa VM, más que cualquier otro software program que pueda ejecutar en una VM. Azure ya está bastante defendido contra el software program que se ejecuta en una VM que intenta atacar la infraestructura de Microsoft: los actores de Unhealthy intentan hacerlo todos los días, no necesitando IA para ello, y la fundición de IA hereda todas esas protecciones. ¡Esta es una arquitectura de “cerofilido”: los servicios de Azure no asumen que las cosas que se ejecutan en Azure son seguras!

Ahora es posible ocultar malware dentro de un modelo de IA. Esto podría representar un peligro para usted de la misma manera que el malware en cualquier otro software program de código abierto o cerrado podría. Para mitigar este riesgo, para nuestros modelos de más alta visibilidad escaneamos y los probamos antes de su lanzamiento:

  • Análisis de malware: Escaneos modelos de IA para un código malicioso integrado que podrían servir como vector de infección y lanzamiento para el malware.
  • Evaluación de vulnerabilidad: Escaneos para vulnerabilidades y exposiciones comunes (CVE) y vulnerabilidades de día cero dirigidos a modelos de IA.
  • Detección de puerta trasera: La funcionalidad del modelo de escaneos para la evidencia de ataques de la cadena de suministro y puestos traseros, como la ejecución del código arbitrario y las llamadas de pink.
  • Integridad del modelo: Analiza las capas, componentes y tensores de un modelo AI para detectar manipulación o corrupción.

Puede identificar qué modelos han sido escaneados por la indicación en su tarjeta modelo; no se requiere acción del cliente para obtener este beneficio. Para modelos especialmente de alta visibilidad como Deepseek r1vamos aún más lejos y hacemos que equipos de expertos destrozen el software program, que examina su código fuente, que los equipos rojos sondean el sistema adversarmente, and many others., para buscar cualquier problema potencial antes de liberar el modelo. Este mayor nivel de escaneo no tiene (todavía) un indicador explícito en la tarjeta modelo, pero dada su visibilidad pública, queríamos hacer el escaneo antes de tener los elementos de UI listos.

Defender y gobernar modelos de IA

Por supuesto, como profesionales de seguridad, presumiblemente se da cuenta de que ningún escaneo puede detectar toda acción maliciosa. Este es el mismo problema que enfrenta una organización con cualquier otro software program de terceros, y las organizaciones deben abordarlo de la manera recurring: la confianza en ese software program debe provenir en parte de intermediarios de confianza como Microsoft, pero sobre todo debe estar enraizado en la propia confianza de una organización (o falta de ella) para su proveedor.

Para aquellos que desean una experiencia más segura, una vez que haya elegido e implementado un modelo, puede usar el conjunto completo de los productos de seguridad de Microsoft para defenderlo y gobernarlo. Puedes leer más sobre cómo hacer eso aquí: Asegurar Deepseek y otros sistemas de IA con Microsoft Safety.

Y, por supuesto, como la calidad y el comportamiento de cada modelo son diferentes, debe evaluar cualquier modelo no solo para la seguridad, sino para si se ajusta a su caso de uso específico, probándolo como parte de su sistema completo. Este es parte del enfoque más amplio de cómo asegurar los sistemas de IA a los que volveremos, en profundidad, en un próximo weblog.

Uso de Microsoft Safety para asegurar modelos de IA y datos del cliente

En resumen, los puntos clave de nuestro enfoque para asegurar modelos en Azure ai fundición son:

  1. Microsoft lleva a cabo una variedad de investigaciones de seguridad para modelos clave de IA antes de alojarlos en el Azure AI Catálogo de modelos de fundicióny continúa monitoreando los cambios que pueden afectar la confiabilidad de cada modelo para nuestros clientes. Puede usar la información en la tarjeta modelo, así como su confianza (o falta de ella) en cualquier constructor de modelos dado, para evaluar su posición hacia cualquier modelo de la manera que lo haría para cualquier biblioteca de software program de terceros.
  1. Todos los modelos alojados en Azure están aislados dentro del límite del inquilino del cliente. No hay acceso a o desde el proveedor de modelos, incluidos socios cercanos como OpenAI.
  1. Datos de los clientes no se usa para entrenar modelosTampoco está disponible fuera del inquilino de Azure (a menos que el cliente diseñe su sistema para hacerlo).

Obtenga más información con Microsoft Safety

Para obtener más información sobre Microsoft Safety Options, visite nuestrasitio net.Marcar elWeblog de seguridadPara mantenerse al día con nuestra cobertura experta sobre asuntos de seguridad. Además, síganos en LinkedIn (Seguridad de Microsoft) y x (@Msftsecurity) para las últimas noticias y actualizaciones sobre ciberseguridad.



Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles