Juntos, Microsoft y Nvidia están acelerando algunas de las innovaciones más innovadoras de la IA. Estamos entusiasmados de continuar innovando con varios anuncios nuevos de Microsoft y Nvidia que mejoran aún más nuestra colaboración de pila completa.
Juntos, Microsoft y Nvidia están acelerando algunas de las innovaciones más innovadoras de la IA. Esta larga colaboración ha estado en el centro de la revolución de la IA en los últimos años, desde llevar el rendimiento de la supercomputación líder de la industria en la nube hasta respaldar modelos y soluciones fronterizas como ChatGPT en Servicio Microsoft Azure OpenAI y Copilot de Microsoft.
Hoy, hay varios anuncios nuevos de Microsoft y Nvidia que mejoran aún más la colaboración de la pila completa para ayudar a dar forma al futuro de la IA. Esto incluye la integración de la nueva plataforma Nvidia Blackwell con la infraestructura de servicios de IA Azure AI, incorporando Microservicios nvidia nim en Azure ai fundicióny empoderar a los desarrolladores, nuevas empresas y organizaciones de todos los tamaños como NBA, BMW, Dentsu, Cascarrabias y Origenpara acelerar sus innovaciones y resolver los problemas más desafiantes en todos los dominios.
Empoderando a todos los desarrolladores e innovadores con AI AGENIC
Microsoft y Nvidia colaboran profundamente en toda la pila de tecnología, y con el auge de la IA agente, están encantados de compartir varias ofertas nuevas disponibles en Azure ai fundición. Primero es que Azure Ai Foundry ahora ofrece microservicios nvidia nim. NIM proporciona contenedores optimizados para más de dos docenas de modelos de base populares, lo que permite a los desarrolladores implementar aplicaciones y agentes generativos de IA rápidamente. Estas nuevas integraciones pueden acelerar las cargas de trabajo de inferencia para los modelos disponibles en Azure, proporcionando mejoras significativas de rendimiento, respaldando en gran medida el uso creciente de los agentes de IA. Las características clave incluyen el rendimiento del modelo optimizado para las plataformas informáticas aceleradas por NVIDIA, los microservicios prebuidados implementables en cualquier lugar y una precisión mejorada para casos de uso específicos. Además, pronto estaremos integrando el modelo de razonamiento de razonamiento Nemotron Nemotron Nvidia Llama. Nvidia Llama Nemotron Purpose es una poderosa familia de modelos de IA diseñada para un razonamiento avanzado.
Epic, una compañía de registros de salud electrónica líder, Está planeando aprovechar la última integración de Nvidia Nim en Azure Ai Foundry, mejorando las aplicaciones de IA para ofrecer mejores resultados de salud y pacientes.
El lanzamiento de microservicios NVIDIA NIM en Azure AI Foundry ofrece una forma segura y eficiente para que EPIC desplegue modelos de IA generativos de código abierto que mejoren la atención al paciente, aumenten la eficiencia del médico y operativo, y descubra nuevas concepts para impulsar la innovación médica. En colaboración con UW Well being y UC San Diego Well being, también estamos investigando métodos para evaluar resúmenes clínicos con estos modelos avanzados. Juntos, estamos utilizando la última tecnología de inteligencia synthetic de manera que realmente mejore la vida de los médicos y pacientes.
Drew McCombs, VP Cloud and Analytics, Epic
Además, Microsoft también está trabajando en estrecha colaboración con NVIDIA para optimizar el rendimiento de inferencia para modelos de lenguaje de código abierto populares y garantizar que estén disponibles en Azure Ai Foundry para que los clientes puedan aprovechar al máximo los beneficios de rendimiento y eficiencia de los modelos de base. La nueva incorporación de esta colaboración es la optimización del rendimiento para los modelos Meta Llama Usando tensorrt-llm. Los desarrolladores ahora pueden usar los modelos de LLAMA optimizados del catálogo de modelos en Azure Ai Foundry para experimentar mejoras en el rendimiento sin pasos adicionales.
“En Synopsys, confiamos en modelos de IA de vanguardia para impulsar la innovación, y los modelos optimizados de metalama en Azure Ai Foundry han brindado un rendimiento excepcional. Hemos visto mejoras sustanciales en el rendimiento y la latencia, lo que nos permite acelerar nuestras cargas de trabajo al tiempo que optimizamos los costos. Estas avanzaciones hacen que la AZure AI funda una plataforma superb para escalar la AI de manera eficiente”. “.”. “.”. “.
Arun Venkatachar, VP Ingeniería, Synopsys Central Engineering
Al mismo tiempo, Microsoft está emocionado de expandir su catálogo de modelos en Azure Ai Foundry aún más con la adición de Mistral pequeño 3.1una versión mejorada de Mistral Small 3, con capacidades multimodales y una longitud de contexto extendido de hasta 128k.
Microsoft también está anunciando el Disponibilidad common de Azure Container Apps Unidades de procesamiento de gráficos sin servidor (GPU) con soporte para NVIDIA NIM. Las GPU sin servidor permiten que las empresas, las nuevas empresas y las compañías de desarrollo de software program ejecutaran las cargas de trabajo de IA sin problemas bajo demanda con escala automática, arranque en frío optimizado y facturación por segundo con escala a cero cuando no se usan para reducir la sobrecarga operativa. Con el apoyo de NVIDIA NIM, los equipos de desarrollo pueden construir e implementar fácilmente aplicaciones de IA generativas junto con aplicaciones existentes dentro de la misma crimson, seguridad y límites de aislamiento.
Expandir la infraestructura de IA de Azure con NVIDIA
La evolución de los modelos de razonamiento y los sistemas de IA agente está transformando el panorama de inteligencia synthetic. La infraestructura robusta y especialmente diseñada es clave para su éxito. Hoy, Microsoft se complace en anunciar el Disponibilidad common de la serie Azure ND GB200 V6 Digital Machine (VM) Acelerado por NVIDIA GB200 NVL72 y Nvidia Quantum Infiniband Networking. Esta adición a la cartera de infraestructura Azure AI, junto con las máquinas virtuales existentes que usan NVIDIA H200 y las GPU NVIDIA H100, resaltan el compromiso de Microsoft para optimizar la infraestructura para la próxima ola de tareas de IA complejas como planificación, razonamiento y adaptación en tiempo actual.
A medida que empujamos los límites de la IA, nuestra asociación con Azure y la introducción de la plataforma Nvidia Blackwell representan un salto significativo adelante. El NVIDIA GB200 NVL72, con su rendimiento y conectividad incomparables, aborda las cargas de trabajo de IA más complejas, lo que permite a las empresas innovar más rápido y de manera más segura. Al integrar esta tecnología con la infraestructura segura de Azure, estamos desbloqueando el potencial de razonamiento de IA.
Ian Buck, vicepresidente de HyperScale y HPC, Nvidia
La combinación de las GPU NVIDIA de alto rendimiento con redes de crimson de baja latencia infiniband y las arquitecturas escalables de Azure son esenciales para manejar el nuevo rendimiento de datos masivos y las demandas intensivas de procesamiento. Además, la integración integral de las herramientas de seguridad, gobernanza y monitoreo de Azure admite aplicaciones de IA poderosas y confiables que cumplen con los estándares regulatorios.
Construido con el sistema de infraestructura personalizado de Microsoft y la plataforma Nvidia Blackwell, a nivel de centro de datos cada cuchilla presenta dos Nvidia GB200 Grace ™ Blackwell Superchips y NVIDIA NVLINK ™ Change Las redes de escala, que admite hasta 72 GPU NVIDIA Blackwell en un solo dominio NVLink. Además, incorpora lo último Nvidia Quantum InfiniBandpermitiendo escalar a decenas de miles de GPU de Blackwell en Azure, proporcionando dos veces el Rendimiento de supercomputación de IA de generaciones anteriores de GPU basadas en Análisis de referencia GEMM.
A medida que el trabajo de Microsoft con Nvidia continúa creciendo y dando forma al futuro de la IA, la compañía también espera traer el rendimiento de NVIDIA Blackwell Extremely GPU y las NVIDIA RTX Professional 6000 Blackwell Server Version to Azure. Microsoft está listo para lanzar las máquinas virtuales basadas en GPU NVIDIA Blackwell Extremely más tarde en 2025. Estas máquinas virtuales prometen ofrecer un rendimiento y eficiencia excepcionales para la próxima ola de cargas de trabajo de IA agente y generativa.
La infraestructura de Azure AI, avanzada por la computación acelerada de NVIDIA, ofrece constantemente alto rendimiento a escala para las cargas de trabajo de IA como lo demuestran los principales puntos de referencia de la industria como los resultados de supercomputación TOP500 y MLPERF.1,2 Recientemente, las máquinas virtuales de Azure que utilizan las GPU H200 de NVIDIA lograron un rendimiento excepcional en el MLPERF Coaching V4.1 Benchmarks En varias tareas de IA. Azure demostró un rendimiento líder en la nube al escalar 512 GPU H200 en un clúster, logrando un 28% de aceleración sobre GPU H100 En el último entrenamiento de MLPERF se ejecuta por MLCommons.3 Esto resalta la capacidad de Azure para escalar eficientemente grandes grupos de GPU. Microsoft está entusiasmado de que los clientes estén utilizando este rendimiento en Azure para entrenar modelos avanzados y obtener eficiencia para la inferencia generativa.
Empoderar a las empresas con la infraestructura de AI Azure
Metro Está entrenando un modelo de base grande sobre la infraestructura de AI Azure para automatizar la crimson de extremo a extremo. El rendimiento y el poder de Azure escalarán significativamente la capacitación e inferencia de IA del medidor, ayudando en el desarrollo de modelos con miles de millones de parámetros a través de configuraciones basadas en texto, telemetría de serie temporal y datos de crimson estructurados. Con el soporte de Microsoft, los modelos de Meder tienen como objetivo mejorar la forma en que las redes están diseñadas, configuradas y administradas, y aborda un desafío significativo para el progreso.
Laboratorios de la Selva Negrauna nueva empresa de IA generativa con la misión de desarrollar y avanzar en los modelos de aprendizaje profundo de última generación para los medios, ha ampliado su asociación con Azure. La infraestructura de Servicios de AI Azure ya se está utilizando para implementar sus modelos de flujo insignia, los modelos de medios de texto de texto a imagen más populares del mundo, que sirven a millones de imágenes de alta calidad todos los días con velocidad sin precedentes y management creativo. Sobre la base de esta base, Black Forest Labs adoptará las nuevas máquinas virtuales ND GB200 V6 para acelerar el desarrollo y el despliegue de sus modelos AI de próxima generación, lo que empuja los límites de la innovación en la IA generativa para los medios de comunicación. Black Forest Labs ha sido un socio de Microsoft desde su inicio, trabajando juntos para asegurar la infraestructura más avanzada, eficiente y escalable para capacitar y entregar sus modelos fronterizos.
Estamos ampliando nuestra asociación con Microsoft Azure para combinar la experiencia de investigación única de BFL en IA generativa con la poderosa infraestructura de Azure. Esta colaboración nos permite construir y ofrecer los mejores modelos de imágenes y movies posibles más rápido y a mayor escala, proporcionando a nuestros clientes capacidades visuales de IA visuales para la producción de medios, publicidad, diseño de productos, creación de contenido y más allá.
Robin Rombach, CEO, Black Forest Labs
Creación de nuevas posibilidades para innovadores en todas las industrias
Microsoft y Nvidia han lanzado preconfigurado Nvidia omniverse y nvidia Isaac Sim Estaciones de trabajo de escritorio virtuales, y Transmisión de la aplicación Omniverse Packageen el mercado de Azure. Impulsadas por las máquinas virtuales de Azure que utilizan GPU NVIDIA, estas ofertas brindan a los desarrolladores todo lo que necesitan para comenzar a desarrollar y autodesportar aplicaciones y servicios de simulación de gemelos digitales y robóticos para la period de la IA física. Varios socios del ecosistema de Microsoft y Nvidia, incluidos Máquinas brillantes, Visión cinética, Aparejoy Suave están adoptando estas capacidades para crear soluciones que permitirán la próxima ola de digitalización para los fabricantes del mundo.
Hay muchas soluciones innovadoras construidas por nuevas empresas de IA en Azure. Sistemas opacos Ayuda a los clientes a salvaguardar sus datos utilizando computación confidencial; Faros ai Proporciona información de ingeniería de software program, lo que permite a los clientes optimizar los recursos y mejorar la toma de decisiones, incluida la medición del ROI de sus asistentes de codificación de IA;Bria ai Proporciona una plataforma de IA generativa visible que permite a los desarrolladores usar la generación de imágenes de IA de manera responsable, proporcionando modelos de vanguardia capacitados exclusivamente en conjuntos de datos totalmente licenciados; Datos de pangeaestá entregando mejores resultados del paciente al mejorar la detección y el tratamiento en el punto de atención; y Investigación de Basecampestá impulsando el descubrimiento de biodiversidad con IA y extensos conjuntos de datos genómicos.
Experimente las últimas innovaciones de Azure y Nvidia
Los anuncios de hoy en la conferencia NVIDIA GTC AI subrayan el compromiso de Azure de superar los límites de las innovaciones de IA. Con productos de última generación, colaboración profunda e integraciones perfectas, continuamos ofreciendo la tecnología que respalda y capacita a los desarrolladores y clientes en el diseño, personalización y implementación de sus soluciones de IA de manera eficiente. Obtenga más información en el evento de este año y discover las posibilidades que Nvidia y Azure tienen para el futuro.
- Visítenos en el stand 514 en Nvidia GTC.
Fuentes:
2Trabajo de referencia | Puntos de referencia MlCommons
3Partes de referencia de escalabilidad de IA líder con Microsoft Azure – Signal65