Basis AI: innovaciones de código abierto para AI seguro
Para abordar los desafíos de ciberseguridad nuevos y complejos introducidos por la rápida adopción de la inteligencia synthetic (IA), Cisco Lanza Basis AIun equipo de expertos líderes en IA y ciberseguridad. Este grupo está completamente dedicado a resolver los principales desafíos de seguridad de la period de la IA mediante el desarrollo de herramientas y tecnologías avanzadas que aborden estos problemas centrales.
Este nuevo enfoque refleja la necesidad apremiante de equilibrar la adopción rápida de IA con medidas de seguridad sólidas. Las herramientas de la IA de la Fundación no solo capacitarán a las organizaciones para defender contra las amenazas emergentes, sino que también apoyarán los objetivos de política para crear sistemas de IA éticos y seguros.
El equipo de IA de la Fundación acaba de lanzar el primer modelo de razonamiento de código abierto Diseñado específicamente para fines de seguridad. También están introduciendo puntos de referencia para probar qué tan bien funcionan los modelos de seguridad cibernética en escenarios del mundo actual, así como herramientas que los equipos pueden aprovechar para personalizar y mejorar sus propios modelos. Estos esfuerzos fomentarán la colaboración entre expertos en seguridad, ingenieros de aprendizaje automático y desarrolladores de IA, proporcionando soluciones prácticas que las empresas pueden aprovechar inmediatamente para mejorar sus sistemas de ciberseguridad.
Las herramientas y puntos de referencia de código abierto lanzados por Basis AI apoyan los objetivos de la UE para fomentar la colaboración y la transparencia en el desarrollo de la tecnología. Al alentar el uso de IA segura y ética, las iniciativas de Cisco contribuyen a la visión de la UE de un ecosistema digital que prioriza seguridad, resistencia e innovaciónpara empresas y sociedad en basic.
AI Managemento de riesgo de la cadena de suministro: IA maliciosa o arriesgada antes del daño
Cisco está mejorando su Gestión de riesgos de la cadena de suministro de IA Capacidades para ayudar a las organizaciones a enfrentar los crecientes desafíos de gestionar los riesgos de seguridad de la IA y adoptar e innovar de manera segura con la IA. Estas herramientas protegen a las organizaciones identificando y deteniendo modelos de IA maliciosos o riesgosos antes de que puedan causar daño. Por ejemplo, pueden:
- Detectar y bloquear automáticamente modelos de IA con licencias de software program de código abierto riesgosos o restrictivos que plantean la propiedad intelectual y los riesgos de cumplimiento;
- hacer cumplir las políticas en modelos de IA que se originan en regiones geopolíticamente sensibles;
- Detectar y prevenir el uso de modelos de IA dañinos en el entorno de la organización.
Estos avances son parte de una visión más amplia para integrar la seguridad en cada etapa de la adopción de la IA, salvaguardando a las organizaciones en el panorama de IA en rápida evolución.
Despliegue y resiliencia seguro de IA
Con el Acto de IAla UE proporcionó un marco para abordar los riesgos asociados con la IA y promover su uso confiable, con énfasis en hacer que los sistemas de IA de alto riesgo sean precisos, robustos y seguros. El enfoque y las tecnologías de Cisco pueden ayudar a los implementadores y usuarios de estos sistemas a asegurarse de que ese sea el caso.
Este enfoque también se produce cuando la UE se posiciona en el panorama international de IA, con importantes inversiones destinadas a crear un continente listo para la AI. Herramientas como las introducidas por la Fundación AI de Cisco mejoran la resistencia del despliegue de IA en Europa, alineándose con la ambición de la UE para proteger la infraestructura crítica, garantizar el cumplimiento y reforzar la ciberseguridad.
A medida que la adopción de IA acelera, estos esfuerzos ejemplifican la necesidad de un enfoque equilibrado, uno que abarca la innovación al tiempo que salvaguarda contra los riesgos emergentes. Al construir soluciones prácticas, iniciativas como Basis AI no solo fortalecen la seguridad, sino que también avanzan la visión colectiva de un futuro de IA seguro y ético.
Compartir: