Steve Wilson es el director de IA y Producto en Exabeam, donde su equipo aplica tecnologías de IA de vanguardia para abordar los desafíos de ciberseguridad del mundo actual. Fundó y copresidió el Proyecto de Seguridad Owasp Gen AI, la organización detrás del High 10 de OWASP estándar de la industria para la lista de seguridad de modelos de idiomas grandes.
Su galardonado libro, “El libro de jugadas del desarrollador para la seguridad del modelo de idioma grande“(O’Reilly Media), fue seleccionado como el mejor libro de ciberseguridad de vanguardia por la revista Cyber Protection.
Exabla es un líder en inteligencia y automatización que impulsa las operaciones de seguridad para las compañías más inteligentes del mundo. Al combinar la escala y el poder de la IA con la fortaleza de nuestro análisis conductual líder en la industria y la automatización, las organizaciones obtienen una visión más holística de los incidentes de seguridad, descubren anomalías perdidas por otras herramientas y logran respuestas más rápidas, más precisas y repetibles. Exabeam faculta a los equipos de seguridad international para combatir los cibercrominos, mitigar el riesgo y racionalizar las operaciones.
Su nuevo título es la IA y el oficial de productos de Exabeam. ¿Cómo refleja esto la importancia en evolución de la IA dentro de la ciberseguridad?
La ciberseguridad fue uno de los primeros dominios en adoptar realmente el aprendizaje automático: en exabeam, hemos estado utilizando ML como el núcleo de nuestro motor de detección durante más de una década para identificar el comportamiento anómalos que los humanos solo podrían perderse. Con la llegada de nuevas tecnologías de IA, como agentes inteligentes, la IA ha crecido de ser importante hasta absolutamente central.
Mi papel combinado como Jefe de IA y Oficial de Productos de Exabeam refleja exactamente esta evolución. En una empresa profundamente comprometida con integrar la IA en sus productos, y dentro de una industria como la ciberseguridad donde el papel de la IA es cada vez más crítico, tenía sentido unificar la estrategia de IA y la estrategia de productos bajo un solo papel. Esta integración garantiza que estamos estratégicamente alineados para ofrecer soluciones transformadoras de IA a analistas de seguridad y equipos de operaciones que más dependen de nosotros.
Exabeam es pionero “AI de agente” en las operaciones de seguridad. ¿Puede explicar lo que eso significa en la práctica y cómo se diferencia de los enfoques de IA tradicionales?
La IA agente representa una evolución significativa de los enfoques de IA tradicionales. Está orientado a la acción, iniciando procesos, analizando la información y la presentación de concepts antes de que los analistas incluso los soliciten. Más allá del mero análisis de datos, Agentic AI actúa como asesor, que ofrece recomendaciones estratégicas en todo el SOC, guiando a los usuarios hacia las victorias más fáciles y proporcionando orientación paso a paso para mejorar su postura de seguridad. Además, los agentes operan como paquetes especializados, no uno de chatbot engorrosos, cada uno adaptado con personalidades y conjuntos de datos específicos que se integran perfectamente en el flujo de trabajo de analistas, ingenieros y gerentes para brindar asistencia dirigida e impactante.
Con Exabeam Nova integrando múltiples agentes de IA en todo el flujo de trabajo de SOC, ¿cómo se ve el futuro del analista de seguridad? ¿Está evolucionando, reduciendo o se está volviendo más especializado?
El rol de analista de seguridad definitivamente está evolucionando. Los analistas, los ingenieros de seguridad y los gerentes de SOC están abrumados con datos, alertas y casos. El verdadero cambio futuro no se trata solo de ahorrar tiempo en las tareas mundanas, aunque los agentes ciertamente ayudan allí, sino de elevar el papel de todos en el del líder de un equipo. Los analistas aún necesitarán fuertes habilidades técnicas, pero ahora liderarán un equipo de agentes listos para acelerar sus tareas, amplificar sus decisiones e impulsar mejoras genuinamente en la postura de seguridad. Esta transformación posiciona a los analistas para convertirse en orquestadores estratégicos en lugar de respondedores tácticos.
Los datos recientes muestran una desconexión entre ejecutivos y analistas con respecto al impacto de la productividad de la IA. ¿Por qué crees que existe esta brecha de percepción y cómo se puede abordar?
Datos recientes Muestra una clara desconexión: el 71% de los ejecutivos creen que la IA aumenta significativamente la productividad, pero solo el 22% de los analistas de primera línea, los usuarios diarios, están de acuerdo. En Exabeam, hemos visto crecer esta brecha junto con el reciente frenesí de las promesas de IA en la ciberseguridad. Nunca ha sido más fácil crear demostraciones llamativas de IA, y los proveedores se apresuran a afirmar que han resuelto todos los desafíos de SOC. Mientras que estas demostraciones deslumbran inicialmente, muchas se quedan cortas donde cuenta, en manos de los analistas. El potencial está ahí, y existen bolsillos de pago genuino, pero todavía hay demasiado ruido y muy pocas mejoras significativas. Para cerrar esta brecha de percepción, los ejecutivos deben priorizar las herramientas de IA que realmente empoderan a los analistas, no solo impresionan en una demostración. Cuando AI realmente mejore la efectividad de los analistas, la confianza y las mejoras de productividad reales seguirán.
La IA está acelerando la detección y respuesta de amenazas, pero ¿cómo mantiene el equilibrio entre la automatización y el juicio humano en incidentes de ciberseguridad de alto riesgo?
Las capacidades de IA avanzan rápidamente, pero los “modelos de idiomas” fundamentales de hoy en día que sustentan agentes inteligentes se diseñaron originalmente para tareas como la traducción del idioma, no la toma de decisiones, la teoría de juegos o el manejo de factores humanos complejos. Esto hace que el juicio humano sea más esencial que nunca en la ciberseguridad. El papel de analista no está disminuido por la IA; Es elevado. Los analistas ahora son líderes del equipo, aprovechando su experiencia y conocimiento para guiar y dirigir múltiples agentes, asegurando que las decisiones sigan siendo informadas por el contexto y los matices. En última instancia, equilibrar la automatización con el juicio humano se trata de crear una relación simbiótica donde la IA amplifica la experiencia humana, no la reemplaza.
¿Cómo evoluciona su estrategia de producto cuando la IA se convierte en un principio de diseño central en lugar de un complemento?
En Exabeam, nuestra estrategia de productos está formada fundamentalmente por AI como un principio de diseño central, no un complemento superficial. Construimos Exabeam desde cero para admitir el aprendizaje automático, desde la ingestión de registros, el análisis, el enriquecimiento y la normalización) para poblar un modelo de información común robusto específicamente optimizado para alimentar los sistemas ML. Los datos estructurados y de alta calidad no solo son importantes para los sistemas de IA, es su sangre very important. Hoy, incorporamos directamente a nuestros agentes inteligentes en flujos de trabajo críticos, evitando chatbots genéricos y difíciles de manejar. En cambio, nos dirigimos precisamente a los casos de uso cruciales que ofrecen beneficios tangibles y tangibles a nuestros usuarios.
Con Exabeam Nova, su objetivo es “pasar de asistencia a autónomo”. ¿Cuáles son los hitos clave para llegar a operaciones de seguridad totalmente autónomas?
La thought de operaciones de seguridad totalmente autónomas es intrigante pero prematura. Los agentes totalmente autónomos, en cualquier dominio, simplemente no son eficientes o seguros. Si bien la toma de decisiones en la IA está mejorando, no ha alcanzado la confiabilidad a nivel humano y no lo hará por algún tiempo. En Exabeam, nuestro enfoque no persigue la autonomía whole, que mi grupo en OWASP identifica como una vulnerabilidad central conocida como agencia excesiva. Dar a los agentes más autonomía de la que se puede probar y validar de manera confiable las operaciones en terreno de riesgo. En cambio, nuestro objetivo son equipos de agentes inteligentes, capaces pero cuidadosamente guiados, que trabajan bajo la supervisión de expertos humanos en el SOC. Esa combinación de supervisión humana y asistencia de agente dirigida es el camino realista e impactante.
¿Cuáles son los mayores desafíos que se ha enfrentado a integrar el aprendizaje automático y el aprendizaje automático a la escala requerida para la ciberseguridad en tiempo actual?
Uno de los mayores desafíos para integrar el aprendizaje de Genai y Machine a escala para la ciberseguridad es equilibrar la velocidad y la precisión. Genai solo no puede reemplazar la escala de lo que nuestro motor ML de alta velocidad maneja: procesando los terabytes de datos continuamente. Incluso los agentes de IA más avanzados tienen una “ventana de contexto” que es muy insuficiente. En cambio, nuestra receta implica el uso de ML para destilar datos masivos en concepts procesables, que nuestros agentes inteligentes traducen y operacionalizan de manera efectiva.
Cofundó el OWASP High 10 para aplicaciones LLM. ¿Qué inspiró esto y cómo lo ves moldeando las mejores prácticas de seguridad de IA?
Cuando lanzé el OWASP High 10 para aplicaciones LLM a principios de 2023, la información estructurada sobre LLM y Genai Safety period escasa, pero el interés period increíblemente alto. En cuestión de días, más de 200 voluntarios se unieron a la iniciativa, trayendo diversas opiniones y experiencia para dar forma a la lista unique. Desde entonces, se ha leído más de 100,000 veces y se ha vuelto elementary para los estándares de la industria internacional. Hoy, el esfuerzo se ha expandido al proyecto de seguridad Owasp Gen AI, que cubre áreas como AI Purple Teaming, asegurando sistemas de agente y manejo de usos ofensivos de la Generación de la Generación en Ciberseguridad. Nuestro grupo recientemente superó a ten,000 miembros y continúa avanzando en las prácticas de seguridad de IA a nivel mundial.
Tu libro, ‘El libro de jugadas del desarrollador para LLM Safety‘, ganó un premio superior. ¿Cuál es la conclusión o principio más importante del libro que todo desarrollador de IA debe entender al construir aplicaciones seguras?
La conclusión más importante de mi libro, “The Developer’s Playbook for LLM Safety”, es easy: “Con gran poder viene una gran responsabilidad”. Si bien comprender los conceptos de seguridad tradicionales sigue siendo esencial, los desarrolladores ahora enfrentan un conjunto completamente nuevo de desafíos únicos para los LLM. Esta poderosa tecnología no es un pase gratuito, exige prácticas de seguridad proactivas y reflexivas. Los desarrolladores deben ampliar su perspectiva, reconocer y abordar estas nuevas vulnerabilidades desde el principio, incrustando la seguridad en cada paso del ciclo de vida de su aplicación de IA.
¿Cómo ve que la fuerza laboral de ciberseguridad evoluciona en los próximos 5 años a medida que la IA agente se vuelve más convencional?
Actualmente estamos en una carrera armamentista de IA. Los adversarios están desplegando agresivamente la IA para promover sus objetivos maliciosos, haciendo que los profesionales de ciberseguridad sean más cruciales que nunca. Los próximos cinco años no disminuirán la fuerza laboral de ciberseguridad, la elevarán. Los profesionales deben adoptar la IA, integrándola en sus equipos y flujos de trabajo. Los roles de seguridad cambiarán hacia el comando estratégico, menos sobre el esfuerzo particular person y más de orquestar una respuesta efectiva con un equipo de agentes impulsados por la IA. Esta transformación permite a los profesionales de seguridad cibernética liderar decisiva y con confianza en la batalla contra las amenazas en constante evolución.
Gracias por la gran entrevista, los lectores que deseen obtener más información deben visitar Exabla.