En ciberseguridad, las amenazas en línea que plantean la IA pueden tener impactos muy materiales en las personas y organizaciones de todo el mundo. Las estafas de phishing tradicionales han evolucionado mediante el abuso de herramientas de IA, que se vuelven más frecuentes, sofisticadas y más difíciles de detectar con cada año que pasa. Ai Vishing es quizás la más preocupante de estas técnicas en evolución.
¿Qué es Ai Vishing?
Ai Vishing es una evolución del phishing de voz (Vishing), donde los atacantes se hacen pasar por personas de confianza, como representantes bancarios o equipos de apoyo técnico, para engañar a las víctimas para realizar acciones como transferir fondos o entregar el acceso a sus cuentas.
La IA mejora las estafas con tecnologías que incluyen clonación de voz y fallas profundas que imitan las voces de las personas de confianza. Los atacantes pueden usar IA para automatizar las llamadas telefónicas y las conversaciones, lo que les permite dirigirse a grandes cantidades de personas en un tiempo relativamente corto.
Ai salpiendo en el mundo actual
Los atacantes usan técnicas de AI Vishing indiscriminadamente, dirigiéndose a todos, desde personas vulnerables hasta empresas. Estos ataques han demostrado ser notablemente efectivos, con el número de estadounidenses que pierden dinero por crecientes 23%De 2023 a 2024. Para poner esto en contexto, exploraremos algunos de los ataques AI más de alto perfil que han tenido lugar en los últimos años.
Estafa de negocios italiano
A principios de 2025, estafador Usó IA para imitar la voz del Ministro de Defensa italiano, Guido Crosetto, en un intento por estafar a algunos de los líderes empresariales más destacados de Italia, incluido el diseñador de moda Giorgio Armani y el cofundador de Prada, Patrizio Bertelli.
Haciéndose pasar por Crosetto, los atacantes afirmaron que necesitan asistencia financiera urgente para la liberación de periodistas italianos secuestrados en el Medio Oriente. Solo un objetivo cayó para la estafa en este caso, Massimo Moratti, ex propietario del Inter de Milán, y la policía logró recuperar los fondos robados.
Hoteles y empresas de viajes bajo asedio
Según el Wall Avenue Journalel último cuarto de 2024 vio un aumento significativo en los ataques de Ai Vishing contra la industria de la hospitalidad y los viajes. Los atacantes utilizaron la IA para hacerse pasar por agentes de viajes y ejecutivos corporativos para engañar al private del resort Entrance-Desk para divulgar información confidencial o otorgar acceso no autorizado a los sistemas.
Lo hicieron dirigiendo representantes de servicio al cliente ocupados, a menudo durante las horas de operación máximas, para abrir un correo electrónico o un navegador con un archivo adjunto malicioso. Debido a la notable capacidad de imitar a los socios que trabajan con el resort a través de herramientas de IA, las estafas telefónicas se consideraron “una amenaza constante”.
Estafas románticas
En 2023, atacantes Usó IA para imitar las voces de los miembros de la familia en apuros y estafa a las personas mayores de alrededor de $ 200,000. Las llamadas de estafa son difíciles de detectar, especialmente para las personas mayores, pero cuando la voz en el otro extremo del teléfono suena exactamente como un miembro de la familia, son casi indetectables. Vale la pena señalar que este incidente tuvo lugar hace dos años: la clonación de voz de AI ha crecido aún más sofisticado desde entonces.
Ai Vishing-As-A-Service
Ai Vishing-As-A-Service (VAAS) ha sido un importante contribuyente al crecimiento de Ai Vishing en los últimos años. Estos modelos de suscripción pueden incluir capacidades de falsificación, indicaciones personalizadas y agentes adaptables, lo que permite a los malos actores lanzar ataques AI visitantes a escala.
En Fortrahemos estado rastreando a Plugvalley, uno de los jugadores clave en el mercado de AI Vishing como servicio. Estos esfuerzos nos han dado una concept del grupo de amenazas y, quizás lo más importante, dejó en claro cuán avanzados y sofisticados se han vuelto los ataques.
Enchufe: Ai vaas descubierto
El bot de Vishing de Plugvalley permite a los actores de amenaza desplegar voces realizables y personalizables para manipular a las posibles víctimas. El bot puede adaptarse en tiempo actual, imitar patrones de habla humana, falsificar identificadores de llamadas e incluso agregar ruido de fondo del centro de llamadas a las llamadas de voz. Hace que las estafas de Ai Vishing lo sea lo más convincente posible, ayudando a los ciberdelincuentes a robar credenciales bancarias y contraseñas únicas (OTP).
Plugvalley elimina las barreras técnicas para los ciberdelincuentes, que ofrece tecnología de fraude escalable con un clic de un botón para suscripciones mensuales nominales.
Los proveedores de AI VAA como PlectValley no solo ejecutan estafas; Están industrializando el phishing. Representan la última evolución de la ingeniería social, permitiendo que los ciberdelincuentes armen las herramientas de aprendizaje automático (ML) y aprovechen a las personas a gran escala.
Protección contra Ai Vishing
Las técnicas de ingeniería social impulsadas por la IA, como Ai Vishing, se volverán más comunes, efectivas y sofisticadas en los próximos años. En consecuencia, es importante que las organizaciones implementen estrategias proactivas, como capacitación en conciencia de empleados, sistemas de detección de fraude mejorados e inteligencia de amenazas en tiempo actual,
En un nivel particular person, la siguiente guía puede ayudar a identificar y evitar intentos de Ai visitantes:
- Sea escéptico de las llamadas no solicitadas: Ejercar precaución con llamadas telefónicas inesperadas, especialmente aquellos que solicitan detalles personales o financieros. Las organizaciones legítimas generalmente no solicitan información confidencial por teléfono.
- Verificar la identidad de la persona que llama: Si una persona que llama afirma representar a una organización conocida, verifique independientemente su identidad contactando a la organización directamente utilizando la información de contacto oficial. Cableado sugiere crear una contraseña secreta con su familia para detectar ataques de vishado que afirman ser de un miembro de la familia.
- Límite de intercambio de información: Evite divulgar información private o financiera durante llamadas no solicitadas. Sea particularmente cauteloso si la persona que llama crea una sensación de urgencia o amenaza las consecuencias negativas.
- Educar a sí mismo y a los demás: Manténgase informado sobre las tácticas comunes de Vishing y comparta este conocimiento con amigos y familiares. La conciencia es una defensa crítica contra los ataques de ingeniería social.
- Informar llamadas sospechosas: Informe a las autoridades relevantes o a las agencias de protección del consumidor sobre los intentos de vishado. Los informes ayuda a rastrear y mitigar las actividades fraudulentas.
Según todos los indicios, Ai Vishing está aquí para quedarse. De hecho, es possible que continúe aumentando de volumen y mejorando la ejecución. Con la prevalencia de las fakes profundos y la facilidad de adopción de la campaña con modelos AS-A-Service, las organizaciones deben anticipar que, en algún momento, serán dirigidos a un ataque.
La educación y la detección de fraude de los empleados son clave para prepararse y prevenir los ataques de Ai Vishing. La sofisticación de Ai Vishing puede llevar a los profesionales de seguridad incluso bien entrenados a creer solicitudes o narraciones aparentemente auténticas. Debido a esto, una estrategia de seguridad integral y en capas que integra salvaguardas tecnológicas con una fuerza laboral consistentemente informada y vigilante es esencial para mitigar los riesgos planteados por el phishing de IA.