27.3 C
Colombia
martes, julio 8, 2025

Cómo los estafadores usan IA en fraude bancario


AI ha empoderado a los estafadores para evitar los controles contra la especie y la verificación de la voz, lo que les permite producir una identificación falsificada y documentos financieros notablemente rápidamente. Sus métodos se han vuelto cada vez más inventivos a medida que evoluciona la tecnología generativa. ¿Cómo pueden los consumidores protegerse y qué pueden hacer las instituciones financieras para ayudar?

1. Deepfakes mejoran la estafa de impostura

AI permitió la estafa de impostor exitosa más grande jamás registrada. En 2024, Arup con sede en el Reino Unido, una firma de consultoría de ingeniería- perdió alrededor de $ 25 millones Después de que los estafadores engañaron a un miembro del private para que transfiera fondos durante una videoconferencia en vivo. Habían clonado digitalmente líderes de alta gerencia reales, incluido el director financiero.

Deepfakes usan algoritmos de generador y discriminador para crear un duplicado digital y evaluar el realismo, lo que les permite imitar de manera convincente las características y la voz faciales de alguien de manera convincente. Con IA, los delincuentes pueden crear uno Usando solo un minuto de audio y una sola fotografía. Dado que estas imágenes artificiales, los clips o los movies de audio pueden ser pregrabados o en vivo, pueden aparecer en cualquier lugar.

2. Modelos generativos Enviar advertencias falsas de fraude

Un modelo generativo puede enviar simultáneamente miles de advertencias de fraude falsas. Think about a alguien pirateando un sitio internet de Electronics de consumo. A medida que entran grandes pedidos, su IA llama a los clientes, diciendo que el banco marcó la transacción como fraudulenta. Significa su número de cuenta y las respuestas a sus preguntas de seguridad, diciendo que debe verificar su identidad.

La llamada urgente y la implicación del fraude pueden persuadir a los clientes para que renuncien a su información bancaria e private. Dado que la IA puede analizar grandes cantidades de datos en segundos, puede hacer referencia rápidamente a los hechos reales para que la llamada sea más convincente.

3. La personalización de IA facilita la adquisición de la cuenta

Si bien un cibercriminal podría abrirse camino bruto sujetando sin parar contraseñas, a menudo usan credenciales de inicio de sesión robadas. Inmediatamente cambian la contraseña, el correo electrónico de copia de seguridad y el número de autenticación multifactorial para evitar que el titular de la cuenta actual los eche. Los profesionales de ciberseguridad pueden defenderse de estas tácticas porque entienden el libro de jugadas. AI introduce variables desconocidas, lo que debilita sus defensas.

La personalización es el arma más peligrosa que puede tener un estafador. A menudo se dirigen a la gente Durante los períodos pico de tráfico Cuando ocurren muchas transacciones, como el Black Friday, para dificultar el monitoreo de fraude. Un algoritmo podría adaptar los tiempos de enviar basados ​​en la rutina de una persona, los hábitos de compra o las preferencias de mensajes, lo que hace que se involucren.

La generación de idiomas avanzados y el procesamiento rápido permiten la generación de correo electrónico masivo, la suplantación de dominio y la personalización de contenido. Incluso si los malos actores envían 10 veces más mensajes, cada uno parecerá auténtico, persuasivo y relevante.

4. Generativo AI renova la estafa del sitio internet falso

La tecnología generativa puede hacer todo, desde el diseño de las marcas alguas hasta la organización del contenido. Un estafador puede pagar centavos en el dólar para crear y editar un sitio internet falso de inversión, préstamos o bancos de inversión o banca en cuestión de segundos.

A diferencia de una página de phishing convencional, puede actualizarse en tiempo casi actual y responder a la interacción. Por ejemplo, si alguien llama al número de teléfono listado o usa la función de chat en vivo, podría conectarse a un modelo capacitado para actuar como un asesor financiero o empleado del banco.

En uno de esos casos, los estafadores clonaron la plataforma Exante. La Compañía World FinTech brinda a los usuarios acceso a más de 1 millón de instrumentos financieros en docenas de mercados, por lo que las víctimas pensaron que estaban invirtiendo legítimamente. Sin embargo, sin saberlo depositaban fondos en una cuenta JPMorgan Chase.

Natalia Taft, jefe de cumplimiento de Exante, dijo que la firma encontró “bastantes” estafas similares, lo que sugiere que el primero no period un caso aislado. Tafta dijo que los estafadores hicieron un excelente trabajo Clonación de la interfaz del sitio internet. Ella dijo que las herramientas de IA probablemente lo crearon porque es un “juego de velocidad”, y deben “golpear a tantas víctimas como sea posible antes de ser derribados”.

5. Algoritmos omitiendo las herramientas de detección de la vida

La detección de la vida utiliza biometría en tiempo actual para determinar si la persona frente a la cámara es actual y coincide con la identificación del titular de la cuenta. En teoría, evitar la autenticación se vuelve más desafiante, evitando que las personas usen fotos o movies antiguos. Sin embargo, no es tan efectivo como solía ser, gracias a los profundos de AI.

Los ciberdelincuentes podrían usar esta tecnología para imitar a las personas reales para acelerar la adquisición de la cuenta. Alternativamente, podrían engañar a la herramienta para que verifique una personalidad falsa, facilitando el dinero de Muling.

Los estafadores no necesitan entrenar a un modelo para hacer esto: pueden pagar una versión previa al estado previo. Una solución de software program afirma que puede evitar cinco De las herramientas de detección de ventaja más prominentes que las compañías fintech usan para una compra única de $ 2,000. Los anuncios para herramientas como esta son abundantes en plataformas como Telegram, lo que demuestra la facilidad de fraude bancario moderno.

6. Las identidades de IA habilitan nuevos fraude de cuenta

Los estafadores pueden usar tecnología generativa para robar la identidad de una persona. En la internet oscura, muchos lugares ofrecen documentos emitidos por el estado como pasaportes y licencias de conducir. Más allá de eso, proporcionan selfies falsos y registros financieros.

Una identidad sintética es una persona fabricada creada al combinar detalles reales y falsos. Por ejemplo, el número de seguro social puede ser actual, pero el nombre y la dirección no lo son. Como resultado, son más difíciles de detectar con herramientas convencionales. El Informe de Tendencias de identidad y fraude de 2021 muestra aproximadamente 33% de falsos positivos Equifax ve son identidades sintéticas.

Los estafadores profesionales con presupuestos generosos y ambiciones elevadas crean nuevas identidades con herramientas generativas. Cultivan la persona, estableciendo un historial financiero y crediticio. Estos trucos de acciones legítimas conocen su software program de buyer, lo que les permite permanecer sin ser detectados. Finalmente, maximizan su crédito y desaparecen con ganancias netas positivas.

Aunque este proceso es más complejo, ocurre pasivamente. Los algoritmos avanzados entrenados en técnicas de fraude pueden reaccionar en tiempo actual. Saben cuándo hacer una compra, pagar la deuda de la tarjeta de crédito o sacar un préstamo como un humano, ayudándoles a escapar de la detección.

Lo que los bancos pueden hacer para defenderse de estas estafas de IA

Los consumidores pueden protegerse creando contraseñas complejas y ejerciendo precaución al compartir información private o de cuenta. Los bancos deberían hacer aún más para defenderse contra el fraude relacionado con la IA porque son responsables de asegurar y administrar cuentas.

1. Emplear herramientas de autenticación multifactorias

Dado que Deepfakes ha comprometido la seguridad biométrica, los bancos deben confiar en la autenticación multifactorial. Incluso si un estafador roba con éxito las credenciales de inicio de sesión de alguien, no puede obtener acceso.

Las instituciones financieras deben decirle a los clientes que nunca compartan su código MFA. La IA es una herramienta poderosa para los ciberdelincuentes, pero no puede pasar por alto de manera confiable los códigos de acceso único. El phishing es una de las únicas formas en que puede intentar hacerlo.

2. Mejore los estándares de conocimiento de sus clientes

KYC es un estándar de servicio financiero que requiere que los bancos verifiquen las identidades, los perfiles de riesgos y los registros financieros de los clientes. Si bien los proveedores de servicios que operan en áreas grises legales no están sujetos técnicamente a KYC, nuevas reglas que afectan a Defi no entrará en vigencia Hasta 2027, es una mejor práctica en toda la industria.

Las identidades sintéticas con historias de transacciones de años, legítimas, cuidadosamente cultivadas son convincentes pero propensas a errores. Por ejemplo, la ingeniería rápida easy puede obligar a un modelo generativo a revelar su verdadera naturaleza. Los bancos deben integrar estas técnicas en sus estrategias.

3. Utilice Análisis de comportamiento avanzado

Una mejor práctica al combatir la IA es combatir el fuego con fuego. El análisis de comportamiento impulsado por un sistema de aprendizaje automático puede recopilar una enorme cantidad de datos sobre decenas de miles de personas simultáneamente. Puede rastrear todo, desde el movimiento del mouse hasta los registros de acceso con marca de tiempo. Un cambio repentino indica una toma de cuenta.

Si bien los modelos avanzados pueden imitar las compras o los hábitos de crédito de una persona si tienen suficientes datos históricos, no sabrán cómo imitar la velocidad de desplazamiento, deslizar patrones o movimientos del mouse, dando a los bancos una ventaja sutil.

4. Realizar evaluaciones integrales de riesgos

Los bancos deben realizar evaluaciones de riesgos durante la creación de cuentas para evitar el fraude de cuenta nueva y negar recursos de mulas de dinero. Pueden comenzar buscando discrepancias en nombre, dirección y SSN.

Aunque las identidades sintéticas son convincentes, no son infalibles. Una búsqueda exhaustiva de registros públicos y redes sociales revelaría que solo aparecieron recientemente. Un profesional podría eliminarlos con suficiente tiempo, evitando el dinero de la muling y el fraude financiero.

Un límite de retención o transferencia temporal de la verificación pendiente podría evitar que los malos actores creen y dumpan cuentas en masa. Si bien hacer que el proceso sea menos intuitivo para los usuarios reales puede causar fricción, podría ahorrar a los consumidores miles o incluso decenas de miles de dólares a largo plazo.

Proteger a los clientes de las estafas de IA y el fraude

La IA plantea un problema grave para los bancos y las empresas FinTech porque los malos actores no necesitan ser expertos, o incluso muy técnicamente alfabetizados, para ejecutar estafas sofisticadas. Además, no necesitan construir un modelo especializado. En cambio, pueden hacer jailbreak una versión de uso normal. Dado que estas herramientas son tan accesibles, los bancos deben ser proactivos y diligentes.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles