Honor lanzará su herramienta de detección AI Deepfake a nivel mundial en abril de 2025, pero sabremos más Durante el MWC 2025 de este año. Este sistema ayuda a las personas detectar imágenes y movies falsos enviando alertas cuando el contenido se ha alterado. El objetivo es mejorar la seguridad en línea.
Cómo funciona Honor AI Deepfake Detection
Primero se muestra en IFA 2024La IA escanea medios de comunicación en busca de signos de manipulación. Busca:
- Píxeles borrosos – Las imágenes falsas a menudo tienen texturas extrañas y pixelación.
- Bordes extraños – Los bordes de caras u objetos pueden parecer antinaturales.
- Pitches en movies – Los marcos pueden no coincidir correctamente.
- Caras no naturales – La IA encuentra características fuera de lugar y proporciones extrañas.
Si se detecta contenido falso, el sistema advierte a los usuarios de inmediato.
Por qué los defectos profundos son un problema
La IA ha cambiado muchas industrias, pero también ha aumentado las amenazas cibernéticas. Un informe del Instituto de Ciberseguridad de 2024 CONFORT encontró que las estafas de Deepfake ocurren cada cinco minutos. Un estudio de Deloitte en 2024 mostró que el 59% de los usuarios luchan por decirle a Actual de los medios falsos. Además, el 84% de las personas quieren etiquetas claras en el contenido digital. Honor cree que se necesitan mejores herramientas y trabajo en equipo en todas las industrias para combatir estos riesgos.
Grupos como la procedencia y la autenticidad del contenido (C2PA) están trabajando en reglas para verificar los medios generados por IA.
Riesgos para las empresas
Las estafas de Deepfake están aumentando rápidamente. Entre noviembre de 2023 y noviembre de 2024, el 49% de las empresas informaron fraude relacionado con Deepfake, un aumento del 244%. Aún así, el 61% de los líderes empresariales no han tomado medidas.
Los mayores riesgos incluyen:
- Robo de fraude e identidad – Los delincuentes usan Deepfakes para fingir ser personas reales.
- Espionaje corporativo – Los medios falsos pueden difundir información falsa y dañar a los negocios.
- Desinformación – Deepfakes puede engañar al público e influir en las opiniones.
Cómo las empresas están luchando
Para detener el fraude de Deepfake, las empresas están utilizando:
- Herramientas de detección de IA – El sistema de Honor ve movimiento ocular no pure, problemas de iluminación y errores de reproducción.
- Cooperación de la industria – Grupos como C2PA, respaldados por Adobe, Microsoft e Intel, trabajan en los estándares de verificación.
- Protección incorporada – Snapdragon X Elite de Qualcomm usa AI para detectar defensores profundos en dispositivos móviles.
El futuro de la seguridad de Deepfake
El mercado de detección de Deepfake crecerá un 42% cada año, alcanzando $ 15.7 mil millones para 2026. A medida que mejoran los defectos, las personas y las empresas deben usar herramientas de seguridad de IA, leyes y programas de concientización para reducir los riesgos.
Unido advierte sobre Deepfakes
Marco Kamiya de la Organización de Desarrollo Industrial de las Naciones Unidas (UNIDO) dijo que Deepfakes puso en riesgo los datos personales. La información confidencial, como ubicaciones, pagos y contraseñas, puede ser robada.
Kamiya enfatizó que los dispositivos móviles, que almacenan datos importantes, son los principales objetivos para los piratas informáticos. Protegerlos es clave para prevenir las estafas y el robo de identidad.
Él explicó:
“La detección de AI Deepfake en dispositivos móviles es essential para la seguridad en línea. Detea detalles que las personas pueden perderse, como el movimiento ocular antinatural, los errores de iluminación y los problemas de video. Esta tecnología ayuda a las personas, las empresas e industrias a mantenerse seguras ”.
Honor enfatizó la importancia de la detección de Deepfake. En un mundo donde “ver ya no es creer”, las empresas deben centrarse en la seguridad para proteger a sus clientes y reputación.