Deepfakes y phishing, las nuevas reglas del juego

Ponencia de Fran Ramírez perteneciente al módulo Metaverso, IA y tecnologías inmersivas y transformación digital de C1b3rWall Academy 22/23

Deepfakes y phishing, las nuevas reglas del juego

Tiempo de lectura estimado: 7 minutos


Phishing clásico

El phishing clásico suele llegar por mail o SMS, con una dirección web preparada para la estafa que, en ocasiones, se parece mucho a la original. Ha habido casos en España de transferencias bancarias millonarias a través de un mail falso. En la actualidad, las reglas y los métodos han evolucionado y ahora se utilizan incluso suplantaciones de identidad a través de videollamadas para engañar y estafar económicamente.

Deepfakes (ataque)

La realización de deepfakes en vídeos ya está considerablemente extendida y no es algo especialmente nuevo. Se refiere a una técnica de IA que permite editar vídeos falsos de personas aparentemente reales. En la ponencia se hace hincapié en los deepfakes en tiempo real mediante algún canal de comunicación. 

Pueden generarse imágenes a partir de una original o incluso desde cero, basadas en redes neuronales. Una imagen de entrada, en primer lugar se "descompone" a través de un codificador y, posteriormente, se codifica de nuevo mediante un decoder. La idea es obtener la imagen en un formato que la IA pueda manipular.

Algunos problemas derivados del entrenamiento de GANs son los siguientes:

  • Tiempos de entrenamiento largos.
  • El modelo puede no converger.
  • Dificultad para elegir los hiperparámetros, algo complejo en general en machine learning.

Para engañar a través de deepfakes en tiempo real se pueden utilizar vídeos de la persona de la que se quiere utilizar el rostro y face landmarks, es decir, características de la cara. Para el audio, a través de vídeos de la persona, pueden utilizarse herramientas como Google Cloud Speech-to-Text para generar modelos con voz clonada.

Un amplio entrenamiento de modelos y la evolución de herramientas de audio hará que en muy poco tiempo haya engaños tipo phishing basados en IA y machine learning en tiempo real. Será incluso más sencillo engañar solamente con audio, por ejemplo, con falsificados a través de audios de WhatsApp.

Deepfakes (defensa)

Del mismo modo que se habla de herramientas de ataque, también las hay de defensa para detectar anomalías o poder distinguir un contenido manipulado de uno real.

También existen herramientas de detección de EAR parpadeo. El EAR es un baremo que indica una frecuencia de parpadeo, por lo que si la imagen no encaja dentro de unos patrones se trata de un indicador de deepfake. Otras utilidades pasan por, por ejemplo, la detección de los latidos del corazón, aunque esto depende enormemente de la calidad de la imagen, que es lo que permitirá identificar o no bombeos y patrones. 

Conclusiones

  1. Engañar a la gente es fácil y "muy barato" si se utilizan imágenes en lugar de texto.
  2. La IA y el machine learning van y deben de ir de la mano de la ciberseguridad.
  3. La IA no tiene límites y la ciberseguridad se verá reforzada y atacada por ella.
  4. El conocimiento y la concienciación son los pilares en los que nos apoyaremos para protegernos.

¿Todavía no formas parte de C1b3rWall Academy? El contenido es gratuito, únete a otras miles de personas desde este enlace.

Si te interesa este tema, puedes consultar la información y cursar el Máster en Ciberseguridad o ver la oferta de másteres desde aquí.


Ponente: Fran Ramírez

Fran es ingeniero en Informática de Sistemas, técnico superior en Electrónica Digital y máster universitario en Seguridad Informática. Acumula más de 15 años de experiencia como administrador de sistemas y desde 2017 trabaja como investigador de Ciberseguridad en Telefónica, realizando proyectos relacionados con la ciberseguridad y el machine learning. Contacto: @cybercaronte y www.linkedin.com/in/fjramirezv.

¿Cuál es tu reacción?

like

dislike

love

funny

angry

sad

wow

Acción formativa gratuita en ciberseguridad. Web: https://c1b3rwallacademy.usal.es/