En la era digital, los avances tecnológicos han traído consigo nuevas formas de delito cibernético, entre las que destacan los ataques de deepfake vishing. Estos ataques utilizan inteligencia artificial para clonar voces de personas conocidas por la víctima, creando llamadas fraudulentas que parecen auténticas. El objetivo es engañar al receptor para que realice acciones perjudiciales, como transferir dinero o revelar información confidencial. Las autoridades y expertos en ciberseguridad han alertado sobre el aumento exponencial de estas amenazas, destacando la sofisticación y realismo que alcanzan estos esquemas de phishing.
El proceso detrás de un ataque de deepfake vishing es alarmantemente simple. Los atacantes recopilan muestras de voz de la persona a imitar, que pueden ser tan cortas como tres segundos, obtenidas de videos, reuniones en línea o llamadas anteriores. Estas muestras se introducen en motores de síntesis de voz basados en IA, como Tacotron 2 de Google o Vall-E de Microsoft, permitiendo a los atacantes generar cualquier frase con el tono y estilo de la víctima. Aunque estos servicios prohíben el uso malintencionado de deepfakes, las medidas de seguridad pueden ser eludidas con facilidad. Un paso adicional es suplantar el número de teléfono, una técnica antigua pero efectiva.
Lo más preocupante es la evolución hacia ataques en tiempo real, donde la voz clonada responde a preguntas en el momento, aumentando la credibilidad del engaño. Aunque aún no son comunes, los avances en velocidad de procesamiento y eficiencia de los modelos sugieren que pronto lo serán. Este artículo sirve como una llamada de atención sobre la importancia de estar informados y adoptar medidas de seguridad adicionales en nuestras comunicaciones digitales.