Una de las modalidades delincuenciales en torno a estafas virtuales gira en torno al uso de mensajes de voz en WhatsApp para engañar a los familiares y amigos de un usuario, quien probablemente primero fue una víctima del hackeo de su cuenta

Los ciberdelincuentes tienen la capacidad de clonar la voz de una persona a través de la Inteligencia Artificial (IA) y con ello enviar notas de audio a través de esta reconocida aplicación de mensajería.

¿Cómo funciona la estafa con mensajes de voz en WhatsApp?

Diversas aplicaciones de IA no solo te permiten clonar la voz de personas famosas, sino también de personas ordinarias con la finalidad de obtener principalmente dinero o lograr realizar acciones fraudulentas. 

De acuerdo con organizaciones especializadas en fact checking (información verificada), esta modalidad de engaño recibe el nombre de "vishing", la cual compila la palabra voice (voz, en castellano) y phishing, una técnica de suplantación de identidad para sustraer datos personales y bancarios.

De esta manera, surge el IA vishing, un tipo de fraude a través de la voz que busca estafar o engañar a la víctima haciéndole creer que habla con un familiar o amigo.

Por lo general, los especialistas sugieren que para clonar una voz con IA generativa se necesitan varios segundos de audio obtenidos de una persona; por ende, es sencillo suplantar a personajes públicos, como políticos y celebridades.

En el caso de personas comunes, esto es poco posible; sin embargo, si los ciberdelincuentes hackean una cuenta de WhatsApp u obtienen un celular robado, pueden tener acceso no solo a diversas notas de voz, sino a información personal.

Actualmente, en internet existen algunas alternativas gratuitas en línea, así como herramientas comerciales a costos accesibles para clonar la voz con IA, generar imágenes e incluso combinar ambas modalidades para crear un video fraudulento.

View post on X