La Grada
  • Economía
  • Motor
  • Sociedad
  • La Grada
  • US
La Grada

Confirmado por expertos: los hackers pueden clonar tu voz con un simple audio de WhatsApp, pero así puedes evitarlo

por Ángel de la Fuente
9 de octubre de 2025
en Sociedad
Los hackers pueden clonar tu voz con un simple audio

Los hackers pueden clonar tu voz con un simple audio

Confirmado: la calle donde mejor se come de toda Europa está en España… y su historia te va a sorprender

Es oficial: Barcelona permitirá la apertura de sus centros comerciales los domingos a partir de esta fecha

Nuevo viral de Mercadona: el último producto que está volando de las estanterías es este snack para perros

Las opciones de los hackers para vulnerar tu privacidad y realizar fraudes a través de la red son prácticamente infinitas. Estos ciberdelincuentes son capaces de acceder a tus datos o suplantar tu identidad sin apenas dificultad. Algo tan simple como un audio de WhatsApp puede terminar en unas consecuencias fatales tanto económica como personalmente.

Lo que en un primer instante pudiera parecer un mensaje de voz enviado a un familiar o a un amigo puede convertirse en un elemento perfecto para que los hackers clonen tu voz y se aprovechen de ello. Diego Platense, experto en ‘deepfakes’ (contenido manipulado mediante Inteligencia Artificial), advierte de los peligros de esta práctica y es que los estafadores son capaces de crear un audio falso en el que confieses un crimen, por ejemplo.

Con solamente unos segundos de tu voz, extraídos de un mensaje en WhatsApp, el sistema aprende tus inflexiones, tu tono y tu cadencia. Con esos ingredientes, la IA es capaz de replicar e imitar tu voz con un realismo que verdaderamente da miedo.

Una nueva forma de suplantación de identidad

En nuestro día a día no somos conscientes de que los audios que mandamos por aplicaciones como WhatsApp quedan registrados en la red y por lo tanto cualquier persona con intenciones malignas puede llegar a ellos mediante el uso de programas, virus o método de desencriptación. Hemos normalizado compartir nuestra voz a familiares y amigos sin pensar en que con la tecnología de clonación de voz puede suplantarnos nuestra identidad. De esta forma, los ciberdelincuentes aprovechan para engañarnos no solo a nosotros sino a nuestro círculo cercano.

Es especialmente preocupante que ahora solo se necesiten unos pocos segundos para imitar la voz, mientras que antes se requerían largas grabaciones. Los hackers solo precisan de una muestra mínima de la voz para lograr fines ilegales.

Se aprovechan de un vínculo emocional

Estos delincuentes tienen una estrategia clara: apelar directamente a las emociones de las víctimas para anular así su pensamiento racional y analítico. Habitualmente es una llamada de auxilio mediante un mensaje de voz por WhatsApp con la voz clonada de un familiar o persona cercana. El cebo que mayores frutos da a los hackers es el de un hijo pidiendo dinero por una determinada emergencia.

Ante esta situación, el padre o madre del supuesto hijo en apuros, entra en pánico e instintivamente se lanza a ayudarle. El vínculo emocional es tan grande que caen en la trampa sin pensárselo dos veces. El estafador transmite una sensación de urgencia extrema la cuál se debe resolver con la mayor rapidez posible. El dinero, ya sea por transferencia o bizum, se ha de mandar de inmediato sin tener tiempo para verificar si lo que está ocurriendo es real o no.

Unas consecuencias fatales para tu identidad digital

Con la clonación de la voz entra en juego la dificultad para discernir lo copiado y modificado, de lo original. Puede ser un audio falso creado por los hackers pero en muchas ocasiones es indistinguible del real, por lo que puede terminar provocando problemas muy graves.

La suplantación de identidad mediante la voz puede concluir en desenlaces legales y sociales terribles. Un audio manipulado enviado a través de una aplicación como WhatsApp puede arruinarle la vida a una persona.

Así puedes evitarlo

Hay algunas recomendaciones que te ayudarán a blindarte ante estos fraudes. Lo primero que debes tener en cuenta es la desconfianza absoluta ante peticiones extrañas. Si recibes un mensaje de voz por WhatsApp pidiendo dinero  urgentemente, aunque parezca completamente real, tómate tu tiempo para tranquilizarte. Lo adecuado en esta situación es no hacer caso al mensaje y contactar con tu familiar a través de otro medio. Intenta llamar a su número de siempre como medio de verificación.

Finalmente, los expertos en ciberseguridad recomiendan otro consejo:  fijar una «palabra de seguridad» con nuestros familiares y amigos más cercanos. Un código familiar secreto que solo sabréis vosotros y que por lo tanto ningún delincuente conocerá y se sabrá al instante que se trata de una estafa.

  • Aviso Legal
  • Política de Privacidad y Cookies

© 2025 - La Grada

No hay resultados
Todos los resultados
  • Economía
  • Motor
  • Sociedad
  • La Grada
  • US

© 2025 - La Grada