El mundo de las ciberestafas es cada vez más sofisticado y la llegada de la inteligencia artificial (IA) no ha hecho más que ayudar a hacerlas más disimuladas. En este sentido, la Policía Nacional ha alertado de la llegada de una nueva modalidad de fraude que utiliza este mecanismo y que es casi indetectable para la persona que es víctima. Se trata del conocido como voice hacking y hace que ya no nos podamos fiar ni de una llamada o mensaje de voz de algún familiar o amigo, por muy de confianza que sea, ya que podría ser totalmente falso.

Con el voice hacking, también conocido como clonación de voz, los ciberestafadores consiguen grabaciones de voces de las víctimas y, con ellas, generan falsos audios con IA haciéndose pasar por la misma persona. Posteriormente, estos audios se envían a amigos, familiar y conocidos de la víctima, haciéndoles creer que se trata de una persona de su confianza y pidiéndoles dinero con cualquier excusa. Así, estafas como la del falso hijo en problemas o los robos de cuentas de WhatsApp para obtener dinero de los contactos son mucho más creíbles. Ya no se trata solo de un texto detrás de la pantalla, sino que es la supuesta voz de la persona quien lo pide.

Un código secreto para evitar la estafa

Ante este tipo de estafas difíciles de detectar y en la que ya puede ser demasiado tarde cuando la víctima se da cuenta de ello, la Policía Nacional recomienda tomar medidas preventivas para no caer en el engaño. Uno de los mecanismos más eficaces, a la vez que sencillo de llevar a cabo, es establecer una clave secreta con las personas de confianza, como por ejemplo podría ser el nombre de una mascota o una fecha con un significado especial. Con este código secreto se podrá verificar si se trata de una llamada o un mensaje de voz real, o de uno falso generado con inteligencia artificial por unos ciberestafadores.