La inteligencia artificial puede suplantar la identidad con nuevo método de estafa mundial

Aumenta el número de timos online debido al avance de las nuevas tecnologías que permiten perfeccionar la técnica

En el mundo digital actual, las estafas son una realidad que afecta a millones de personas. Los ciberdelincuentes se valen de las tecnologías más avanzadas para engañar a sus víctimas y obtener beneficios económicos. Ahora, una nueva amenaza ha llegado a la escena: la suplantación de identidad mediante la clonación de voz con inteligencia artificial.

La capacidad de los softwares de generar voces humanas realistas ha avanzado rápidamente en los últimos años. Microsoft y otras empresas están desarrollando sistemas que, mediante la inteligencia artificial, son capaces de imitar la voz humana con una precisión asombrosa. Estas herramientas pueden clonar la voz de una persona a partir de unos pocos segundos de grabación.

Deepfake para suplantar la identidad

Cómo protegerse de un intento de robo mediante deepfakes

Este avance tecnológico ha dado lugar a nuevas formas de estafa, como la suplantación de identidad a través de deepfakes de audio. En estos casos, los delincuentes utilizan la tecnología de clonación de voz para engañar a las víctimas haciéndose pasar por familiares o conocidos que necesitan ayuda económica urgente.

La suplantación de identidad con deepfakes de audio puede ser difícil de detectar, por lo que es importante estar alerta y seguir algunas pautas de seguridad para protegerse: Desconfiar de cualquier petición de dinero urgente de un familiar o conocido, especialmente si se realiza por teléfono o por correo electrónico. No compartir información personal o financiera en respuesta a solicitudes sospechosas. Utilizar herramientas de autenticación de voz para verificar la identidad de las personas con las que se habla por teléfono. Por último, debe mantenerse informado sobre las últimas amenazas de seguridad y seguir las recomendaciones de las autoridades.

Los riesgos potenciales de la tecnología de clonación de voz

Las empresas que están desarrollando tecnologías de clonación de voz son conscientes de los riesgos potenciales de su uso malintencionado. Por ejemplo, ElevenLabs, una compañía líder en este campo, ha admitido que algunas personas están utilizando su tecnología con fines maliciosos.

La clonación de voz con inteligencia artificial puede ser utilizada para cometer estafas financieras, pero también puede ser utilizada para otros fines malintencionados, como la manipulación política o la difusión de información falsa. Por eso, es importante que los desarrolladores de esta tecnología trabajen en soluciones que minimicen los riesgos y garanticen la seguridad de los usuarios.

Twitter cuentas corregidas