Design market

Organizaciones como el FBI han alertado sobre el crecimiento de las estafas con inteligencia artificial, como la clonación de voz, pero hay una forma de protegerse.

Freepik

Facebook

Whatsapp

Twitter

Linkedin

Telegram

Copiar url

Enlace copiado

Existen muchas herramientas de inteligencia artificial capaces de clonar cualquier tipo de voz sin que suene chirriante o mecánica, de forma que el tono sea natural, cercano e, incluso, parezca que tiene sentimientos.

Con el perfeccionamiento de este tipo de aplicaciones, se ha vuelto extremadamente complejo diferenciar si esa persona que llama al otro lado del teléfono es realmente quien dice ser o, por el contrario, se trata del comienzo de una estafa elaborada.

El engaño puede comenzar perfectamente con una llamada de un número desconocido que se hace pasar por una empresa legítima, así como por una cuenta robada en WhatsApp que parece ser real, aunque detrás simplemente hay un estafador o un chatbot con IA.

Según algunos de los últimos datos disponibles, todo el conjunto de estafas que utilizan IA han crecido hasta un 148% durante los primeros meses de 2025, en comparación con el mismo período del año anterior.

Mayormente por varios factores que hacen de la IA una herramienta perfecta para el engaño: la democratización de las herramientas, la facilidad de uso y el coste económico asequible de las aplicaciones.

Por ello, si quieres evitar este tipo de estafas, lo mejor es que configures una contraseña con familiares y amigos. Aunque aquí tampoco vale todo.

A finales del año pasado, el FBI publicó un comunicado para advertir a los consumidores y usuarios sobre el crecimiento de las estafas y el fraude financiero gracias a la utilización de herramientas de IA generativa.

Hay varios métodos que pueden utilizar, como la generación de texto automático sin errores gramaticales, así como la creación de imágenes para falsificar fotos de perfil de redes sociales, documentación oficial de identificación y otros recursos de apoyo.

Aunque algunos de los peores métodos son la generación de voces relacionadas con personajes públicos o, directamente, relaciones personales en caso de que los cibercriminales conozcan el nombre de familiares o amigos, algo no muy complicado mediante una simple búsqueda en redes sociales.

El primer consejo del FBI, prácticamente obligatorio para no caer en este tipo de fraudes, es el de la creación de una palabra o frase secreta con familiares para verificar su identidad. El procedimiento es el mismo que el de una contraseña para redes sociales o servicios en internet.

Para ello, lo recomendable es no usar algo habitual en vuestro entorno, como apellidos, identificadores que os relacionen, nombres de mascotas, lugares de nacimiento o fechas de cumpleaños y otros eventos.

Además de este paso obligatorio, no conviene apuntar la palabra o frase secreta en ningún lugar, y recordarla para usarla siempre que se dude de una llamada, así como cambiar la misma cada cierto tiempo, por ejemplo, cada 6 meses para que sea más seguro el proceso.

Si ya tenéis vuestra contraseña para familiares y amigos, el primer paso para blindarse ante las estafas con IA, el FBI también ofrece otro tipo de pasos a seguir para protegerte a ti y a tus seres queridos:

Además de estas líneas generales para no caer en estafas con IA, siempre hay que seguir la máxima de no ofrecer datos sensibles, como números bancarios, así como tampoco enviar ninguna cantidad de dinero a personas que solo conozca mediante medios telefónicos o digitales.

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial, Estafa, Ciberseguridad