Herramientas como Sora o ChatGPT se han convertido en las mejores aliadas de los ciberdelincuentes, que cada vez hacen más difícil saber qué es real y qué no.
Telegram
Copiar url
Enlace copiado
Hace no mucho saltaba la noticia: las estafas digitales se han multiplicado de un tiempo a esta parte, y la culpable de ello no es otra que la inteligencia artificial. Ahora, los expertos han puesto la lupa en algo concreto: los vídeos generados mediante IA. Actualmente reconocen que ya se han convertido en un problema para la ciberseguridad en todo el mundo.
Sin embargo, parece que la amenaza no ha hecho más que empezar. Según los pronósticos de los especialistas, estos van a ir en aumento hasta que estén por todas partes. Cada vez resultará más difícil distinguir lo que es real y lo que no, como también advirtió hace no mucho la propia Policía Nacional. Por no hablar de que la identidad de cualquiera estará en peligro.
Las estafas y engaños varios siempre han sido una constante en Internet. En ese sentido, no es algo nuevo. Cualquiera podía poner una foto tuya en un perfil falso de una red social e intentar engañar a quien fuese. ¿Quién no ha escuchado hablar de estafas románticas en las que alguien se hacía pasar por quien no es para terminar por sacar el dinero a alguna pobre víctima incauta?
Pero ahora la cosa es distinta. Y sobre todo lo será, como dicen los expertos de Axios. Sin ir más lejos, hablan de la aplicación Sora, creada por OpenAI (responsables de ChatGPT). Esta es capaz de crear vídeos de personas reales sin mucho esfuerzo, solo se necesitan unas fotos para ello. Es verdad que supuestamente requiere consentimiento, pero los ciberdelincuentes lo burlan sin problemas.
Gracias a los vídeos de la IA, los estafadores pueden suplantar a casi cualquiera que se propongan suplantar. No solo por la imagen: sucede lo mismo con el audio. Solo requieren unos segundos de una grabación para recrear una voz que, si no llega a ser perfecta, desde luego sí resulta muy convincente. Y hoy en día, ¿quién no tiene alguna publicación hablando en Internet?
Aunque Sora es la herramienta que más críticas está recibiendo en este sentido (como en su día lo hizo Grok, la IA de Elon Musk), los timadores aprovechan todas las herramientas a su alcance. Por ejemplo, usan ChatGPT para redactar esquemas de ataque y estrategias varias, y luego otros modelos para ejecutar la creación de contenido falso en forma de vídeos y audios.
En el fondo, las estafas hechas con vídeos de IA no se distinguen mucho de las demás. Es decir, que los ciberdelincuentes quieren siempre lo mismo: pedir dinero y extorsionar a sus víctimas. Hay muchos casos concretos en los que los hackers envían correos y mensajes exigiendo rescates, o diciendo que tienen datos comprometedores y pidiendo grandes sumas a cambio de ellos.
En definitiva, el panorama no es demasiado esperanzador. Como dicen los expertos, los vídeos falsos van a estar en todas partes. Y tampoco descartan que se empleen con otros fines, como por ejemplo influir desde un punto de vista político.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, Estafa