Design market

Una universidad australiana ha buscado una solución tecnológica para mitigar el enorme número de fraudes que cada vez aumenta en todos los rincones del mundo. 

Facebook

Whatsapp

Twitter

Linkedin

Telegram

Copiar url

Enlace copiado

La inteligencia artificial se ha convertido en un auténtico filón para los ciberdelincuentes. No lo decimos nosotros, sino los propios datos. En apenas un par de años desde su aparición, las estafas digitales han aumentado un 148%, que se dice pronto. Ahora para cualquier criminal de este tipo es más fácil crear fraudes o estrategias de phishing que nunca antes.

Lo que algunos expertos han debido de pensar es: si la IA se emplea para el mal, ¿por qué no utilizarla también para justamente lo contrario? Es así como han nacido chatbots que apuestan por la ciberseguridad de manera muy específica: quieren acabar con las estafas telefónicas. O, al menos, reducirlas de manera considerable. Y quieren hacerlo dándoles a los hackers su propia medicina. 

No es casualidad que cada día existan más estafas telefónicas. La IA es de gran ayuda para los ciberdelincuentes. La forma en la que operan es sencilla: emplean técnicas de síntesis de voz y clonación para imitar a empleados bancarios, familiares o autoridades. Además, generan guiones dinámicos que adaptan la conversación según las reacciones de la víctima. 

Es lo que los expertos suelen llamar bots conversacionales. Estos cuentan con la capacidad de mantener llamadas largas y que, por desgracia, cada vez resultan más creíbles. Nada que ver con las voces y comportamientos robóticos antes. Pues bien, una universidad australiana ha decidido hacer exactamente lo mismo, pero en sentido contrario: para enfrentarse a los estafadores. 

Para ello han desarrollado unos chatbots impulsados con inteligencia artificial con los que enganchar a los estafadores telefónicos y mantenerlos ocupados el tiempo suficiente como para recolectar información sobre ellos. Esto ya de por sí podría ser de mucha ayuda a la hora de detectar y combatir fraudes, pero Apate.ai, que así se llama la startup en cuestión, quiere ir más allá. 

Su intención no pasa únicamente porque se trata de una herramienta reactiva, por así decirlo, sino que también sirvan como una especie de escudo de cara a los usuarios. Tienen la capacidad de simular y adaptarse a conversaciones reales, con diferentes estilos y personalidades. De hecho, algunos bancos australianos ya están probándolo para que ver qué tal el resultado. 

Aunque la iniciativa ha nacido con buenas intenciones, algunos especialistas no terminan de ver la estrategia con buenos ojos. Más que nada por una cuestión ética. Consideran que, pese a todo, se trata de un engaño igual. Además, ¿qué pasa si los chatbots fallan y no solo engañan a los estafadores, sino a cualquiera? Ya se sabe cómo está el tema de las alucinaciones de la IA. 

Por otro lado, está la cuestión de siempre: la privacidad. ¿Qué sucede con la información que se recopile mediante estos chatbots? ¿Dónde irá? ¿Y cómo será tratada? En estos momentos, todo lo relacionado con la IA genera dudas, para qué negarlo. Al menos, para los expertos en seguridad, claro. Los ciberdelincuentes lo tienen todo muy, muy claro. 

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial, Estafa