La compañía Meta advirtió el miércoles a los usuarios que tengan cuidado con los conocidos en línea que prometen un romance pero quieren dinero. De cara a San Valentín, los estafadores suelen usar personalidades falsas para aprovecharse de quienes están en busca del amor.
Atención a las estafas con IA: advierten a posibles víctimas que buscan el amor online
Sus usos permiten falsificar voces e imágenes. Los sistemas de META aprovechan patrones de comportamiento para seguir de cerca la actividad de estafadores.
-
La Inteligencia Artificial reveló la estrategia infalible para conseguir pareja antes de San Valentín
-
La IA revolucionó el mundo de la ciberseguridad
Advierten sobre los potenciales usos de la IA para estafar a quienes buscan conocer personas online,
"Esta es una nueva herramienta en el arsenal de los estafadores", dijo a los periodistas el director de políticas de interrupción de amenazas globales de Meta, David Agranovich.
Atención a los estafadores "amorosos"
Los sistemas de detección de la familia de aplicaciones de Meta, que incluye Instagram y WhatsApp, se basan en patrones de comportamiento y señales técnicas en lugar de imágenes. Es decir, espían la actividad de los estafadores a pesar de los trucos de la inteligencia artificial (IA), según Agranovich.
"Esto hace que nuestra detección y aplicación sean algo más resistentes a la IA generativa", afirmó el director. Para ello, puso el ejemplo de una estafa desbaratada recientemente que, al parecer, se originó en Camboya y se dirigía a personas en idiomas chino y japonés.
Los investigadores de OpenAI determinaron que el "compuesto de estafas" parecía estar utilizando las herramientas de la empresa de inteligencia artificial de San Francisco para generar y traducir contenido, según Meta.
Uso de la IA, fortalecido para el mal
En los últimos meses el uso de la IA por parte de los estafadores se fortaleció, dijo durante la reunión informativa la "hacker ética" y directora ejecutiva de SocialProof Security, Rachel Tobac.
Las herramientas GenAI, disponibles de forma gratuita en las principales empresas, permiten a los estafadores cambiar sus rostros y voces en las videollamadas para hacerse pasar por alguien que no son.
"También pueden usar estos bots falsos que permiten crear un personaje o realizar llamadas telefónicas utilizando un clon de voz sin necesidad de que intervenga un humano", dijo Tobac. "Los llaman agentes, pero no se utilizan para el trabajo de atención al cliente. Se utilizan para estafas de forma automatizada".
Dejá tu comentario