El desarrollo de nuevas herramientas basadas en Inteligencia Artificial también ha sido aprovechado por los ciberdelincuentes para cometer fechorías, afectando diversos sectores, entre ellos el bancario.
Y es que, alrededor del 51% de entidades financieras en todo el mundo perdieron entre $5 y $25 millones, debido a amenazas basadas en IA durante el 2023, de acuerdo con un estudio de la firma BioCatch.
“La Inteligencia Artificial se puede utilizar para crear videos deepfake, elaborar mensajes más realistas para utilizarlos en ataques de ingeniería social, clonar voces para aprovechar los sistemas de verificación de voz y más”, detalla Josué Martínez, experto de esta firma.
El crecimiento en los últimos dos años de herramientas como ChatGPT y DALL-E (OpenAI), Gemini (Google), Copilot (Microsoft), así como otros programas de IA generativa han puesto algunas de estas aplicaciones al alcance de todos, incluso de quienes pueden utilizarlas para fines ilícitos, añade el vocero.
Para contrarrestar estas vulnerabilidades, las entidades trabajan en el desarrollo de nuevos y más robustos sistemas de verificación de voz ante la posibilidad de clonación por medio de IA, entre otras estrategias y tecnologías para proteger a sus clientes.
Por otra parte, la implementación de la Inteligencia Artificial en América Latina enfrenta otros desafíos como la falta de talento especializado, carencia de recursos y resistencia al cambio.
“Para combatir eficazmente el fraude, es crucial que los bancos y las instituciones financieras compartan información, colaboren con autoridades reguladoras y empleen tecnologías emergentes”, concluye el especialista.
Cinco de los fraudes más comunes cometidos con Inteligencia Artificial
Phishing avanzado: se utiliza la IA para personalizar correos electrónicos, mensajes de texto o llamadas telefónicas con información específica sobre la víctima, lo que aumenta la probabilidad de que la persona caiga en la trampa y revele información confidencial, como contraseñas o números de tarjeta de crédito.
Clonación de tarjetas bancarias: los delincuentes utilizan la IA para analizar y replicar los patrones de diseño y seguridad de las tarjetas bancarias, lo que les permite crear copias casi idénticas de las tarjetas legítimas para realizar transacciones fraudulentas.
Robo de identidad: esta tecnología ofrece capacidades para recopilar y analizar grandes cantidades de información personal de las redes sociales, bases de datos públicas y otros recursos en línea para crear perfiles falsos y realizar transacciones bancarias fraudulentas en nombre de la víctima.
Fraude en transferencias bancarias: los algoritmos de IA pueden monitorear y analizar el comportamiento de los usuarios en línea para identificar patrones de actividad sospechosa y aprovecharse de vulnerabilidades en los sistemas de transferencias bancarias para desviar fondos a cuentas controladas por los delincuentes.
Ataques de ransomware: antisociales pueden utilizar la IA para desarrollar y distribuir ransomware sofisticado que pueda infectar sistemas informáticos de instituciones financieras, bloquear el acceso a los datos y exigir un rescate para su liberación.
Source link
Q Costa Rica