El problema de la ciberdelincuencia impulsada por inteligencia artificial
Las ciberamenazas evolucionan a la vez que evoluciona la inteligencia artificial, haciéndose cada vez más sofisticadas. La empresa de ciberseguridad Check Point® Software Technologies Ltd advierte que las tecnologías que ayudan a las empresas a mejorar su eficiencia, también son utilizadas para automatizar la toma de decisiones y están siendo objeto de uso por ciberdelincuentes.
Estas herramientas de IA otorgan a los atacantes la capacidad para suplantar y manipular identidades digitales de forma convincente, por lo que es muy difícil diferenciar lo verdadero de lo falso.
Inteligencia Artificial y riesgos de seguridad informática
Se identifican algunas de las áreas clave donde existe erosión de la confianza:
Uso de la IA y riesgo de fuga de datos sensibles. Esto ocurre porque la IA no siempre obedece los guardarraíles de seguridad para contener la información sensible así como los datos personales. Según un análisis de GenAI Protect, se detalla que 1 de cada 80 prompts (o comandos para interactuar con la inteligencia artificial) tienen información sensible extraída del modelo de IA.
Otro de los factores críticos de seguridad informática consiste en la suplantación y técnicas de ingeniería social mejoradas con Inteligencia Artificial, desde correos electrónicos phising realistas en tiempo real, hasta vídeos deepfake o suplantación con voces realistas entrenadas con audios de personas reales afines a las víctimas.
Al margen de los ataques directos, existe otro elemento de desinformación crítico basado en la inteligencia artificial, el llamado envenenamiento de datos en modelos LLM y su desinformación. Los bots con Inteligencia Artificial en ocasiones pueden replicar narrativas falsas en casi un tercio de los casos analizados.
Los ataques DDoS utilizados de forma conjunta para procesar credenciales robadas. Incluso existen servicios en la dark web que validan y limpian los datos robados de forma que aumentan su valor de reventa y mejoran la eficiencia en la selección de objetos.
Recomendaciones
Desde el robo de cuentas de sistemas de Inteligencia Artificial LLM hasta la creación de modelos Dark LLM’s con intenciones maliciosas. Los atacantes están eludiendo mecanismos de seguridad y comercializando la Inteligencia Artificial como una herramienta para el hacking y el fraude. Puedes leer más noticias sobre seguridad informática en nuestro blog.
En Forlopd respaldamos siempre hacer un uso adecuado de las herramientas de inteligencia artificial, siendo conscientes de los riesgos que entraña su uso y las vulnerabilidades a las que se ve expuesta la organización. Ya que implantar modelos internos de respuesta LLM a menudo puede suponer fugas de información. Además de ser aprovechadas por atacantes, y poner en riesgo los datos personales de miembros de la empresa o clientes.
Con tal de asegurar el correcto complimiento en materia de protección de datos, en Forlopd ayudamos a empresas de diferente índole a adaptar sus procesos internos. Si tu organización se encuentra con esta necesidad puedes contactarnos a través del formulario de contacto de Forlopd y nuestros especialistas te guiarán en el proceso.