En el último año, la velocidad, la escala y la sofisticación de las ciberamenazas han aumentado, paralelos al rápido desarrollo y adopción de la IA. Los profesionales de la seguridad informática están empezando a reconocer y aplicar el poder de la IA generativa para inclinar la balanza a su favor y adelantarse a los cibercriminales. Pero al mismo tiempo, también es importante seguir avanzando en la comprensión de cómo la IA puede ser potencialmente mal utilizada en manos de los actores de amenazas.

En colaboración con OpenAI, Microsoft ha publicado recientemente una investigación sobre las amenazas emergentes en la era de la IA, centrada en las actividades de los principales grupos criminales, que incluye acciones como inyecciones de prompt, intentos de aplicación maliciosa de grandes modelos de lenguaje (LLM) y los nuevos tipos de estafas utilizando estos y otros métodos de IA. De hecho, varios análisis advierten que los cibercriminales comienzan a utilizar la IA como otra herramienta para aumentar el alcance y la eficacia de sus ataques. Aunque en esa investigación de Microsoft y OpenAI estiman que las técnicas de ataque o abuso aún no son especialmente novedosas.

No obstante, el progreso de la nueva tecnología crea una demanda de fuertes medidas de ciberseguridad y seguridad. Las autoridades públicas han comenzado a exigir pruebas de seguridad rigurosas y supervisión gubernamental para los sistemas de IA. Ya que estos ataques pueden tener un grave impacto en la seguridad nacional y económica o en el sistema de salud. Es importante que las compañías que desarrollan los principales modelos de IA trabajen durante su concepción en acciones para mejorar las salvaguardas de esta tecnología y colaborar con el ecosistema de la ciberseguridad, en la creación, implementación y uso seguros.

Nuevas directivas

En este contexto, Microsoft ha anunciado recientemente la implementación de los principios que conformarán su política y sus acciones para mitigar los riesgos asociados con el uso de las herramientas de IA y API ( interfaz de programación de aplicaciones) que comienzan a plantear los grandes grupos de cibercriminales y los hackers apoyados por algunos estados. Principios que incluyen: la identificación y acción contra los actores de amenazas maliciosas, la notificación a otros proveedores de servicios de IA, la colaboración general con otras partes interesadas (para impulsar respuestas conjuntas) y la transparencia.

Al igual que los especialistas en ciberseguridad, los hackers están buscando en la IA -incluidos los LLM- formas para mejorar su productividad y aprovechar las plataformas accesibles que podrían hacer avanzar sus objetivos y técnicas de ataque. Esos citados grupos de ciberdelincuentes y otros adversarios maliciosos están explorando y probando diferentes tecnologías de IA a medida que surgen. En un intento de comprender el valor potencial para sus operaciones y los controles de seguridad que pueden necesitar para eludirlas. Por eso los expertos insisten en que, por parte de los defensores, es vital reforzar estos controles de seguridad frente a los ataques. También implantar una supervisión igualmente sofisticada que anticipe y bloquee las actividades maliciosas.