El acuerdo entre Alemania, Francia e Italia sobre la regulación de la inteligencia artificial en la Unión Europea aborda varios ciberriesgos críticos. El principal problema que se debe afrontar es la exposición a vulnerabilidades en los modelos de IA, debido a la transparencia excesiva que promueve el acuerdo. Además, hay que estar atentos ante el incremento de superficies de ataque a medida que la IA se integra en más aplicaciones. Y a los ataques adversarios, donde inputs especialmente diseñados pueden engañar a los modelos de IA para que produzcan resultados incorrectos o perjudiciales.

El Acuerdo Europeo sobre la IA

Alemania, Francia e Italia han alcanzado un acuerdo significativo sobre la regulación de la inteligencia artificial (IA) en la Unión Europea. El tratado se enmarca en las negociaciones del Acta de Inteligencia Artificial de la Unión Europea, que busca establecer un marco regulatorio para contener los riesgos asociados con las aplicaciones de IA. De este modo, esta nueva regulación busca evitar efectos discriminatorios y mitigar las ciberamenazas que puedan llevar a cabo grupos organizados de cibercriminales. Al tiempo que se aprovecha el potencial innovador de esta tecnología.

Sin embargo, es llamativo que sólo tres países de la Europa de los veintisiete hayan firmado, por ahora, este acuerdo. España, por ejemplo, no forma parte del tratado por una serie de diferencias en el enfoque hacia la regulación de los modelos fundamentales de IA. 

Por una parte, Alemania, Francia e Italia abogan por una autorregulación obligatoria a través de códigos de conducta y se oponen a regulaciones estrictas y no probadas para estos modelos. La otra cara de la moneda la protagonizan los Gobiernos de los países que consideran que esta filosofía pueda “no ser suficiente” a la hora de garantizar la protección de los Derechos Humanos y evitar un uso indebido de la IA​. 

El debate está servido y todo apunta a que no habrá un gran consenso en un futuro cercano. El argumento que esgrimen Alemania, Francia e Italia se basa en que una regulación muy estricta podría frenar la innovación tecnológica, como suele pasarle casi siempre a Europa en este ámbito. 

En contraste, los países que no lo han firmado son más conservadores en lo que respecta a la innovación y consideran necesario un marco regulador “más completo” que sea de obligatorio cumplimiento desde el inicio.

Sea como sea, el uso de la IA no deja de crecer. Sin ir más lejos, en las compañías españolas su uso habitual ha aumentado un 11,8% y se prevé que, para 2027 ya se automatice total o parcialmente un 42% del total de las tareas, según un Estudio realizado por OBS Business School

Porcentaje de uso de IA en Europa y España (2023)

Ciberseguridad para el acuerdo europeo sobre la IA 

Entre tanto, la ciberseguridad debería ser uno de los pilares sobre los que fundamentar un acuerdo internacional sobre la IA. Ya que, de saque, el acuerdo de  Alemania, Francia e Italia, entraña varios ciber riesgos que deben tomarse en consideración. 

En este sentido, “es crucial que la regulación incluya medidas robustas de ciberseguridad, como la implementación de marcos de gestión de riesgos, la realización de evaluaciones de vulnerabilidades y la formación continua en ciberseguridad para los desarrolladores y usuarios de IA. Además, es esencial fomentar la cooperación internacional y el intercambio de información sobre amenazas y mejores prácticas en ciberseguridad​”. Apunta Hervé Lambert, Global Consumer Operations Manager de Panda Security.

De hecho, la adopción de regulaciones muy estrictas puede crear desafíos en la implementación y cumplimiento de normas de ciberseguridad. Especialmente para pequeñas y medianas empresas, que pueden no tener los recursos necesarios para cumplir con los estándares de seguridad exigidos​.

La transparencia de la IA:  ¿un vector de ataque para los hackers ?

Uno de los principales puntos que más afectan a la ciberseguridad de este acuerdo son las  “tarjetas de modelo detalladas”. Cuando se fomenta la transparencia en los modelos de IA, se pide a los desarrolladores que creen unas descripciones que explican cómo funcionan los modelos de IA, cuáles son sus capacidades y también sus limitaciones y puntos débiles.

El problema es que si esta información detallada cae en manos equivocadas, personas con malas intenciones pueden usarla para encontrar y aprovechar estas debilidades. Por ejemplo, podrían diseñar ataques específicos para hacer que el modelo cometa errores o falle en situaciones importantes. Como en sistemas de seguridad, salud o finanzas.

El ejemplo en el mundo offline sería si un ladrón supiera exactamente cómo forzar una cerradura porque el fabricante ha publicado todos los detalles de su mecanismo interno. Del mismo modo, si los detalles técnicos de un modelo de IA están disponibles, los hackers podrían usar esa información para encontrar maneras de engañar o dañar el sistema.

La IA incrementa la “superficie de ataque”

Al igual que pasa con cualquier tecnología. Cuanto más se usa la IA en nuevas aplicaciones, se están creando nuevos puntos de acceso por donde los hackers pueden intentar atacar. Y, por supuesto, cada vez que se integra la IA en un nuevo sistema, se añaden y nuevas posibilidades de que algo salga mal. O que se genere alguna vulnerabilidad que pueda ser explotada por grupos de cibercriminales.

Esto hace que sea cada vez más necesario llevar a cabo una monitorización exhaustiva y continua de todos los sistemas que interactúan con la IA. A su vez, es crítica una actualización de las medidas de seguridad para protegerlos de posibles ataques. 

Todavía es fácil engañar a la IA para que cometa errores

Otro de los principales riesgos alrededor de los modelos de IA es que todavía es fácil engañarlos con “ataques adversarios”. Éstos se producen cuando un ciberdelincuente  crea entradas o datos para que el modelo cometa errores o actúe de manera incorrecta. Son una especie “preguntas trampa” diseñadas para confundir a la IA y que dé respuestas erróneas. Con las que los hackers pueden conseguir efectos que pueden llegar a ser críticos en áreas como la Sanidad,  o las Infraestructuras. 

Si, por ejemplo, alguien consigue engañar un modelo de IA utilizado para diagnosticar enfermedades, éste podría dar diagnósticos incorrectos. Si el ataque se dirige contra un hospital entero o para influir en el tratamiento de la enfermedad de una persona concreta, los ciberdelincuentes podrían llevar a cabo ataques muy difíciles de detectar. 

O bien, si se consigue que un modelo de IA que controla  infraestructuras críticas como redes eléctricas o sistemas de transporte, alguien podría manipularlos para  causar fallos o grandes problemas.

Los sistemas de IA a menudo necesitan grandes cantidades de datos para funcionar bien. Estos datos pueden incluir información personal y sensible sobre las personas. Al recopilar y analizar tantos datos, surgen preocupaciones importantes sobre la privacidad.

Implicaciones de la IA en la filtración de de datos

Aunque la IA tiene el potencial de resolver y facilitar muchísimos problemas, también plantea riesgos importantes en lo que respecta a la privacidad. En este sentido, si los sistemas que almacenan y procesan todos los datos no están bien protegidos, los hackers podrían acceder a esta información o filtrarla.

De aquí surgen problemas como  el robo de identidad, mediante el que los ciberdelincuentes podrían usar esta información para hacerse pasar por otra persona y acceder a sus cuentas bancarias, solicitar préstamos o cometer otros fraudes. Asimismo, la exposición de ciertos datos podría llevar a situaciones en las que las personas sean tratadas de manera injusta o discriminatoria en función de información personal que debería ser privada, como su historial médico o sus antecedentes financieros.

“El acuerdo alcanzado por Alemania, Francia e Italia representa un paso hacia una regulación unificada de la IA en la UE. A pesar de los desafíos en las negociaciones, este nuevo papel podría acelerar las discusiones en curso entre el Parlamento Europeo, el Consejo y la Comisión, posicionando a la UE como un líder en el ámbito de la IA” explica Hervé Lambert, y apostilla que “las empresas deben permanecer vigilantes y adaptarse a los requisitos regulatorios en evolución, teniendo en cuenta las implicaciones éticas y relativas a la ciberseguridad de sus sistemas de IA​”​.