El auge de la inteligencia artificial (IA) ha provocado una gran actividad reguladora en gobiernos y autoridades de todo el mundo. En el caso de la Unión Europea y del Reino Unido, ambos territorios están legislando para encontrar el difícil equilibrio entre beneficiarse del desarrollo de la IA y mitigar los riesgos potenciales. Sin embargo, sus planteamientos difieren considerablemente: la UE ha optado por un enfoque práctico y basado en estimar los riesgos, mientras que los británicos han prometido una postura “proinnovación”. 

El planteamiento más estricto y prudente de la UE se aprecia claramente en la Ley de Inteligencia Artificial, la primera ley integral del mundo sobre esta tecnología, aprobada este año. Se trata de un enfoque global sobre la IA que trata de clasificar los diferentes aspectos de esta tecnología y que establece obligaciones claras de cumplimiento en todas las aplicaciones e industrias en las que se utiliza. También establece la creación de la Oficina Europea de Inteligencia Artificial, que supervisará la aplicación de la ley. 

En contraste, el Reino Unido no ha optado hasta ahora por una legislación integral específica y en su lugar, ha propuesto un marco orientativo para los organismos reguladores existentes. Para reforzar este enfoque el Gobierno ha prometido 10 millones de libras para mejorar y actualizar a los organismos reguladores, de modo que puedan evaluar adecuadamente las oportunidades y los riesgos asociados a la tecnología. El Reino Unido también ha optado por una estrategia de autorregulación en la que se evalúen los riesgos sector por sector, basándose en cinco principios: seguridad, protección, solidez, transparencia y pedagogía adecuadas y equidad.

Evaluación de riesgos

Los legisladores de la UE, por su parte, creen que un enfoque basado en un semáforo de riesgos y el impulso de una IA fiable permitirá desbloquear la ventaja competitiva de Europa. Las normas del bloque de los 27 apuntan a sistemas de IA basados en niveles de riesgo: inaceptable, alto, limitado y mínimo. Las herramientas de IA que se consideren una amenaza para la seguridad y los Derechos Humanos, como las herramientas de vigilancia masiva, serán inaceptables y están totalmente prohibidas. 

Para el resto de categorías, el concepto es más sencillo: cuanto mayor sea el riesgo, más dura será la normativa. Los sistemas de alto riesgo, por ejemplo, incluyen las tecnologías de IA que pueden utilizarse en el cumplimiento de la ley, la sanidad y las infraestructuras críticas. La Ley de IA se aplica a todas las empresas del sector (dentro o fuera de la UE) que hagan negocios en el espacio comunitario. Y las infracciones de la norma pueden acarrear multas de hasta el 7% de la facturación global de una empresa. 

De hecho, las empresas europeas también han planteado objeciones en este sentido, advirtiendo de que la UE podría perder competitividad en el sector por exceso de regulación. En el Reino Unido, en cambio, lo que se está fomentando son los acuerdos voluntarios sobre seguridad de la IA con empresas y/o con países clave. 

Posible cambio de rumbo

No obstante, el Reino Unido también podría desviarse pronto de esa estrategia favorable a la innovación y el laissez-faire tecnológico. El Gobierno está empezando a elaborar su propia legislación sobre inteligencia artificial, según han declarado al periódico Financial Times fuentes cercanas al Gobierno. Lo más probable es que la normativa limite el desarrollo de grandes modelos lingüísticos (LLM) y obligue a las empresas que construyen IA avanzada a compartir sus algoritmos con el Gobierno.

Las autoridades están estudiando la posibilidad de regular los modelos de inteligencia artificial más potentes”, explicaron dichas fuentes a ese diario, y añadieron que el Ministerio de Ciencia, Innovación y Tecnología está “desarrollando ideas” sobre cómo sería la legislación en materia de inteligencia artificial. Normas que se aplicarían en principio a los grandes modelos lingüísticos que se esconden detrás de productos como ChatGPT.