Como suele ocurrir con la tecnología digital, en el caso de la Inteligencia Artificial (IA) la legislación va por detrás de la utilización. Su uso ya se ha extendido a múltiples disciplinas, que van desde el desbloqueo de nuestros teléfonos móviles gracias al reconocimiento facial hasta los algoritmos que deciden las recomendaciones de plataformas de música o vídeo. Además, la IA avanza con paso firme en ámbitos como la salud, la industria y la seguridad.
Al mismo tiempo crece la preocupación sobre sus posibles usos delictivos, una amenaza que comienza a materializarse con el desarrollo de herramientas de vigilancia, algunas en conflicto con el derecho a la intimidad de los ciudadanos y otras potencialmente peligrosas para la democracia, como los deepfakes. Temores alimentados tanto por los grandes cambios que se prevén en las tecnologías del futuro (los vehículos autónomos, por ejemplo) como por las posibilidades de los regímenes autoritarios de controlar a sus poblaciones.
Por eso la Unión Europea acaba de publicar un proyecto de reglamento para encontrar el equilibrio entre incentivos al desarrollo de la tecnología y el establecimiento de límites éticos para su uso. El texto apunta a situar “al ser humano en el centro” de esta revolución industrial basada en los programas informáticos y los datos. “La confianza es una necesidad, no un lujo”, afirmó la Comisaria de Competencia de la UE, Margrethe Vestager durante su presentación. “Con esta regulación histórica, la UE quiere encabezar nuevas normas mundiales y allanar el camino de la tecnología ética”.
Prohibición de sistemas de vigilancia
El proyecto presentado por la Comisión Europea prevé la prohibición de los sistemas de “vigilancia generalizada” de la población, así como todos aquellos “utilizados para manipular el comportamiento, las opiniones o las decisiones” de los ciudadanos. No obstante, se prevén ciertas excepciones en este sentido en materia de lucha contra el terrorismo y por motivos de seguridad pública. En principio, las aplicaciones militares no se verán afectadas. El texto establece además la introducción de una serie de pruebas para garantizar el cumplimiento de las normas europeas en aplicaciones consideradas de “alto riesgo” antes de que lleguen al mercado. Estos requisitos se sumarán a las normas existentes sobre la seguridad de los productos, incluida la exigencia de supervisión humana.
Las más de cien páginas de normas abarcan una amplia gama de temas, desde el desarrollo de algoritmos para ejecutar aplicaciones de IA hasta el reconocimiento facial en los procesos de selección de candidatos para el empleo. La Comisión establece una lista precisa de estas aplicaciones sensibles: una primera categoría incluirá cuestiones como la “identificación biométrica remota de personas en lugares públicos” o los “elementos de seguridad en infraestructuras públicas críticas”, y estará sujeta a pruebas de conformidad por parte de una tercera autoridad.
La segunda categoría incluirá sistemas para priorizar los servicios de emergencia o las herramientas utilizadas para la contratación, para determinar el acceso a las instituciones educativas o para evaluar la solvencia bancaria de las personas. Su cumplimiento estará garantizado por una autoevaluación realizada por la empresa, bajo el control de una autoridad de supervisión y se prevén fuertes multas para las empresas en caso de infracción. Los demás usos, que se consideran seguros, no estarán sujetos a prácticamente ninguna restricción reglamentaria adicional. La nueva legislación se debatirá durante meses, especialmente con el Parlamento Europeo y los 27 Estados miembros, antes de que se aplique en un texto definitivo.