Polémica por el uso de software de reconocimiento facial en supermercados de Mercadona
A principios del pasado mes de julio Mercadona comenzó a utilizar en 40 supermercados de varias provincias un sistema de reconocimiento facial. Según ha afirmado la misma compañía, el objetivo es detectar a personas con sentencias firmes o medidas cautelares que tengan una orden de alejamiento —de sus supermercados o de sus trabajadores— que les prohíba entrar a las tiendas. En el caso de que el sistema descubra que una de esas personas ha accedido al supermercado, genera una alerta que será verificada por el equipo de seguridad antes de avisar a la policía.
Sin embargo la medida ha generado polémica por el tratamiento de datos biométricos que se hace de todos los usuarios que acuden a estos establecimientos, hasta tal punto que ha desembocado en la apertura de una investigación de la Agencia Española de Protección de Datos (AEPD). La empresa que ha diseñado el software que utiliza Mercadona es una start-up israelí llamada AnyVision, que cuenta entre sus clientes con el ayuntamiento de Niza, con el que ha realizado un programa piloto de videovigilancia urbana.
Por su parte, Mercadona ha salido al paso de las críticas y ha insistido en que considera el sistema “absolutamente legal” y que ha estado en contacto con la AEPD durante la planificación de este proyecto. El origen de las imágenes de presuntos infractores que se cotejan antes de avisar a la policía es uno de los principales objetos de controversia. Aparentemente, el sistema se nutre con imágenes generadas por las cámaras de videovigilancia, que fueron en su momento aportadas por la propia empresa como prueba en los procedimientos judiciales en los que ya ha sido dictada la sentencia.
Bajo investigación
Según el artículo 9.2 del RGPD el tratamiento de este tipo de datos debe responder a un interés público esencial y debe ser proporcional al objetivo perseguido, uno de los elementos será elucidado por la investigación de la AEPD. Mercadona afirma que con ese sistema se analiza a las personas que entran en sus tiendas durante un periodo de sólo 0,3 segundos y que no se guardan las imágenes. Consideran, por tanto, que no hay un tratamiento como tal de los datos físicos de los clientes.
Otro elemento clave en la investigación será la ausencia de un marco regulatorio claro. Hace unos meses la AEPD indicaba que la legislación actual sobre el uso de este tipo de tecnología de reconocimiento facial por parte de empresas de seguridad privadas es “insuficiente”. La agencia viene reclamando la aprobación de una nueva norma con rango de ley que establezca específicamente en qué medida y en qué supuestos, la utilización de dichos sistemas puede responder a un interés público esencial. De momento la AEPD ha confirmado que la investigación se halla “en fase de actuaciones previas”, por lo que no han trascendido más detalles.
Reconocimiento facial en el punto de mira
Casi al mismo tiempo, en EEUU las protestas que se están llevando a cabo por el sesgo racial de la policía también están poniendo en el punto de mira este tipo de herramientas utilizadas por las fuerzas del orden. El Congreso abrió una investigación sobre el FBI y a otras agencias federales para determinar si el software de vigilancia que se ha desplegado contra los manifestantes es legal, mientras que estados como California y Nueva York están considerando la posibilidad de legislar para prohibir el uso de esta tecnología por parte de la policía, como ya ha hecho la ciudad de San Francisco.
Al mismo tiempo, algunas de las principales empresas tecnológicas han decidido distanciarse de sus propias creaciones en este campo. Amazon anunció una moratoria de un año en el uso policial de su polémico producto de reconocimiento facial, llamado Rekognition. IBM y otras grandes empresas también han anunciado recientemente que abandonaban por completo la investigación sobre reconocimiento facial, citando preocupaciones sobre las implicaciones para los derechos humanos.