La adopción masiva de herramientas de IA generativa está creando inquietud por la posibilidad de que se usen en campañas de desinformación a gran escala. Por eso, para poder verificar las imágenes que circulan en línea, especialistas de distintos campos están estudiando nuevos modelos de almacenamiento y trazabilidad de datos que permitan identificar los contenidos generados por IA.
A corto plazo preocupan los deepfakes, algunos extremadamente realistas y fáciles de producir. Por otro lado, imágenes y textos que no están libres de derechos de autor pueden utilizarse para alimentar los algoritmos que alimentan estos modelos de IA sin el permiso de sus creadores.
Ya en 2020, una ONG creada por el editor de software Adobe, conocida como Iniciativa de Autenticidad de Contenidos (CAI) creó un modelo de trazabilidad “de un extremo a otro de la cadena de producción”. En febrero de 2021, la CAI unió fuerzas con Project Origin Alliance, una coalición de empresas que luchan contra la desinformación, impulsada por la BBC, para fundar una nueva asociación, llamada Coalition for Content Provenance and Authenticity (C2PA).
El objetivo de esta última es reunir a expertos de todas las organizaciones miembros. Para así elaborar un conjunto de normas técnicas que deberán seguir los fabricantes de hardware, los editores de software y los medios de comunicación. Todo esto en relación a la generación de contenidos basados por IA. En 2021 se publicó una primera edición de las normas, y a finales de noviembre de 2023 se actualizó la versión 1.4.
Datos encriptados
En concreto, C2PA propone un modelo de almacenamiento y protección de información mediante cifrado. Datos que incluyen el origen de una imagen, la fecha en que fue creada, procesada y puesta en línea. Poder disponer de esta información permitirá a los verificadores (fact checkers) identificar el contenido original y el contexto de una imagen. Al poder trazar las etapas de creación y modificación de una imagen, es posible comparar la versión original de una foto con la retocada antes de su publicación. Y, sobre todo, distinguir entre las fotos que representan un hecho real y las creadas ex nihilo mediante IA.
Cada fotografía tendrá un conjunto de datos que indicarán la fecha y el lugar de su creación, generado mediante GPS. Su autor, el formato utilizado y la fecha de las modificaciones realizadas. Esta información puede proceder de la cámara con la que se ha capturado la imagen. Del software utilizado para editarla (Photoshop, Adobe Lightroom, Firefly, etc.). O bien del CMS (sistema de gestión de contenidos) utilizado cuando la imagen se puso en línea.
En los tres casos, los datos indicarán los cambios realizados. A continuación, estas afirmaciones son firmadas electrónicamente por su autor, con el nombre de “manifiesto”. Una firma tendrá que ser validada para establecer que el documento es realmente fiable. Este término se ha recuperado de la marina mercante, en la que un manifiesto era un documento que indicaba el contenido y el estado de una carga entre cada puerto de escala.
En relación a otras técnicas como las marcas de agua y los sistemas de detección de IA, C2PA presenta varias ventajas. Los sistemas de detección pueden ser evadidos por herramientas IA cada vez más sofisticadas, pero C2PA proporciona un enfoque más estandarizado y difícil de eludir. Además, este protocolo puede funcionar de manera complementaria con otras herramientas de detección.