Hoy en día los ciudadanos tenemos acceso a una cantidad de información impensable en cualquier otro momento de la historia. El problema es evaluar la calidad y veracidad de esa avalancha de datos y noticias. Los modelos publicitarios orientan los contenidos a la búsqueda de clics, favorecen la creación de burbujas de opinión -resultado también de las redes sociales- y la competencia entre diferentes plataformas para captar la atención de los usuarios. Una situación que, además, provoca que los sesgos políticos estén más polarizados que nunca.
En algunos escenarios esto da lugar a una amplificación de fake news y de campañas de desinformación que se propagan a través de estos canales. Otras veces, simplemente significa que los lectores reciben una versión manipulada de los hechos. Después del escándalo de Cambridge Analytica, y dado el creciente peso que plataformas como Facebook están tomando en la campaña electoral de Estados Unidos, la sociedad se hace cada vez más preguntas sobre el papel de los algoritmos y la inteligencia artificial en el debate público.
Una respuesta al problema podría ser el desarrollo de herramientas que funcionen de manera similar a los correctores ortográficos o gramaticales, sólo que en lugar de notificar cuando una palabra o frase no es correcta, harían lo mismo con la objetividad de los medios de comunicación, ya se trate de reportajes o artículos de opinión. Al menos esa es la idea de los creadores de un nuevo algoritmo, desarrollado por la web The Bipartisan Press, que han construido una de las primeras herramientas de Inteligencia Artificial que puede predecir si un texto tiene un sesgo ideológico hacia posiciones de izquierda o derecha. Sus autores sostienen que tiene una precisión del 96%.
Esta IA se basa en tecnología existente como BERT y XLNet, herramientas para el análisis de textos. Procesan todo los inputs que reciben (entrada de texto) y emiten un valor numérico variable para ir evaluando los matices ideológicos. El valor absoluto del resultado mostrará el grado de sesgo.
Extensión de Chrome
Esa calificación del sesgo político se considera una tarea de Procesamiento del Lenguaje Natural, (PNL). Eso significa que está relacionado con el análisis de contenido textual. Las PNL son una rama de la Inteligencia Artificial ancladas en la construcción de sistemas (generalmente algoritmos) que puedan imitar a la inteligencia humana. Se basan en el principio el del aprendizaje automático, es decir la enseñanza y la construcción de sistemas que puedan aprender mediante la propia experiencia.
Los creadores han afirmado que el equipo ya está trabajando para crear un plugin compatible con el navegador Chrome. Podría utilizarse para ayudar a informar a los lectores sobre los prejuicios de los artículos de noticias que leen, para que lo tengan en cuenta. Este tipo de IA también podría ser utilizada para mejorar los sistemas de recomendación de contenidos, o podría ayudar a los periodistas a ser conscientes de los sesgos de los que tal vez ignoran, dándoles así indicaciones para una mayor objetividad.
El sistema aplica una variedad de enfoques de IA que abren además la posibilidad de evaluar la cobertura de las noticias y otros contenidos a una escala imposible de abarcar para humanos. Y, si funciona tan bien como afirman sus autores, también con una precisión mucho más consistente.