Un proyecto de investigación trata de entrenar a la IA para desconfiar de las fuentes y detectar las falacias que suelen usarse en la desinformación
¿Sabes cómo es un pavo real bebé? La inteligencia artificial no y es un problema grave para Internet
Las inteligencias artificiales generativas de texto son herramientas muy poderosas. Han analizado las obras humanas a lo largo de la historia y han aprendido cómo se construye el lenguaje, haciéndolas capaces de crear informes, resúmenes, historias, artículos o traducciones. También son muy buenas identificando emociones, opiniones o actitudes en las redes sociales y otros medios, así como reconociendo de qué personas, lugares o conceptos se habla en cada caso. Pero pese a todo ello no se les da bien desmentir bulos.
El motivo es que la mentira humana es más sutil. No se deshace con fuerza bruta matemática. “Estos grandes modelos lingüísticos siguen teniendo un razonamiento crítico limitado”, resume Iryna Gurevych, directora del Laboratorio de Procesamiento Ubicuo del Conocimiento (UKP Lab, por sus siglas en inglés), uno de los laboratorios más influyentes en el campo del procesamiento de lenguaje natural.
Gurevych es una de las investigadoras que están estudiando cómo se comportan los verificadores de información humanos y por qué la IA no es capaz de hacer lo mismo pese a su gran capacidad de analizar mensajes. “Dependen demasiado de la existencia de contraevidencias, son incapaces de razonar sobre la credibilidad de la fuente de la desinformación y tienen dificultades para detectar falacias”, ha explicado en la charla inaugural de la Conferencia Europea de la IA, cuya 50ª edición se celebra este año en Santiago de Compostela.
Las herramientas como ChatGPT han tenido acceso a buena parte del conocimiento humano (incluso aquel protegido con derechos de autor), pero en sus bases de datos no siempre existe una entrada que niegue rotundamente un bulo. En las primeras etapas de la pandemia, por ejemplo, no había estudios que hubieran concluido que los chupitos de lejía no curaban el COVID-19. No había contraevidencia de tal afirmación, pero eso no significaba que la lejía lo hiciera, ha expuesto Gurevych. Si la desinformación versa sobre la última hora y no existe un corpus de conocimiento sobre ella, la IA puede tener demasiados problemas para cuestionarla.
Otra de sus trabas es una del que tampoco estamos libres los humanos. Tanto los algoritmos de lenguaje natural como nosotros tendemos a confiar en datos supuestamente respaldados tanto por información científica como por imágenes, pasando por alto que esta puede estar descontextualizada o malinterpretada. “Las creencias de la gente a menudo no dependen de la afirmación y el razonamiento racional, sino de contenidos creíbles que hacen que la afirmación parezca más fiable, como publicaciones científicas o contenidos visuales manipulados o procedentes de contextos no relacionados”, ha recordado la profesora de la Universidad Técnica de Darmstadt, en Alemania.
Enseñando a la IA a comprender falacias
Para ayudar a las herramientas de IA a desenmascarar a los informadores, los investigadores han analizado a aquellos que saben hacerlo. “Nos fijamos en cómo funcionan realmente un desmentido en el caso de los seres humanos. Los humanos tenemos la capacidad de razonar sobre una afirmación, incluso si no tenemos pruebas”, describe la investigadora: “Los humanos van a tratar de averiguar la motivación detrás de la reclamación presentada por una entidad específica”.
“Por ejemplo, podemos atacar el razonamiento entre la fuente y la afirmación. Podemos identificar las falacias. Podemos evaluar y atacar la credibilidad de la fuente”, resume. Es el mismo camino que quieren enseñarle a la IA.
Para facilitar esta labor, el equipo de Gurevych han creado un nuevo conjunto de datos llamado “Engañoso” que se centra en afirmaciones falsas respaldadas por publicaciones científicas. Este conjunto de datos incluye información sobre las falacias lógicas utilizadas habitualmente por los desinformadores, lo que permite entrenar modelos de IA para detectar los patrones que siguen a la hora de presentar evidencias erróneas o descontextualizadas.
Cuando se les suministran estas bases de datos, los investigadores han detectado que las IAs generativas de texto pueden identificar las falacias con un alto grado de precisión. “Trabajamos con Llama (la IA de Meta, que no llegará a Europa) y GPT. Es decir, el sistema abierto y el cerrado de los grandes modelos de lenguaje. Y en los experimentos encontramos que ambos pueden resolver la tarea de detectar una falacia dado un objetivo premisa falaz muy bien”, ha revelado la directora del UKP Lab.
Más trabajo para las imágenes
Los investigadores también están intentando entrenar a la IA para que aprenda a contextualizar imágenes de forma parecida a como lo hacen los verificadores humanos. Su objetivo es que busque su fuente original, la fecha en la que fue creada, dónde y para qué, para luego contrastarla con la el contenido que debe verificar.
“Un verificador de hechos utiliza un montón de herramientas en su informe, como la búsqueda inversa de imágenes, en la que introduce la imagen y busca otras similares en Internet. Si no hay, intenta describir la imagen con palabras clave y usa la búsqueda de imágenes estándar completa para intentar recuperar algún contenido que les ayude a contextualizar la imagen”, describe Gurevych. “Básicamente, tratan de detectar la hora y el lugar donde se tomó la imagen para responder a las cinco preguntas: de dónde procede la imagen, quién la creó, cómo, cuándo y por qué”.
Para que la IA replique el método han seguido el mismo trayecto que con las falacias. Han generado un corpus de datos con imágenes extraídas de organizaciones de verificación de hechos, junto con información sobre los cinco pilares clave del contexto de la imagen.
Sus resultados varían en función de cada una de esas preguntas, pero la investigadora señala que “hay un gran margen de mejora. Es un poco mejor para la localización cuando añadimos información de la imagen. También los pies de foto de las imágenes son bastante precisos y podemos completar los detalles con pruebas web. En el trabajo futuro, hay muchas maneras en las que podemos ampliar el sistema para que ayude a los verificadores humanos. El objetivo es que puedan trabajar juntos”.
Otros proyectos de IA cazabulos
Además de la investigación presentada por Iryna Gurevych en Compostela, más centrada en el ámbito académico, existen varias iniciativas que intentan aplicar esta tecnología para combatir la desinformación. Uno de ellos es ClaimBuster, creado por la Universidad de Texas, que utiliza IA para identificar afirmaciones dudosas o no contrastadas.
La organización Full Fact, una agencia de verificación de hechos con base en Reino Unido, emplea IA para monitorear contenidos y detectar desinformación automáticamente. “Las afirmaciones se comprueban para ver si coinciden con algo que hayamos verificado previamente”, explican.
Otras herramientas se han creado para ayudar a estos profesionales en campos más concretos de su trabajo. Un ejemplo es Tank Classifier, que identifica qué tipo de carro de combate es el que aparece en una imagen o vídeo; o Language Checker, que detecta qué idioma se está hablando en un determinado corte de audio y lo traduce. Ambas se han desarrollado en la Universidad de Bergen con la colaboración de verificadores noruegos.