Entrevista | Jorge Paz Investigador del Citic de la Universidade da Coruña

«El no saber nos hace desconfiar, pero la IA tiene que ser confiable»

Jorge Paz ha recibido, junto a sus compañeros Amparo Alonso, Bertha Guijarro, Brais Cancela y Carlos Eiras-Franco, un premio nacional por un modelo que hace las recomendaciones digitales más comprensibles y ecológicas

El investigador Jorge Paz. |  LOC

El investigador Jorge Paz. | LOC

A Coruña

Cuando un usuario entra a plataformas como Netflix o Spotify, aparecen sugerencias como si se tratasen de las recomendaciones de un amigo que te conoce bien. Detrás de esto hay sistemas inteligentes que analizan los gustos y comportamientos para anticipar lo que esa persona quiere. Lo hacen, no obstante, sin explicación, pero un grupo del Citic de la Universidade da Coruña ha desarrollado un modelo para justificar esas recomendaciones y dar más confianza al usuario. Lo detalla uno de los investigadores, Jorge Paz.

¿Qué es el modelo BRIE?

Es un explicador de recomendaciones. Utilizando una imagen, buscamos dar una explicación a las cosas que se recomiendan para entender mejor esas sugerencias.

¿Por qué creen que es necesario dar con esa explicación?

Por una falta de transparencia. Que falte la explicación es un problema porque hace que la recomendación sea menos efectiva. Es decir, el usuario entiende menos la recomendación porque no sabe de dónde viene. Es un coste para el usuario, pero también para la empresa. Perdemos la confiabilidad de los usuarios y de los ciudadanos. Hay que tener claro que la Inteligencia Artificial tiene que ser confiable. No saber nos hace desconfiar y entonces las recomendaciones que nos llegan son menos efectivas.

¿Este es el primer paso de este proyecto?

Sí, hemos resuelto una pequeña pieza, que está centrada en la explicabilidad. Pero hay más asuntos por resolver. Sigue habiendo problemas. Por ejemplo, que no haya información previa sobre un usuario para conocer sus gustos. Intentamos conseguir modelos más compactos. Y también seguimos teniendo un problema de magnitud. Tenemos que lograr que detallar esta explicabilidad no afecte al rendimiento ni a la calidad de los recomendadores. Tenemos varias líneas de trabajo abiertas.

Además, entrenar estos modelos de predicción requiere grandes cantidades de energía. ¿El BRIE también busca reducirlo?

Sí, eso es fundamental. Normalmente pensamos en lo que puede gastar ChatGPT porque es un modemos muy grande, pero hay otros mas pequeños, que se usan de forma masiva y que al final del día tienen un consumo muy grande. Puede ser, por ejemplo, el algoritmo de TikTok. Nuestro objetivo es intentar no solo reducir ese consumo sino añadir explicabilidad.

¿Qué supone haber recibido el Premio a la Mejor Publicación Científica en Sistemas de Recomendación 2023-2024?

Es un impulso. Llevamos unos cinco o seis años trabajando con datos de sistemas de recomendadores. Así que vernos reconocidos en este premio, en el que participan los grandes grupos de investigación, es muy bonito.

Tracking Pixel Contents