Saltar al contenido principalSaltar al pie de página

Pere Castellví, en A Coruña: "La inteligencia artificial no está programada para decir la verdad, sino para ser complaciente con el usuario"

El psicólogo analizará los beneficios y riesgos del uso de esta herramienta en los jóvenes en una conferencia el jueves en la sede de Afundación: "Es como cuando con un hacha puedes cortar leña o matar personas"

El investigador y profesor Pere Castellví.

El investigador y profesor Pere Castellví. / Cedida

A Coruña

"Las versiones gratuitas de la inteligencia artificial 'alucinan' o 'confabulan', lo que quiere decir que se inventan cosas que, a veces, pueden hacer daño", relata Pere Castellví, profesor e investigador especializado en el impacto de las nuevas tecnologías sobre la salud mental. Con el objetivo de concienciar sobre el impacto de estas herramientas en los más jóvenes, Afundación invita al docente a A Coruña el próximo jueves, 26 de febrero. "Me especialicé en IA porque creo que es una oportunidad", comenta.

Castellví inaugura el ciclo Educación Siglo XXI con dos pases: uno a las 11.00 horas para centros educativos, y otro vespertino para público general, a las 19.00 horas, con entrada gratuita en Ataquilla.com. El profesor espera que la sesión "sea útil para todos", que haya interacción con los usuarios y se animen a "preguntar dudas y debatir sobre un tema tan complejo". "Nos ha tocado vivir la época en la que vivimos y ha salido una nueva tecnología que puede tener muchos beneficios. Los clínicos e investigadores tenemos que adaptarnos y modernizarnos continuamente, y este es un buen ejemplo de eso. Hay muchos estudios que dicen que la medicina y la psicología van a vivir un cambio de paradigma con la aparición de la inteligencia artificial", añade Castellví.

La inteligencia artificial como aliada

Como profesor agregado de la Universidad Autónoma de Barcelona en el Departamento de Psicología Clínica y de la Salud, sus líneas de investigación se centran en la prevención del suicidio y en la promoción del bienestar mental. "Desde los últimos años, estoy profundizando en la inteligencia artificial y sus repercusiones en la salud mental desde un punto de vista ético". A raíz de su especialización, lidera un proyecto sobre el análisis de texto mediante estas tecnologías para predecir la conducta suicida en los usuarios que contactan con la Fundación Ayuda y Esperanza. "La idea es mejorar el aplicativo que tienen los terapeutas y proporcionarles más información a mayores de la que el usuario les da", explica.

El funcionamiento de la iniciativa es sencillo: en un inicio se realizaría un análisis de sentimientos para identificar cuáles son los agradables y desagradables, "en cuanto a positivos y negativos", que van saliendo en el texto. Esto puede proporcionar a los profesionales de la Fundación información sobre la gravedad de la situación. Después, en el caso de que el paciente se sometiese a alguna intervención psicoterapéutica, comprobarían si mejoran sus emociones clínicas.

Lo interesante del estudio, que probablemente finalice en septiembre, es que quiere testarlo en tiempo real, "a medida que el usuario va escribiendo, si presenta más o menos riesgos de conductas suicidas con un porcentaje de riesgo de cero a 100". Un ejemplo: "Imaginemos que una persona dice que está desesperada, que está sufriendo bullying en la escuela y que ha pensado en quitarse la vida. Cuando escribe eso, el porcentaje de riesgo pasa automáticamente del cinco al 90%", expresa.

Efectos en los jóvenes

"Lo que parecen decir las encuestas poblacionales, tanto en adolescentes como en jóvenes, es que este rango de edad utiliza bastante más la inteligencia artificial que los mayores", indica Castellví. Las cifras hablan por sí solas: "Alrededor de casi el 90% la ha utilizado alguna vez, y el 60%, más o menos, la utiliza de forma bastante frecuente en el ámbito académico, pero también en su día a día", dice. Lo preocupante para el profesor es que un 25% encuentra en los bots conversacionales —como ChatGPT o Geminiun confidente, "como si fuera una persona que a la que explicar sus problemas".

"Los expertos lo que recomiendan es que sea un complemento para que una persona, si lo necesita, vaya a un profesional de la salud mental", declara. Uno de los mayores riesgos que entraña el valerse en exceso de este tipo de tecnologías, según Castellví, es que, en ocasiones, pueden ser nocivas para el usuario. "Se han reportado casos de suicidio inducido por culpa de la inteligencia artificial, de agresión a los padres por parte de los adolescentes; incluso se puede incentivar a trastornos de la conducta alimentaria, como la anorexia o la bulimia", alerta. Para él, el pensamiento crítico es clave para combatir estas amenazas, "y para ello es necesario el empoderamiento de la población".

Como docente universitario, Castellví percibe que el uso más extendido que las nuevas generaciones le dan a esta herramienta es académico, "para que les ayude en sus trabajos". Sin embargo, esto acarrea un contratiempo, lo que se conoce como deuda cognitiva. "La deuda cognitiva es que esas competencias que deberían conseguir con esos trabajos que tú, como profesor, les mandas a los alumnos, no se consiguen, y a la larga es peor", anota.

"Si utilizas bien la IA, te puede ayudar un montón"

No todo es negativo, aunque, para sacar máximo provecho de las posibilidades que ofrece la inteligencia artificial, hay que tener nociones sobre el tema. "Si la utilizas bien, te puede ayudar un montón: mejorar las presentaciones, preparar exámenes, resumir texto... Lo importante es tener de base una serie de habilidades para usarla. Pero no solo eso, sino que a veces puede aportarte ideas que no habías pensado. Puede ayudarte a ser más creativo, a hacer un aprendizaje más personalizado, adaptado al nivel, ritmo y necesidades del estudiante... Y lo tienes 24 horas al día, siete días a la semana. Es como cuando con un hacha puedes cortar leña o matar personas", aclara.

Advierte que la inteligencia artificial "no está programada para decir la verdad, sino para ser complaciente con el usuario", y lo que simula es una interacción con otro ser humano, dando una falsa sensación de empatía. "Esto puede provocar confusión, pensar que estás hablando con una persona cuando, en realidad, estás hablando con una máquina. Tenemos que saber diferenciar entre ambas", puntualiza.

Las actividades del ciclo que inaugura Castellví se inscriben en el programa Cultura por Alimentos, desarrollado por Afundación y la Federación Española de Bancos de Alimentos (Fesbal), que situará contenedores en el lugar de la charla para que los asistentes depositen alimentos no perecederos.

Tracking Pixel Contents