Roy Saurabh, experto internacional en inteligencia artificial: «Agencias públicas como la Aesia son esenciales»

El especialista asesora a la Unesco, y este jueves explicó en el Citic de la Universidade cómo emplear el sistema de «aprendizaje federado» para compatibilizar el desarrollo de programas con el respeto a los datos personales

El experto en ética de inteligencia artificial Roy Saurabh.

El experto en ética de inteligencia artificial Roy Saurabh. / Iago López

A Coruña

La inteligencia artificial (IA) puede ayudar a mejorar muchos problemas sociales, desde el fracaso escolar a la exclusión social, según explica el científico de datos Roy Saurabh, asesor de la Unesco en ética de estos sistemas informáticos. Pero, añade, muchas veces es necesario emplear datos personales para desarrollarla, lo que conlleva riesgos como que se empleen para otros fines. El experto impartió este jueves, en el centro tecnológico Citic de la Universidade da Coruña (UDC), una conferencia sobre el «aprendizaje federado», una forma de desarrollar estos sistemas respetuosa con los derechos de los ciudadanos.

«La mayoría de los problemas que intentamos resolver a nivel individual, social o global», argumenta Saurabh, que insiste en que no habla por la Unesco, son «inherentemente personales». Es decir, para afrontar con IA problemas como los signos que pueden apuntar a ansiedad en adolescentes o «detectar las necesidades de apoyo en escuelas con pocos recursos» hay que extraer datos de los protagonistas. Y, depende de cómo se extraigan, pueden introducir sesgos. Grupos como los niños adoptados, los mayores, las personas de menos recursos o las personas con discapacidades son especialmente vulnerables a que la IA no los represente correctamente.

Y a no tener control sobre sus datos. Los sistemas tradicionales para educar a una IA, explica el experto, recolectan datos personales que se agrupan de forma centralizada, lo que genera riesgos como que se empleen para un uso diferente al motivo que llevó a reunirlos o que haya brechas de seguridad. También es más difícil el control por parte de los ciudadanos, añade Saurabh.

El aprendizaje federado permite evitarlo. En vez de extraer datos de varias fuentes y llevarlos a un solo lugar, la IA va a cada uno de estos puntos de origen y aprende con los datos que hay allí. Luego se reúnen los resultados, encriptados. El modelo se empleó «en uno de nuestros proyectos de investigación sobre el bienestar de los adolescentes» pone por ejemplo Saurabh, consiguiendo resultados al tiempo que se respetaba la privacidad de los jóvenes y los requisitos de consentimiento.

El experto ha trabajado con sistemas para mejorar la educación y la salud de la población, y señala que la IA puede servir como herramienta de «detección temprana», advirtiendo de riesgos como el abandono escolar, el estrés crónico o el deterioro psicosocial «antes de que escalen». Pero hay que poner límites éticos, como permitir a los usuarios o sus tutores dejar de participar, y debe haber sistemas de control alineados con estos propósitos.

Algunos afirman que los controles al desarrollo de la inteligencia artificial en Europa pueden hacer que pierda la carrera tecnológica con otros competidores como China o Estados Unidos, pero para Saurabh no hay que equiparar directamente velocidad y calidad. Que haya límites al desarrollo, y que este sea sostenible y socialmente aceptable, proporciona certezas a los inversores y la sociedad civil, argumenta el experto, que ha desarrollado proyectos que debían ser validados según los estándares europeos. La clave, cree, es introducir los derechos en el diseño del sistema, no tratarlos como restricciones.

El papel del Estado

La Agencia Española de Supervisión de la Inteligencia Artificial (Aesia) acaba de empezar a funcionar en la Casa de Veeduría, en la Ciudad Vieja, y Saurabh indica que «agencias públicas específicas de IA son esenciales», especialmente cuando los sistemas informáticos entren en sectores sensibles como la educación, la salud, el bienestar social o la justicia. Cuerpos como la Aesia, considera el experto, pueden auditar los riesgos de la IA; requerir que esta sea comprensible y justa en casos que impliquen a la infancia; o permitir que los ciudadanos pongan en cuestión, legalmente, decisiones tomadas mediante la inteligencia artificial. Para Saurabh, es necesaria que exista una estructura pública, independiente de los incentivos de las empresas privadas, sometida a la ley y neutral, para realizar una vigilancia. Sin ella, argumenta el experto y asesor de la Unesco, el desarrollo de la inteligencia artificial de un país presenta riesgos como la fragmentación, la opacidad o que no haya un alineamiento con el marco de derechos.

Tracking Pixel Contents