Entrevista | Marcos Judel Presidente de la Asociación Profesional Española de Privacidad

«La IA está muy bien, pero sin inteligencia humana no vamos a ninguna parte»

El coruñés Marcos Judel preside la Asociación Profesional Española de Privacidad, que estos días celebra en A Coruña el Congreso Internacional de Privacidad, el más destacado del ámbito de la protección de datos del país y que centra esta edición en los retos de la Inteligencia Artificial

Marcos Judel, en el Rectorado de A Coruña. |

Marcos Judel, en el Rectorado de A Coruña. | / Carlos Pardellas

A Coruña

Este congreso aborda el que es el gran tema cuando se habla de protección de datos y nuevas tecnologías: la Inteligencia Artificial. ¿Cómo respira el sector?

Efectivamente, la IA es una tecnología, y, como tal, puede tener usos fantásticos, usos buenos y usos malos, como un bisturí, que puede causar la muerte o salvar la vida dependiendo del uso que se le de. ¿En qué escenario nos encontramos? Pues con una regulación europea novedosa que se va a aplicar plenamente a partir del verano del año que viene. Los profesionales de la privacidad, de la protección de datos y los tecnólogos estamos ya actualizándonos y formándonos en esta nueva realidad normativa, para ayudar a las empresas y a las administraciones públicas a afrontar los retos de cumplimiento normativo que trae esta nueva regulación. Básicamente, se centra en supervisar el uso de inteligencia artificial, especialmente en este ámbito de la protección a los derechos y libertades de las personas, como es la privacidad y la protección de datos. Ahora mismo la cuestión más importante es auditar e inventariar qué usos le dan las empresas e instituciones para ver qué es lo que hay que cambiar o mejorar.

La IA es una tecnología que ha suscitado más recelos que interés o propuestas de oportunidad en muchos sectores. ¿Cuáles son sus potenciales riesgos en caso de mal uso?

La IA se puede utilizar para cosas muy buenas: en el ámbito biomédico y sanitario es fantástica, porque utiliza la tecnología para investigaciones biomédicas, sacar vacunas más rápido o curar enfermedades raras que antes se tardaría mucho más tiempo. ¿Qué pasa? Que aquí estamos hablando de que para que una inteligencia artificial funcione bien tiene que aprender, y lo hace a base de cargarle muchos datos e información. Esos datos pueden ser estadísticos, por ejemplo, en cuestiones meteorológicas, una inteligencia artificial puede prevenir danas y salvar vidas si tiene información de lluvias o de vientos. Pero cuando hablamos de que la IA te da información de personas, con su actividad en Internet, con sus gustos, con sus perfiles, con sus historias de navegación, con sus enfermedades, pues hay que ver qué se puede hacer y qué no se puede hacer.

¿Cuáles son las principales cuestiones normativas?

La normativa prohíbe ya determinados usos de inteligencia artificial en Europa, para que esto no sea China. El control biométrico y por inteligencia artificial de las personas va a estar prohibido, y va a haber usos de IA de alto riesgo, que son los que pueden afectar a derechos y libertades específicos de las personas, como temas sanitarios. Todas estas cosas van a tener una serie de mecanismos obligatorios en los que las empresas y quienes las usen, quienes las comercialicen y, sobre todo, quienes las desarrollen, van a tener que aplicar para que sea una tecnología inocua y no genere mal. Sobre todo, que no genere sesgos. Las empresas y las administraciones ya están usando IA, porque el Office 365 ya la incorpora. Esa información que tú le das a la IA, ¿a dónde va? Porque no solo la tienes tú: la inteligencia artificial tiene que aprender; con lo cual coge esa información. Todas esas cosas hay que ir catalogándolas y ver qué se hace con ellas.

La impresión es que el desarrollo de esta tecnología e incluso su bajada al nivel usuario va infinitamente más rápido que su regulación. ¿Hay tiempo de ponerse a la par, o vamos a rebufo?

Realmente, nosotros venimos trabajando con IA desde hace 20 años, pero ahora se ha democratizado muy rápidamente, la gente la tiene en su teléfono móvil. Nosotros en la asociación, hace 10 años, no parábamos de hablar de la nube, del cloud computing, y me vino una vez una asociada y me dijo: «Oye, Marcos, esto que estáis contando es muy interesante, pero solo se aplica a las grandes empresas, que son las que pueden optar a una nube». Nosotros decíamos que esto iba a llegar a la pyme, y no solo eso: tu google, tu gmail, tu correo, está todo en la nube. Esa democratización ha llegado igual en la IA, y claro, se descontrola, porque se pueden hacer cosas como un sistema de selección de personal en el que el sistema filtra los currículums electrónicos y te decide a quién tienes que contratar por distintos factores. Ese algoritmo, si está mal hecho o mal llevado, puede provocar sesgos o daños, como por ejemplo, decirte que no contrates a mujeres porque se pueden quedar embarazadas y te viene mejor un hombre. Eso es un problema para nuestra sociedad, porque sería un paso atrás.

¿Cómo lo evita la normativa?

La normativa primero se aplica a los desarrolladores, que van a tener que establecer sistemas de transparencia y de supervisión para que no haya esos sesgos. Luego, la normativa incide mucho en la parte ética, de que siempre haya una supervisión humana. Si tú estás en Recursos Humanos y siempre contratas lo que dice la IA, tienes un problema. Otra cosa es que luego tú contrates a otra persona porque ha hecho una entrevista mejor o te ha gustado más. La inteligencia artificial está muy bien, pero sin inteligencia humana no vamos a ninguna parte.

Suscríbete para seguir leyendo

Tracking Pixel Contents