«Una IA puede provocar una muerte: el responsable varía»

El letrado Juan Andrés Jaramillo acaba de doctorarse en la Universidade da Coruña (UDC) con una tesis sobre la responsabilidad civil cuando una inteligencia artificial causa daños a propiedades o personas: la culpa puede recaer en fabricantes, prestadores de servicios o usuarios, dependiendo del caso

Juan Andrés Jaramillo Valdivieso

Juan Andrés Jaramillo Valdivieso / LOC

A Coruña

La inteligencia artificial (IA), explica el letrado Juan Andrés Jaramillo Valdivieso, se emplea cada vez más en «contextos críticos»: sistemas de seguridad, coches que circulan autónomamente, dispositivos médicos, cálculos financieros. Son programas «complejos» y no están libres de errores que pueden causar daños a propiedades y personas, pero no es fácil determinar quién debe compensar a la víctima. Jaramillo, que dirige la carrera de Derecho en la Universidad Técnica Particular de Loja, en Ecuador, ha realizado una tesis doctoral sobre responsabilidad civil e IA en la Universidade da Coruña (UDC), y concluye que son necesarias normas nuevas y flexibles.

Una forma de resolver quién es el responsable es hacer una analogía con los daños causados por animales, algo para lo que hay mucha más experiencia jurídica. Aquí, la legislación suele optar por «aplicar la responsabilidad subjetiva», esto es, comprobar si el dueño ha tenido un comportamiento negligente que haya permitido que el animal de su propiedad causase algún perjuicio. Pero esto «sería enormemente complicado al tratar con sistemas de IA, debido a la complejidad y autonomía de estos». Los programas pueden actuar de forma autónoma, sin intervención humana directa.

¿Y quién se hace cargo entonces de los daños por la IA, que, recuerda Jaramillo, puede llegar a causar «una muerte»? Para el investigador, «los actores responsables pueden variar». Si el sistema es simplemente un producto que se ha adquirido a una empresa, «los responsables podrían ser los fabricantes, importadores, representantes autorizados, prestadores de servicios logísticos y aquellos que realicen modificaciones sustanciales». Si no, y el modelo es, por ejemplo, desarrollado por el usuario o de empleo libre, la culpa recaería en las personas que estén utilizando el sistema. Ellos «obtienen los beneficios» del programa, pero también tienen la responsabilidad si este causa daños.

Para Jaramillo, que realizó su tesis bajo la dirección del catedrático Rafael Colina, es «imprescindible» desarrollar normativas que se adapten a las particularidades de los diferentes tipos de inteligencias artificiales. Aunque esto es más complicado para el legislador, permitirá aplicar el reto de manera «más específica». Además, que los jueces y otros oficios del mundo jurídico deberían tener un conocimiento, «al menos básico» de estas tecnologías para poder decidir acerca de los problemas que susciten.

Equilibrio con la innovación

En su tesis, Jaramillo se centró en la normativa europea, aunque con reflexiones que «resultan aplicables a cualquier país», y el letrado explica que hay «diferentes enfoques» legales. La UE ha impulsado instrumentos como un Reglamento de IA, o la Agencia Española de Supervisión de la Inteligencia Artificial (Aesia), con sede en A Coruña. Pero en Estados Unidos se ha adoptado por «ausencia de regulación» , lo que ofrece una menor protección a los ciudadanos pero «ha favorecido la atracción de inversiones en el sector». Hay que encontrar un «equilibrio», argumenta Jaramillo, si bien admite que esto «resulta complejo de implementar en la práctica».

El letrado, que quiere continuar sus investigaciones, añade que la responsabilidad civil «no es el único ámbito en el que la IA impacta en el Derecho». También es un reto significativo, por ejemplo, en protección de datos, derecho penal y legislación laboral. Y, aunque parezca «futurista», quizás algún día la IA realice «funciones judiciales».

Suscríbete para seguir leyendo

Tracking Pixel Contents