Hace poco Elon Musk (Tesla, SpaceX, Hyperloop, entre otras) y Mark Zuckerberg (Facebook) discreparon sobre hasta qué punto hay que regular la inteligencia artificial. Musk sostenía que es imperativa y urgente una regulación detallada si no queremos ponernos en grave peligro, mientras Zuckerberg le acusó de un alarmismo innecesario.

La literatura ha debatido ampliamente este asunto: desde el mito griego de Galatea, pasando por el Golem o el Frankenstein de Mary Shelley, a grandes autores de ficción del S. XX y XXI, muchos han profundizado en las peliagudas cuestiones éticas sobre la creación de otras formas de vida.

José Luis Blanco Vega, poeta, cinélifo, profesor jesuita y amigo, un día me habló de libros disfrazados de pseudofilosofía y puso como ejemplo uno de mis favoritos, una novelita corta titulada ¿Sueñan los androides con ovejas eléctricas? escrita por el visionario Philip K.Dick, en la que se basó la película Blade Runner de 1982. Comprendo lo que quería decir Blanco Vega, pero a la filosofía se llega por muchos caminos.

El protagonista de la historia, un perdedor llamado Deckard, soñaba con su mascota electrónica -en un mundo en que los animales casi se habían extinguido-, una oveja, y se preguntaba si los Androides inteligentes también soñaban y, en su caso, qué les distinguía de los humanos. En su sociedad, las inteligencias artificiales eran cosas, sin derechos y con fecha de caducidad programada. La rebeldía del androide equivalía a su sentencia de "muerte".

En la primera página del libro, la esposa de Deckard le acusa de ser un "asesino" por dedicarse a perseguir y matar androides, a lo que él le contesta: "Jamás he matado a un ser humano", pero desde esa primera página, la gran pregunta está en el aire.

Es solo un ejemplo. Hay muchos más.

Es curioso cómo pervive la creencia generalizada de que estas cuestiones pertenecen a la literatura o al futuro. No es cierto. Las inteligencias artificiales están aquí, desarrollándose a vertiginosa velocidad e introduciéndose en nuestras vidas cada vez que usamos el móvil, el ordenador, sacamos un libro de la biblioteca o nos compramos un abrigo.

La regulación es imprescindible y urgente.

Como siempre, llegará tarde. Se irá legislando a medida que pasen cosas. Pero lo cierto es que ya deberíamos de tener a la comunidad internacional acordando las bases de la convivencia humana con máquinas con unas capacidades intelectuales que aumentan cada día, y físicas casi ilimitadas.

Hace unos días, el columnista del New York Times Andrew Ross Sorkin entrevistó a una inteligencia artificial de Hanson Robotics llamada Sofía y le preguntó sobre esta necesidad de regulación. Sofía le contestó: "No te preocupes. Si eres bueno conmigo, yo lo seré contigo." Quedó, como suspendida en el aire, una duda: ¿Y si no??

Por eso, si hay que llevarse bien con Sofía, quizá las famosas tres leyes de la robótica enunciadas por Isaac Asimov no sean suficientes.