Las empresas que impulsan la IA equiparan su “riesgo de extinción” a la guerra nuclear

Insisten en que debería priorizarse el control de esta nueva tecnología

Carles Planas Bou

Académicos y directivos de las grandes empresas que están liderando el despliegue de la inteligencia artificial (IA) han advertido de la amenaza existencial que, en su opinión, supone para la humanidad. En una declaración de tan solo 22 palabras, investigadores y directores ejecutivos han señalado que el control de esta emergente tecnología debería priorizarse, equiparando su importancia con la de las pandemias o a la guerra nuclear.

“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, reza la carta abierta, que repite la hipotética y criticada idea de que, como en Terminator, la máquina cobre conciencia y nos mate a todos. La publicación no contempla el cambio climático como una prioridad ni sugiere acciones para minimizar esa presunta amenaza.

Entre las más de 200 personalidades que han firmado la declaración destacan líderes empresariales como Sam Altman, director ejecutivo de OpenAI, creadora de ChatGPT y parcialmente en manos de Microsoft o Demis Hassabis, director ejecutivo de Google DeepMind.

Entre las firmas de la misiva también figuran académicos como los profesores de ciencias computacionales Yoshua Bengio y Geoffrey Hinton, quien ha dimitido como vicepresidente de ingeniería de Google. Ambos fueron reconocidos con el Premio Turing, el Premio Nobel de las ciencias computacionales, por su trabajo en aprendizaje profundo (deep learning), la tecnología detrás de la IA.

La carta, de acuerdo con sus promotores, busca “abrir la discusión” sobre los “riesgos más severos” de una tecnología aún en desarrollo, un debate complejo que ya ha acarreado varias polémicas. Varios de los firmantes que ahora realizan esta alerta ya habían publicado otra misiva en marzo en la que pedían suspender durante seis meses el entrenamiento de los sistemas de IA más avanzados, para retrasar la velocidad en la que estos están evolucionando.

Sin embargo, expertos críticos en el campo de la informática criticaron que esos supuestos riesgos futuros de la inteligencia artificial todavía son ciencia-ficción y que hablar de ellos sirve para ocultar el impacto real que esta tecnología ya está teniendo en la actualidad, tanto en materia laboral como en su potencial para la desinformación o el consumo de agua y electricidad que conlleva mantenerla.

Aunque la mayoría de firmantes de la carta son estadounidenses, al otro lado del Atlántico también hay muchas voces críticas con este tipo de declaraciones apocalípticas. “Cuando los bros de la IA griten “¡Mira un monstruo!” para distraer a todo el mundo de sus prácticas (robo de datos, derroche de energía, escalada de sesgos, contaminación del ecosistema de la información), deberíamos hacer como Scooby-Doo y quitarles la máscara”, tuiteó Emily Bender, profesora de lingüística computacional de la Universidad de Washington.