ChatGPT e o nesgo de automatización

Laura M. Castro Souto

Desde hai cousa de algo máis de ano e medio semella que convivimos cunha nova xeración de ferramentas destinadas a mudar o xeito no que abordamos certo tipo de tarefas no noso día a día. Refírome, naturalmente, a ChatGPT e semellantes, como Gemini, cada día máis integrado nos móbiles Android de Google; Llama, a quen Meta (Facebook) nos anima a preguntar calquera cousa desde a última actualización dos nosos WhatsApp; ou Copilot, que de seguro non pasou desapercibido para as persoas que usan acotío os produtos ofimáticos de Microsoft.

Este conxunto de programas baseados no que denominamos intelixencia artificial xerativa, semellan quen de recibir instrucións de calquera de nós sen que teñamos que saber programar, sen que teñamos que ser expertas, sequera, en dar coas mellores palabras chave para atopar os resultados desexados usando un buscador como Google, DuckDuckGo ou Ecosia. Ademais, o xeito que teñen de respondernos tamén tenta semellar estar producido por unha de nós: é unha conversa na que a outra parte se di encantada de axudar, afirma esforzarse en atender as nosas peticións, e reitera a súa dispoñibilidade para mellorar en caso de non proporcionar unha resposta suficientemente boa.

Nestes meses, fomos descubrindo que estes programas, como adoita ocorrer no mundo da industria do software, non foran postos á disposición do público (en produción é a terminoloxía que se usa na profesión) libres de erros, nin moito menos. Para sorpresa de moitas persoas, os textos que ChatGPT e os seus homólogos producían contiñan afirmacións falsas, datos inventados, feitos que nunca ocorreran. Ademais de títulos de libros que xamais foran escritos, circularon imaxes de persoas con membros ou posturas imposibles, recomendacións culinarias que incluían ingredientes como pedras ou pegamento.

Mais unha novidade crucial destes erros tan rechamantes é que son totalmente diferentes aos erros aos que o software nos tiña afeitas: pantallas azuis, peches ou reinicios inesperados, mensaxes incomprensíbeis. As respostas de ChatGPT lense igual de convincentes cando son erróneas que cando non o son. O algoritmo non contempla admitir descoñecemento, o 404 Not Found non é unha opción.

Por iso, por moito que tentemos explicar o xeito fundamental no que estas ferramentas de xeración de contido funcionan, que o conxunto de palabras ou os trazos de imaxe que compoñen a resposta que recibimos responde a un conxunto de probabilidades balanceadas, e que a raíz desas probabilidades son grandes cantidades de textos e imaxes na súa grande maioría compilados da internet sen moita máis consideración, resulta moi difícil non acreditar na súa validez. Ou, dito doutro xeito, resulta moi doado acreditar na súa validez: é unha máquina que non se comporta como outras máquinas cando falla, e por tanto, semella non fallar nunca. E, se non falla, e ademais é unha máquina (que non se cansa, que non ten un mal día, que sempre transmite palabras amables e próximas...) como non confiar no seu resultado? Confiamos, abofé, e confiamos máis que en calquera persoa, e até as persoas expertas confían máis que en si mesmas!

Por sorte, as ciencias sociais axúdannos a comprender o que nos ocorre e póñenlle nome a estes fenómenos do noso comportamento humano, para que poidamos recoñecérmonos neles e reflexionar: isto que nos ocorre con ChatGPT e semellantes é unha manifestación do chamado nesgo de automatización, que é un dos nesgos cognitivos do noso cerebro. Se até agora cando o software fallaba era exasperante, pero evidente (ese editor ou folla de cálculo que se pechaba inesperadamente xusto cando levabamos un bo anaco sen gardar as nosas últimas edicións, esa cámara ou micrófono que deixan de funcionar antes da nosa seguinte reunión...), agora atopámonos fronte a un novo tipo de programas que, malia que poden fallar dese xeito, naturalmente, non é o único modo que teñen de cometer erros. E os outros erros, que nos serven en bandexa de prata, son moito máis difíciles de detectar a non ser que a nosa actitude fronte a eles mude tamén, e se converta en vixilante, crítica, auditora.

Mais, por que unha tecnoloxía que vén -supostamente- a revolucionar o noso xeito de traballar, impón no fondo unha carga adicional sobre as persoas usuarias? Non era posible facelo mellor? Se sabemos que o nesgo de automatización existe: non se podían deseñar as aplicacións que usan intelixencia artificial xerativa de xeito que non favorecesen a nosa confianza cega, aproveitándose precisamente dese nesgo cognitivo? A resposta é un rotundo si. En todo o que as persoas imaxinamos, deseñamos, construímos e usamos hai un milleiro de oportunidades para facermos as cousas dun xeito ou doutro. Podemos elixir deseñar un programa recoñecendo que hai persoas con diferentes graos de agudeza visual, con mobilidade reducida, con diversas capacidades auditivas... e que nós queremos que todas poidan facer uso dese software, e construílo para que sexa accesible; ou podemos ignorar esa parte da poboación e considerar que non nos importa excluíla como público obxectivo. Do mesmo modo, podemos elixir deseñar un ChatGPT sabendo que existe o nesgo de automatización, e actuar en consecuencia, ou podemos elixir ignorar ese coñecemento, e descargar a responsabilidade nas persoas que o usarán.

En 2025 entra en vigor a Acta Europea de Accesibilidade (EAA), que busca garantir que as empresas non ignoran as diversidades da poboación en termos de accesibilidade. Portais web, plataformas de comercio electrónico, pero tamén dispositivos móbiles, televisores, caixeiros automáticos, libros electrónicos ou máquinas expendedoras, entre outros, deberán garantir a accesibilidade ou enfrontar sancións económicas. Paradoxalmente, a chamada Lei Europea da Intelixencia Artificial (AI Act) simplemente establece que os provedores de sistemas que empreguen estas tecnoloxías deben asegurarse, o mellor que poidan, de que as persoas que os vaian usar teñen un nivel suficiente de "alfabetismo dixital sobre IA".

Suscríbete para seguir leyendo

Tracking Pixel Contents