O impacto das redes sociais na vida e na cotiandade de milleiros de persoas trouxo moitas cousas boas nos últimos anos, pero tamén aumentou as canles que as persoas con intencións menos honestas aproveitan para facer dano. Ao bullying físico ou psicolóxico máis recoñecible únese, xa case de xeito preponderante, outro máis perigoso e complicado de detectar: o ciberacoso, que traslada as agresións ás redes sociais e dota de impunidade aos agresores. Paulo Seoane, alumno de Enxeñería Informática da Universidade da Coruña, puxo o foco nesta lacra no seu Traballo de Fin de Grao. Unha investigación coa que pescuda o xeito de poñer a tecnoloxía a disposición das boas causas.

O seu proxecto, Técnicas de Intelixencia Artificial Aplicadas á detección de ciberacoso en redes sociais vén de resultar gañador do VII Premio ao Mellor Traballo de Fin de Grao Aplicado do Grao en Enxeñaría Informática. “Sempre fun consciente da problemática que hai nas redes sociais con este tema. Hai moito acoso. Os adolescentes son os que máis o sofren: ao mellor soben unha fotografía coa súa mellor intención, e os bombardean a comentarios repetitivos e insultantes. É algo que causa moito dano”, aprecia o xa enxeñeiro informático.

O traballo, proposto e titorizado por Fidel Cacheda, profesor da Facultade e investigador do Centro de Investigación TIC (Citic) da UDC, propón unha serie de técnicas coas que automatizar o proceso de detección destes comportamentos violentos en redes sociais, que poden ter consecuencias moi perxudiciais no mundo que agarda fóra de Internet.

“O ciberacoso non queda só nas redes. Trasládase ao físico deriva en ansiedade, depresións, falta de autoestima. O proxecto é interesante porque supón unha forma de detectar este acoso de xeito automático antes de que vaia a máis”, asegura o autor da investigación. A investigación premiada distingue, por unha banda, entre ciberacoso e ciberagresión. A segunda é facilmente recoñecible: unha imaxe ou un vídeo humillante dirixido a unha persoa, un comentario ferinte illado, unha ameaza. O primeiro, porén, ten unha característica fundamental que o define: a repetición. “A nosa Intelixencia Artificial detecta comentarios repetitivos, esa reiteración dos insultos en grandes cantidades. Todas as redes sociais, Instagram, Twitter, TikTok, etc,. teñen en común que se pode deixar comentarios nas súas publicacións. Se enfocabamos o traballo a detectar os ciberacoso en comentarios, podíamos exportalo a todas as redes”, explica Seoane.

Para que a Intelixencia Artificial desenvolvida por Seoane diferenciase e detectase eficazmente os comportamentos desta natureza, era imprescindible que, en primeiro lugar, “aprendese” dalgún xeito as linguaxes que debía analizar. “Tiñamos un conxunto moi grande de comentarios, clasificados en se eran ou non ciberacoso. Collemos unhas investigacións previas dunha universidade inglesa, comentarios de redes sociais de casos reais de bullying e enquisas sobre se eses comentarios eran ou non ciberacoso. A partir diso, entrenas a unha Intelixencia Artifical para diferencialos”, explica.

O contexto, para evitar equívocos, é fundamental. Tamén para as máquinas, adestradas, en última instancia, para superar as destrezas do ser humano.

“O que fixemos foi aplicar técnicas que collían eses comentarios e os pasaban a vectores, a números, dun xeito que o ordenador podía entender o contexto dos comentarios”, debulla. Unha iniciativa que pode resultar de grande utilidade aos responsables das grandes plataformas, en cuxos plans está, dende hai anos, converter os espazos da nube en lugares menos tóxicos para os seus usuarios. Cortar de raíz este tipo de condutas pode estar a tan só un clic. “Se as redes sociais contratan este servizo, poden analizar os comentarios, discernir se se trata de ciberacoso, e tomar as medidas oportunas”, propón Seoane.