Kiosco

La Opinión de A Coruña

La UE prepara otra ley para combatir la pornografía infantil en internet

La Comisión Europea presenta nuevas reglas para obligar a las plataformas a detectar y eliminar el material con fotos y vídeos sobre abusos a menores

Una agente de la Guardia Civil revisa un ordenador. | // EFE

El año pasado se denunciaron 85 millones de imágenes y vídeos de abusos sexuales a menores en todo el mundo aunque hay muchos más que se quedan sin denunciar y que siguen compartiéndose a una escala masiva en la red. Se trata de un problema que se ha visto agravado durante la pandemia de COVID y al que la Comisión Europea propone poner coto con una nueva legislación que obligará a los operadores de internet a detectar, notificar, eliminar y denunciar el material de abuso sexual infantil de sus servicios. El plan también incluye la creación de un nuevo centro europeo sobre abuso infantil que tendrá su sede en la agencia Europol y que dará cobertura a los gobiernos europeos.

Actualmente, algunos proveedores utilizan voluntariamente la tecnología para detectar, denunciar y eliminar el material de abuso sexual infantil en sus servicios. Las medidas adoptadas, sin embargo, varían mucho y la situación es insuficiente a ojos de Bruselas. “Se necesitan normas claras, con condiciones y salvaguardias sólidas”, advierte la Comisión Europea en su propuesta. “Es una necesidad urgente para evitar que se compartan imágenes y vídeos de abusos sexuales a menores, lo que vuelve a traumatizar a las víctimas a menudo años después de que los abusos sexuales hayan terminado”, alega la comisaria de Interior, Ylva Johansson. Según un análisis de Europol, en los primeros meses de la pandemia la demanda de material pedófilo aumentó un 25% en algunos estados miembros.

Con el nuevo reglamento propuesto por el Ejecutivo comunitario, que ahora deberá ser negociado por el Consejo y el Parlamento Europeo, proveedores en línea que ofrecen servicios en la UE como Google o Apple o gigantes dedicados a la comunicación interpersonal como WhatsApp o Snapchat tendrán que realizar evaluaciones de riesgo para detectar si sus servicios se utilizan indebidamente para difundir material de abuso sexual infantil —fotos y vídeos que previamente se han identificado como material de abuso sexual o material nuevo— o para la captación de niños, lo que se conoce como grooming, a través de plataformas de juegos o chats. Si este análisis determina que existe un riesgo, el objetivo tendrán que proponer medidas para mitigarlo.

Los estados miembros, por su parte, tendrán que designar autoridades nacionales responsables de la revisión de la evaluación. Si concluyen que sigue existiendo un «riesgo significativo» tendrán potestad para solicitar a un tribunal que emita una orden para detectar contenido de abuso sexual aunque las órdenes de detección estarán limitadas en el tiempo y se dirigirán a un tipo específico de contenido en un servicio concreto. Las empresas que hayan recibido una orden de detección solo podrán detectar contenidos utilizando indicadores de abuso sexual infantil verificados y facilitados por el nuevo centro de la UE, que tendrá su sede al igual que Europol en La Haya.

Compartir el artículo

stats