El EECC amplía el ámbito de aplicación de la Directiva sobre la privacidad y las comunicaciones electrónicas del año 2002 para abarcar los servicios de comunicaciones interpersonales over-the-top (OTT) como, por ejemplo, los servicios de mensajería y correo electrónico. Esto conlleva a que, en ausencia de medidas legislativas nacionales adoptadas de conformidad con el art. 15, apartado 1, de la citada Directiva[1], los proveedores de servicios no puedan seguir aplicando la tecnología utilizada para detectar, eliminar y denunciar ante las autoridades competentes el material detectado en la red, constitutivo de un posible delito de abuso y/o explotación sexual infantil o grooming, al haberse vuelto ilegal.
Esto supone un duro e incomprensible golpe a la lucha contra este tipo de delitos que, lamentablemente, crecen de forma exponencial día a día[2] y en cuya detección, denuncia y eliminación los proveedores de servicios constituían colaboradores indispensables.
Organizaciones europeas de protección de los derechos de los niños y niñas como MISSING CHILDREN EUROPE (MCE) o EUROCHILD, que juntas representan a más de 2000 entidades sociales de toda Europa, han unido esfuerzos para solicitar al Parlamento y Comisión Europea que acuerden, con carácter urgente, una excepción o derogación temporal que permita a los proveedores de servicios continuar utilizando las herramientas tecnológicas de las que disponían para detectar, informar y eliminar material de abuso y explotación sexual infantil en la red y detectar e informar de casos de grooming.
“Cada segundo y cada niño cuenta”, ha señalado Maud de Boer Buquicchio, presidenta de MCE y ex relatora especial de la ONU sobre la venta de niños, la prostitución infantil y la utilización de niños en la pornografía. Asimismo, declara que la UE no defiende la protección de los niños contra el abuso sexual en línea a través de la tecnología y que no podemos permitir que la regulación sobre la privacidad en las comunicaciones electrónicas prevalezca sobre la necesidad de detectar y eliminar el contenido de abuso y explotación sexual infantil.
Cada día que pasa sin que se llegue a un acuerdo sobre esa excepción o derogación temporal, muchos niños y niñas europeos estarán desprotegidos frente al peligro de ser víctimas de este tipo de delitos, y de caer en manos de depredadores sexuales que se mueven por la red.
Tan es así, que varios de estos proveedores de servicios, incluidos GOOGLE, MICROSOFT, LINKEDIN, ROBLOX Y YUBO APP, han expresado su compromiso con la seguridad infantil y su intención de seguir utilizando esta tecnología para eliminar el material de abuso sexual infantil en la red, pese a que haya quedado prohibido por el EECC.
Esa excepción o derogación temporal cuya aprobación urgente solicitan las organizaciones de infancia constituiría una solución provisional hasta que, conforme al compromiso adquirido por la Comisión en la Estrategia de la Unión Europea para una lucha más eficaz contra el abuso sexual infantil, publicada el 24 de julio de 2020, se apruebe a medio o largo plazo la legislación necesaria para prevenir y combatir de forma eficaz el abuso y la explotación sexual infantil en la red, garantizándose la intimidad de las comunicaciones electrónicas como la protección de los niños frente a este tipo de delitos.
La propia Comisión reconoce expresamente en la citada Estrategia la necesidad de buscar una solución y propone dos fases como medidas clave:
En una primera fase, con carácter prioritario, la Comisión propondrá la legislación necesaria para garantizar que los proveedores de servicios de comunicaciones electrónicas puedan continuar sus prácticas voluntarias actuales para detectar en sus sistemas cualquier tipo de abusos sexuales de menores de edad cometidos mediante el uso de las nuevas tecnologías después de diciembre de 2020.
En una segunda fase, antes del segundo trimestre de 2021, la Comisión propondrá la legislación necesaria para luchar eficazmente contra los abusos sexuales de menores de edad en la red, incluso exigiendo a los proveedores de servicios que detecten pornografía infantil conocida y obligándoles a denunciarlo ante las autoridades públicas.
Ya ha pasado más de un mes desde la aprobación del EECC y aún seguimos esperando esa solución legislativa temporal de la UE que permita a los proveedores de servicios continuar utilizando su tecnología para detectar, eliminar y denunciar estos delitos y, al mismo tiempo, garantice el respeto de los derechos fundamentales, incluidos los derechos a la intimidad y a la protección de los datos personales.
Las graves consecuencias que la actual situación legislativa está provocando en la protección de los niños y niñas frente a estos delitos ya se dejan ver en las preocupantes cifras ofrecidas recientemente por Centro Nacional para Niños Desaparecidos y Explotados de EE. UU. (NCMEC): en las tres semanas siguientes al 21 de diciembre se ha producido una caída del 46% en los informes de detección de este tipo de ese material por parte de los proveedores de servicios en la Unión Europea, en comparación con las tres semanas anteriores a dicha fecha.
No hay duda de que esta fuerte disminución es consecuencia directa de la nueva regulación contenida en el EECC. ¿Hasta cuándo habrá que esperar?
[1] La Directiva sobre la privacidad y las comunicaciones electrónicas no contiene ninguna base jurídica respecto al tratamiento voluntario del contenido y los datos de tráfico para fines de detección de abusos sexuales de menores. Los proveedores solo pueden aplicar dichas medidas si se basan en una medida legislativa nacional que cumpla los requisitos expuestos en el artículo 15 de la Directiva (proporcionalidad, etc.), para restringir el derecho a la confidencialidad. En ausencia de dichas medidas legislativas, las medidas para detectar abusos sexuales de menores adoptadas por los proveedores, que tratan contenidos o datos de tráfico, carecerán de base jurídica.
[2] En los últimos años se ha registrado un dramático aumento de las denuncias por abuso y explotación sexual infantil en la red dentro del marco de la Unión Europea: de 23.000 en 2010 a más de 725.000 en 2019, con casi tres millones de videos, imágenes o conversaciones procedentes de los Estados miembros de la Unión Europea [EU and global data as reported to the National Centre for Missing and Exploited Children (NCMEC)].