No podemos permitir que la regulación sobre la privacidad
en las comunicaciones electrónicas prevalezca
sobre la necesidad de detectar y eliminar
el contenido de abuso y explotación sexual infantil.
La propia Comisión reconoce expresamente
la necesidad de buscar una solución.
Leticia Mata Mayrand*.
El 21 de diciembre de 2020 vencía el
plazo para la trasposición por los Estados miembros de la Directiva (UE)
2018/1972, del Parlamento Europeo y del Consejo, de 11 de diciembre,
por la que se establece el Código Europeo de Comunicaciones Electrónicas (en
adelante EECC) (SP/LEG/25314). A partir de esa fecha, los Estados
miembros deben aplicar las disposiciones legales, reglamentarias y
administrativas que hayan adoptado para dar cumplimiento a lo dispuesto
en la citada directiva.
El EECC amplía el ámbito de aplicación de la Directiva sobre la privacidad y las comunicaciones electrónicas del año 2002
para abarcar los servicios de comunicaciones interpersonales
over-the-top (OTT) como, por ejemplo, los servicios de mensajería y
correo electrónico. Esto conlleva a que, en ausencia de medidas
legislativas nacionales adoptadas de conformidad con el art. 15,
apartado 1, de la citada Directiva[1],
los proveedores de servicios no puedan seguir aplicando la tecnología
utilizada para detectar, eliminar y denunciar ante las autoridades
competentes el material detectado en la red, constitutivo de un posible
delito de abuso y/o explotación sexual infantil o grooming, al haberse
vuelto ilegal.
Esto supone un duro e incomprensible
golpe a la lucha contra este tipo de delitos que, lamentablemente,
crecen de forma exponencial día a día[2] y en cuya detección, denuncia y eliminación los proveedores de servicios constituían colaboradores indispensables.
Organizaciones europeas de protección de
los derechos de los niños y niñas como MISSING CHILDREN EUROPE (MCE) o
EUROCHILD, que juntas representan a más de 2000 entidades sociales de
toda Europa, han unido esfuerzos para solicitar al Parlamento y Comisión
Europea que acuerden, con carácter urgente, una excepción o derogación temporal
que permita a los proveedores de servicios continuar utilizando las
herramientas tecnológicas de las que disponían para detectar, informar y
eliminar material de abuso y explotación sexual infantil en la red y
detectar e informar de casos de grooming.
“Cada segundo y cada niño cuenta”,
ha señalado Maud de Boer Buquicchio, presidenta de MCE y ex relatora
especial de la ONU sobre la venta de niños, la prostitución infantil y
la utilización de niños en la pornografía. Asimismo, declara que la UE no defiende la protección de los niños contra el abuso sexual en línea a través de la tecnología y que no podemos permitir que la regulación sobre la privacidad en las
comunicaciones electrónicas prevalezca sobre la necesidad de detectar y
eliminar el contenido de abuso y explotación sexual infantil.
Cada día que pasa sin que se llegue a un
acuerdo sobre esa excepción o derogación temporal, muchos niños y niñas
europeos estarán desprotegidos frente al peligro de ser víctimas de
este tipo de delitos, y de caer en manos de depredadores sexuales que se
mueven por la red.
Tan es así, que varios de estos
proveedores de servicios, incluidos GOOGLE, MICROSOFT, LINKEDIN, ROBLOX Y
YUBO APP, han expresado su compromiso con la seguridad infantil y su
intención de seguir utilizando esta tecnología para eliminar el material
de abuso sexual infantil en la red, pese a que haya quedado prohibido
por el EECC.
Esa excepción o derogación temporal cuya
aprobación urgente solicitan las organizaciones de infancia
constituiría una solución provisional hasta que, conforme al compromiso
adquirido por la Comisión en la Estrategia de la Unión Europea para una
lucha más eficaz contra el abuso sexual infantil, publicada el 24 de
julio de 2020, se apruebe a medio o largo plazo la legislación necesaria
para prevenir y combatir de forma eficaz el abuso y la explotación
sexual infantil en la red, garantizándose la intimidad de las
comunicaciones electrónicas como la protección de los niños frente a
este tipo de delitos.
La propia Comisión reconoce expresamente en la citada Estrategia la necesidad de buscar una solución y propone dos fases como medidas clave:
En una primera fase, con carácter
prioritario, la Comisión propondrá la legislación necesaria para
garantizar que los proveedores de servicios de comunicaciones
electrónicas puedan continuar sus prácticas voluntarias actuales para
detectar en sus sistemas cualquier tipo de abusos sexuales de menores de
edad cometidos mediante el uso de las nuevas tecnologías después de
diciembre de 2020.
En una segunda fase, antes del segundo
trimestre de 2021, la Comisión propondrá la legislación necesaria para
luchar eficazmente contra los abusos sexuales de menores de edad en la
red, incluso exigiendo a los proveedores de servicios que detecten
pornografía infantil conocida y obligándoles a denunciarlo ante las
autoridades públicas.
Ya ha pasado más de un mes desde la
aprobación del EECC y aún seguimos esperando esa solución legislativa
temporal de la UE que permita a los proveedores de servicios continuar
utilizando su tecnología para detectar, eliminar y denunciar estos
delitos y, al mismo tiempo, garantice el respeto de los derechos
fundamentales, incluidos los derechos a la intimidad y a la protección
de los datos personales.
Las graves consecuencias que la actual
situación legislativa está provocando en la protección de los niños y
niñas frente a estos delitos ya se dejan ver en las preocupantes cifras
ofrecidas recientemente por Centro Nacional para Niños Desaparecidos y
Explotados de EE. UU. (NCMEC): en las tres semanas siguientes al 21 de
diciembre se ha producido una caída del 46% en los informes de detección
de este tipo de ese material por parte de los proveedores de servicios
en la Unión Europea, en comparación con las tres semanas anteriores a
dicha fecha.
No hay duda de que esta fuerte disminución es consecuencia directa de la nueva regulación contenida en el EECC. ¿Hasta cuándo habrá que esperar?
[1]
La Directiva sobre la privacidad y las comunicaciones electrónicas no
contiene ninguna base jurídica respecto al tratamiento voluntario del
contenido y los datos de tráfico para fines de detección de abusos
sexuales de menores. Los proveedores solo pueden aplicar dichas medidas
si se basan en una medida legislativa nacional que cumpla los requisitos
expuestos en el artículo 15 de la Directiva (proporcionalidad, etc.),
para restringir el derecho a la confidencialidad. En ausencia de dichas
medidas legislativas, las medidas para detectar abusos sexuales de
menores adoptadas por los proveedores, que tratan contenidos o datos de
tráfico, carecerán de base jurídica.
[2]
En los últimos años se ha registrado un dramático aumento de las
denuncias por abuso y explotación sexual infantil en la red dentro del
marco de la Unión Europea: de 23.000 en 2010 a más de 725.000 en 2019,
con casi tres millones de videos, imágenes o conversaciones procedentes
de los Estados miembros de la Unión Europea [EU and global data as
reported to the National Centre for Missing and Exploited Children
(NCMEC)].
* Leticia Mata Mayrand,Abogada especializada en protección a la infancia, Miembro del Patronato de la Fundación ANAR.