Mostrando entradas con la etiqueta #Datos personales e infancia. Mostrar todas las entradas
Mostrando entradas con la etiqueta #Datos personales e infancia. Mostrar todas las entradas

Mamá, por favor, ¿puedes borrar esa foto mía de tu instagram?

Pese a la enorme preocupación que existe actualmente 
en torno al uso de las pantallas por parte de los menores y sus efectos negativos, 
lo cierto es que niños y niñas comienzan su relación con el entorno digital 
mucho antes de tener siquiera capacidad de desearlo.

Según el estudio que realizó la firma de seguridad informática AVG en diferentes países, el 23 % de los menores tenía presencia en internet antes de nacer y el 81 % antes de cumplir seis meses. En España, una encuesta realizada entre padres y madres de niños y niñas de 9 a 17 años puso de manifiesto que el 89  % de las familias compartía alrededor de una vez al mes contenidos de sus hijos en Facebook, Instagram o TikTok.

PV productions/Shutterstock

Es lo que conocemos como el sharenting, una práctica cada vez más extendida hoy día entre las familias que parecen no ser conscientes de los riesgos que conlleva.

Por no hablar de los padres o madres influencers y el beneficio que les supone usar imágenes de sus hijos en sus cuentas para atraer a las marcas: el estudio “Exposición de menores en Instagram: instamadres, presencia de marcas y vacío legal”, señala que, de las cuentas analizadas, las publicaciones donde aparecen menores reciben un 41 % más likes respecto a las que no.

¿Acaso no tienen los padres derecho a publicar las imágenes de sus hijos? Sí y no. Hasta los 14 años, los padres, como tutores legales, tienen la potestad de decisión sobre cómo gestionar sus datos personales y, por ende, de su imagen. Pero precisamente son los padres y las madres los que están obligados a velar por la seguridad y el bienestar de los hijos. Los derechos de la infancia deben estar siempre por encima de los nuestros.

Cuando subimos una foto o vídeo a internet perdemos su control

Porque ¿quién puede resistirse a compartir una bonita foto familiar de unas vacaciones o un momento especial con nuestros amigos y seres queridos? Algo esporádico y natural que no debería convertirse en recurrente.

Además, debemos ser conscientes de que cualquier imagen publicada en internet (también en perfiles privados) puede poner en riesgo la seguridad y privacidad de los hijos (su huella digital). Una vez que se envía, aunque sea a un círculo pequeño de personas, la imagen escapa a nuestro control y podría convertirse en pública, a todos los efectos, si se comparte o se descarga por nuestros contactos.

Según el informe Perfil del detenido por delitos relativos a la pornografía infantil, en el 72 % de los casos de agresores sexuales duales penados existían imágenes cotidianas de menores no sexualizadas, es decir, fotos provenientes de fuentes comerciales, álbumes familiares o fuentes legítimas. Esto se aplica especialmente a esas fotos inofensivas y familiares en una piscina o en la playa, ya que nunca se sabe dónde puede acabar ese contenido.


Leer más: El impacto de la inteligencia artificial en la educación sexual


Y a estos riesgos, ahora se suma el aumento exponencial del uso de aplicaciones de inteligencia artificial generativa, dando lugar a los deepfakes y al morphing, que consiste en alterar la imagen del menor (puede ser cualquier foto en cualquier contexto) con otras de carácter pornográfico, dando lugar a una nueva fotografía de alto contenido sexual protagonizado, sin quererlo, por parte del menor.

Pero si es una foto muy ‘graciosa’, ¿por qué le da vergüenza?

A este comentario le suelen seguir otros del tipo: “Pero si son niños jugando en la piscina; si solo es mi bebé en la bañera; fue una caída muy graciosa… ¿qué peligro puede tener eso? ¡Anda que no hay cosas peores en las redes sociales!”.

El 56 % de los padres comparte información potencialmente vergonzosa de sus hijos, el 51 % da datos con los que puede localizárseles y un 27 % cuelga fotos directamente inapropiadas. En España, el 42 % de los menores siente vergüenza  por los contenidos subidos por sus padres a internet.

Además, también nos encontramos ya en redes sociales con muchos perfiles de centros escolares, centros deportivos o asociaciones que, para promocionar sus servicios y actividades, publican y comparten cientos de imágenes de los menores, muchas veces muy inapropiadas (en bañador), aunque cuenten con las autorizaciones familiares correspondientes para ello.

Repercusiones legales

¿Y qué ocurre cuando esos hijos crecen, se hacen adolescentes y nos piden que las borremos?

Cuando nuestros hijos, sobrinos o nietos tienen edad suficiente para opinar sobre lo que se publica de ellos en redes, su voluntad debe prevalecer. Así lo especifica la ley, por ejemplo, en España,  la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales:

“En caso de que el derecho se ejercitase por un afectado respecto de datos que hubiesen sido facilitados al servicio, por él o por terceros, durante su minoría de edad, el prestador deberá proceder sin dilación a su supresión por su simple solicitud”.

Y debemos de saber que, aunque pongamos emoticonos para cubrir sus caras, en caso de poder ser identificables de alguna manera, podremos ser sancionados por la Agencia Española de Protección de Datos con multas de hasta 3 000 €, máxime si no tenemos permiso de los progenitores o estos nos han solicitado su borrado (hay sanciones por ello de 10 000 €.)

Aun así, parece necesario adoptar futuros mecanismos o medidas, más allá de las existentes (en el Código Civil, la Ley Orgánica de Protección a la infancia y la adolescencia frente a la violencia, LOPIVI, la Ley de Servicios Digitales, DSA, o la Ley Orgánica de Protección de Datos Personales y garantía de los Derechos Digitales, LOPDGDD), ya que resultan insuficientes para garantizar la seguridad y privacidad de los menores en las redes sociales.

Antes de publicar fotos de menores, pensemos

  1. Lo primero y más importante: ¿nos gustaría que esa imagen estuviera en manos de personas desconocidas? ¿Cómo podría perjudicar la publicación de este contenido al menor en la vida adulta (de cara a conseguir un empleo, entablar una relación sentimental o en cualquier otra faceta de su vida personal)?

  2. Empaticemos con los menores y su sensibilidad, especialmente en la edad adolescente: preguntemos siempre antes de publicar una fotografía suya en internet o enviarla a familiares.

  3. Debemos compartir esta preocupación con los familiares más cercanos, hermanos y padres, para que respeten la voluntad de los menores.

  4. Configuremos la privacidad de redes sociales y canales de mensajería instantánea para asegurar que usuarios que no sean contactos no puedan acceder a las fotos, e incluso aunque lo sean, no puedan descargárselas.

  5. Desactivemos siempre la opción de etiquetado en las redes sociales para que las personas no puedan etiquetarnos ni a nosotros ni a nuestros hijos (si tuvieran perfil) automáticamente si nuestra autorización.

Tal y como nos recuerdan desde la Agencia Española de Protección de Datos y la iniciativa PantallasAmigas

existe la obligación de cuidar la imagen e intimidad de los menores, 
no el derecho de hacer un uso arbitrario de ellas. 
Es su huella digital presente y futura la que está en juego.

Polémica por uso no autorizado de fotos de personas menores en Inteligencia Artificial

 IA entrenada con fotos de personas menores sin permiso de los padres: 
Un problema real y grave.


Un reciente informe de Human Rights Watch Brasil  ha puesto de manifiesto una alarmante situación: las imágenes de niños menores están siendo utilizadas para entrenar modelos de inteligencia artificial sin el permiso de sus padres. 
Esta práctica plantea graves preocupaciones sobre la privacidad y la ética en el uso de la tecnología, subrayando la necesidad de ser extremadamente cautelosos al compartir fotos de menores en redes sociales.
Dos niñas juegan con sus cámaras en un jardín, Osterode, Alemania, 8 de enero de 2016. 
© 2016 Frank May/picture-alliance/dpa/AP Photo

Se necesitan salvaguardas de privacidad de datos para proteger contra la explotación
Fuente OIA-A

Imágenes de menores brasileños expuestas
El informe revela que más de 200 fotos de niños brasileños han sido identificadas en el dataset LAION-5B, utilizado para entrenar modelos de IA como Stable Diffusion de Stability AI. Estas imágenes, algunas de las cuales incluyen detalles personales como nombres y lugares de nacimiento, han sido recolectadas sin el consentimiento de los padres.


Riesgos de privacidad
El uso no autorizado de estas imágenes representa una seria violación de la privacidad de los menores. Las fotos pueden ser manipuladas para crear deepfakes, exponiendo a los niños a riesgos significativos sin que ellos o sus familias estén al tanto. Este problema es una llamada de atención sobre la importancia de proteger la información personal de los menores en el entorno digital.


Origen de las imágenes
Muchas de las fotos provienen de blogs personales o videos de YouTube con pocas visitas, donde se esperaba un cierto grado de privacidad. Esto destaca cómo contenido aparentemente seguro puede ser explotado para entrenar IA sin el conocimiento de los afectados. Pero las fuentes no estarían limitadas a estas fuentes pudiendo también acceder a fuentes abiertas con fotografías de menores como Instagram, Facebook, Twitter (X), TikTok, Flickr, etc, cualquier fuente abierta podría ser utilizada potencialmente sin permiso para entrenar modelos IA.


Magnitud del problema
Human Rights Watch examinó solo una fracción minúscula del dataset, lo que sugiere que el problema podría ser mucho más amplio y escalar hasta muchas más fuentes de datos abiertas. Siempre sin entrar en que podrían hacer la plataformas cerradas con las fotografías privadas que se comparten, daremos el beneficio de la duda siempre en primer lugar, el tiempo nos dirá como evoluciona. Este hallazgo subraya la necesidad urgente de revisar y limpiar estos datasets para proteger la privacidad de los menores.


Implicaciones éticas y protección de la privacidad infantil
El uso de imágenes de menores sin autorización en el entrenamiento de IA plantea serios dilemas éticos. Es crucial que se implementen y sigan normativas estrictas para salvaguardar la privacidad y los derechos de los niños.


Acciones correctivas
LAION ha anunciado que eliminará las fotos identificadas en el informe, pero esto es solo el primer paso ya que podrían ser miles o millones las fotografías que deberían ser borradas de los datasets. Se requieren auditorías exhaustivas y la limpieza continua de los datasets para asegurar que no se utilicen imágenes no autorizadas.


Medidas regulatorias y educación
Las autoridades deben imponer directrices más estrictas sobre la recolección y uso de datos. Es fundamental educar a los padres y tutores sobre los riesgos de publicar fotos de menores en línea y promover una mayor conciencia sobre la protección de la privacidad infantil.
La importancia de no compartir fotos de menores en redes sociales
La revelación de estos hechos nos recuerda la importancia de no compartir fotos de nuestros hijos ni de otros menores en redes sociales. Publicar imágenes de niños, incluso en grupo, puede tener consecuencias imprevistas y peligrosas en el mundo digital. Proteger la privacidad de los menores debe ser una prioridad para todos.
Esta situación destaca la necesidad de un enfoque más cuidadoso y ético en el uso de la tecnología. Educar a la sociedad sobre los riesgos asociados y establecer medidas de protección sólidas es esencial para salvaguardar el bienestar de los menores en el entorno digital.

Más información en HRW.

Decálogo de principios: Verificación de edad y protección de personas menores de edad ante contenidos inadecuados.

 La Convención de las Naciones Unidas de 20 de noviembre de 1989, sobre los Derechos del Niño, consagra el interés superior del menor como principio al que atenderán sus estados firmantes en todas las medidas que les afecten. 

El Comité de los Derechos del Niño, que supervisa la aplicación de la mencionada Convención, en la Observación General núm. 15, de 2013, sobre el derecho de las personas menores de edad al disfrute del más alto nivel posible de salud, ya señalaba en su apartado 38, y en una fecha tan temprana, los problemas que un uso excesivo de Internet está generando en las personas menores de edad por: 
“Preocupa al Comité el aumento de la mala salud mental en los adolescentes, en concreto trastornos en el desarrollo y la conducta, depresión, trastornos alimentarios, ansiedad, traumas psicológicos resultantes de (…) comportamientos obsesivos, como un uso excesivo de Internet y otras tecnologías hasta un punto adictivo y la autolesión y el suicidio.”
Y en su Observación General núm. 25, de 2021, sobre los derechos de la población menor de edad en relación con el entorno digital señala, en su apartado 96, la obligación de los Estados para proteger a las personas menores de edad en su uso de juegos digitales o redes sociales...


 Agencia Española de Protección de Datos.

RESUMEN
I. Marco de protección de la población menor de edad
II. Verificación de edad en un sistema de protección de personas menores de edad ante contenidos inadecuados
III. Principios que ha de cumplir un sistema de protección de personas menores de edad ante contenidos inadecuados
PRINCIPIO 1: El sistema de protección de personas menores de edad ante contenidos inadecuados debe garantizar que no es posible la identificación, el seguimiento o la localización de menores a través de Internet
PRINCIPIO 2: La verificación de edad debe estar orientada a que las personas con la edad adecuada acrediten su condición de “persona autorizada a acceder”, y no permitir la acreditación de la condición de “menor de edad”
PRINCIPIO 3: La acreditación para el acceso a contenidos inadecuados debe ser anónima para los proveedores de servicios de Internet y terceras entidades
PRINCIPIO 4: La obligación de acreditar la condición de “persona autorizada a acceder” estará limitada únicamente al contenido inadecuado
PRINCIPIO 5: La verificación de edad se debe realizar de forma cierta y la edad categorizada a
“persona autorizada a acceder”
PRINCIPIO 6: El sistema debe garantizar que las personas no pueden ser perfiladas en función de su navegación
PRINCIPIO 7: El sistema debe garantizar la no vinculación de la actividad de una persona entre distintos servicios
PRINCIPIO 8: El sistema debe garantizar el ejercicio de la patria potestad por los progenitores
PRINCIPIO 9: Todo sistema de protección de menores de edad ante contenidos inadecuados
debe garantizar los derechos fundamentales de todas las personas en su acceso a Internet
PRINCIPIO 10: Todo sistema de protección de personas menores de edad ante contenidos inadecuados debe tener definido un marco de gobernanza
IV. CONCLUSIONES

"Por un periodismo comprometido con la infancia", Aldeas Infantiles SOS y Asociación GSIA.

"Guía y código deontológico para la comunicación sobre niños, niñas y adolescentes".

Aldeas Infantiles publica una guía para respetar 
a la infancia en los medios para la comunicación sobre niños, niñas y adolescentes

Autores: 
Gaitán Muñoz, Lourdes; Paul Larrañaga, Kepa,
Editorial: Aldeas Infantiles SOS.

Resumen: 
El Código Deontológico "Por un periodismo comprometido con la infancia" tiene el objetivo de apoyar a los y las profesionales de la información a la hora de elaborar noticias y piezas rigurosas y respetuosas con la infancia y adolescencia, con un enfoque de derechos. Para ello ofrece claves, recomendaciones y un listado de 26 consejos que subrayan aspectos tan importantes como utilizar un lenguaje que huya de estereotipos, consultar fuentes de información sólidas y no sesgadas, así como aplicar los distintos protocolos requeridos para entrevistar o fotografiar a niños, niñas y adolescentes. En su desarrollo se han tenido en consideración 54 fuentes teórico-prácticas, como la Convención sobre los Derechos del Niño o el Desafío de Oslo.



Aldeas Infantiles ha presentado junto con la Asociación GSIA una guía con recomendaciones sobre el correcto tratamiento informativo de los temas que afectan a la infancia, como el uso de un lenguaje que huya de estereotipos y de protocolos para entrevistar o fotografiar a los menores.

Elaborada en colaboración con la Asociación GSIA y con el aval del Consejo General de la Abogacía Española y la Federación de Asociaciones de Periodistas de España (FAPE), la guía "Por un periodismo comprometido con la infancia" se ofrece como una herramienta práctica al servicio de profesionales y estudiantes de periodismo.
El documento, presentado este jueves, incluye claves, recomendaciones y un listado de 26 consejos que subrayan aspectos tan importantes como utilizar un lenguaje que huya de estereotipos, consultar fuentes de información sólidas y no sesgadas, así como aplicar los distintos protocolos requeridos para entrevistar o fotografiar a niños y adolescentes.

Aldeas Infantiles recuerda que la aparición o no de un menor en una información y la forma en que se hace puede tener consecuencias directas en su vida presente y futura. 





Redes sociales en la adolescencia, Recursos y análisis Internet Segura.


Redes sociales en la adolescencia

¡Carta! el juego de ciberseguridad para las redes sociales

 

¡Carta! el juego de ciberseguridad para las redes sociales

DESCARGA EL JUEGO

Un recurso perfecto para disfrutar en familia, mientras descubrimos consejos de utilidad para usar las redes sociales de forma segura, y comprobamos nuestros conocimientos.

Tira el dado, levanta las cartas de colores, róbale a tus compañeros/as, responde las preguntas y… ¡reúne 7 cartas para ganar!.


 Al día en las redes sociales

Presentamos un análisis de algunas de las principales redes sociales más presentes entre niños/as y adolescentes: en qué consisten, sus características y riesgos, así como orientaciones para utilizarlas con más seguridad.

 

 

 

 

 

imagen artículo: Artículo: Onlyfans

Onlyfans

imagen artículo: Artículo: apps de comunicación anónima

Apps de comunicación anónima

imagen artículo: Artículo: Discord

Discord

imagen artículo: Artículo: Clubhouse

Clubhouse....

La UE no defiende la protección de los niños contra el abuso sexual en línea a través de la tecnología.

La vulneración del interés superior del niño 
por el nuevo Código Europeo de las Comunicaciones Electrónicas.
No podemos permitir que la regulación sobre la privacidad 
en las comunicaciones electrónicas prevalezca 
sobre la necesidad de detectar y eliminar 
el contenido de abuso y explotación sexual infantil.
  La propia Comisión reconoce expresamente 
la necesidad de buscar una solución.

Leticia Mata Mayrand*.  
 
El 21 de diciembre de 2020 vencía el plazo para la trasposición por los Estados miembros de la Directiva (UE) 2018/1972, del Parlamento Europeo y del Consejo, de 11 de diciembre, por la que se establece el Código Europeo de Comunicaciones Electrónicas (en adelante EECC) (SP/LEG/25314). A partir de esa fecha, los Estados miembros deben aplicar las disposiciones legales, reglamentarias y administrativas que hayan adoptado para dar cumplimiento a lo dispuesto en la citada directiva.

El EECC amplía el ámbito de aplicación de la Directiva sobre la privacidad y las comunicaciones electrónicas del año 2002 para abarcar los servicios de comunicaciones interpersonales over-the-top (OTT) como, por ejemplo, los servicios de mensajería y correo electrónico. Esto conlleva a que, en ausencia de medidas legislativas nacionales adoptadas de conformidad con el art. 15, apartado 1, de la citada Directiva[1], los proveedores de servicios no puedan seguir aplicando la tecnología utilizada para detectar, eliminar y denunciar ante las autoridades competentes el material detectado en la red, constitutivo de un posible delito de abuso y/o explotación sexual infantil o grooming, al haberse vuelto ilegal.

Esto supone un duro e incomprensible golpe a la lucha contra este tipo de delitos que, lamentablemente, crecen de forma exponencial día a día[2] y en cuya detección, denuncia y eliminación los proveedores de servicios constituían colaboradores indispensables.

Organizaciones europeas de protección de los derechos de los niños y niñas como MISSING CHILDREN EUROPE (MCE) o EUROCHILD, que juntas representan a más de 2000 entidades sociales de toda Europa, han unido esfuerzos para solicitar al Parlamento y Comisión Europea que acuerden, con carácter urgente, una excepción o derogación temporal que permita a los proveedores de servicios continuar utilizando las herramientas tecnológicas de las que disponían para detectar, informar y eliminar material de abuso y explotación sexual infantil en la red  y detectar e informar de casos de grooming.

Cada segundo y cada niño cuenta”, ha señalado Maud de Boer Buquicchio, presidenta de MCE y ex relatora especial de la ONU sobre la venta de niños, la prostitución infantil y la utilización de niños en la pornografía. Asimismo, declara que la UE no defiende la protección de los niños contra el abuso sexual en línea a través de la tecnología y que no podemos permitir que la regulación sobre la privacidad en las comunicaciones electrónicas prevalezca sobre la necesidad de detectar y eliminar el contenido de abuso y explotación sexual infantil.

Cada día que pasa sin que se llegue a un acuerdo sobre esa excepción o derogación temporal, muchos niños y niñas europeos estarán desprotegidos frente al peligro de ser víctimas de este tipo de delitos, y de caer en manos de depredadores sexuales que se mueven por la red.

Tan es así, que varios de estos proveedores de servicios, incluidos GOOGLE, MICROSOFT, LINKEDIN, ROBLOX Y YUBO APP, han expresado su compromiso con la seguridad infantil y su intención de seguir utilizando esta tecnología para eliminar el material de abuso sexual infantil en la red, pese a que haya quedado prohibido por el EECC.

Esa excepción o derogación temporal cuya aprobación urgente solicitan las organizaciones de infancia constituiría una solución provisional hasta que, conforme al compromiso adquirido por la Comisión en la Estrategia de la Unión Europea para una lucha más eficaz contra el abuso sexual infantil, publicada el 24 de julio de 2020, se apruebe a medio o largo plazo la legislación necesaria para prevenir y combatir  de forma eficaz el abuso y la explotación sexual infantil en la red, garantizándose la intimidad de las comunicaciones electrónicas como la protección de los niños frente a este tipo de delitos.

La propia Comisión reconoce expresamente en la citada Estrategia la necesidad de buscar una solución y propone dos fases como medidas clave:

En una primera fase, con carácter prioritario, la Comisión propondrá la legislación necesaria para garantizar que los proveedores de servicios de comunicaciones electrónicas puedan continuar sus prácticas voluntarias actuales para detectar en sus sistemas cualquier tipo de abusos sexuales de menores de edad cometidos mediante el uso de las nuevas tecnologías después de diciembre de 2020.

En una segunda fase, antes del segundo trimestre de 2021, la Comisión propondrá la legislación necesaria para luchar eficazmente contra los abusos sexuales de menores de edad en la red, incluso exigiendo a los proveedores de servicios que detecten pornografía infantil conocida y obligándoles a denunciarlo ante las autoridades públicas.

Ya ha pasado más de un mes desde la aprobación del EECC y aún seguimos esperando esa solución legislativa temporal de la UE que permita a los proveedores de servicios continuar utilizando su tecnología para detectar, eliminar y denunciar estos delitos y, al mismo tiempo, garantice el respeto de los derechos fundamentales, incluidos los derechos a la intimidad y a la protección de los datos personales.

Las graves consecuencias  que  la actual situación legislativa está provocando en la protección de los niños y niñas frente a estos delitos ya se dejan ver en las preocupantes cifras ofrecidas recientemente por Centro Nacional para Niños Desaparecidos y Explotados de EE. UU. (NCMEC): en  las tres semanas siguientes al 21 de diciembre se ha producido una caída del 46% en los informes de detección de este tipo de ese material por parte de los proveedores de servicios en la Unión Europea, en comparación con las tres semanas anteriores a dicha fecha.

No hay duda de que esta fuerte disminución es consecuencia directa de la nueva regulación contenida en el EECC. ¿Hasta cuándo habrá que esperar?

[1] La Directiva sobre la privacidad y las comunicaciones electrónicas no contiene ninguna base jurídica respecto al tratamiento voluntario del contenido y los datos de tráfico para fines de detección de abusos sexuales de menores. Los proveedores solo pueden aplicar dichas medidas si se basan en una medida legislativa nacional que cumpla los requisitos expuestos en el artículo 15 de la Directiva (proporcionalidad, etc.), para restringir el derecho a la confidencialidad. En ausencia de dichas medidas legislativas, las medidas para detectar abusos sexuales de menores adoptadas por los proveedores, que tratan contenidos o datos de tráfico, carecerán de base jurídica.

[2] En los últimos años se ha registrado un dramático aumento de las denuncias por abuso y explotación sexual infantil en la red dentro del marco de la Unión Europea: de 23.000 en 2010 a más de 725.000 en 2019, con casi tres millones de videos, imágenes o conversaciones procedentes de los Estados miembros de la Unión Europea [EU and global data as reported to the National Centre for Missing and Exploited Children (NCMEC)].

* Leticia Mata Mayrand,Abogada especializada en protección a la infancia, Miembro del Patronato de la Fundación ANAR.


Datos responsables para y sobre los niños. Informe RD4C: ¿Por qué necesitamos datos responsables para los niños?

Orientación, herramientas y liderazgo para apoyar 
el manejo responsable de datos para y sobre niños.

Accede al Responsible Data por Children, Synthesis Report.

Andrew Young, Stuart Campo y Stefaan G. Verhulst.
UNICEF/GovLab.    RD4C.ORG*.




*RD4C, un proyecto de UNICEF y GovLab que busca crear conciencia sobre la necesidad de prestar especial atención a los problemas de datos que afectan a los niños, especialmente en esta era de tecnología cambiante y enlace de datos; e involucrarnos con los gobiernos, las comunidades y los actores del desarrollo para poner el interés superior de los niños y un enfoque de derechos del niño en el centro de nuestras actividades de datos. 
Los datos correctos en las manos correctas en el momento adecuado pueden mejorar significativamente los resultados para los niños. 
El desafío es comprender los riesgos potenciales y garantizar que la recopilación, el análisis y el uso de datos sobre niños no socaven estos beneficios.

Basándose en la investigación de campo y las buenas prácticas establecidas, RD4C tiene como objetivo destacar y apoyar las mejores prácticas en nuestro trabajo; identificar desafíos y desarrollar herramientas prácticas para ayudar a los profesionales a evaluarlos y abordarlos; y alentar una discusión más amplia sobre principios procesables, ideas y enfoques para la gestión responsable de datos.