Child in the loop.

0
21

Child in the loop
participación infantil y ética por diseño a la luz de la OG 25

Autora: Karina Vanesa Salierno.

Introducción

El presente trabajo analiza una nueva categoría de riesgos asociados al uso de inteligencia artificial por parte de niños, niñas y adolescentes, que excede los enfoques tradicionales centrados en el tiempo de pantalla o los contenidos inapropiados. Los mismos se identifican tres dimensiones emergentes:

  1. la generación de vínculos de confianza con sistemas de IA;
  2. la influencia en la construcción de la identidad infantil;
  3. la utilización de huellas digitales para el entrenamiento de sistemas algorítmicos sin consentimiento informado. Se examinan estos fenómenos a la luz del principio del interés superior del niño, la protección de datos personales y la responsabilidad de los proveedores tecnológicos.

Nota de Redacción: Sobre el tema ver, además, los siguientes trabajos publicados en El Derecho: Responsabilidad parental: La privación de la patria potestad en los tiempos de la responsabilidad parental, por Rosalía Muñoz Genestoux, EDFA, 5/-16; Ocho aspectos sustanciales de la reforma proyectada en materia de responsabilidad parental, por Carina Inés Comito y Natalia Comito, EDFA, 28/-26; Negativa al reconocimiento filial: ¿Posible privación a la responsabilidad parental?, por María Milagros Berti García, EDFA, 58/-21; La responsabilidad parental en el Código Civil y Comercial de la Nación, por Daniel Hugo D’Antonio, EDFA, 61/-15; Responsabilidad parental: titularidad y ejercicio, por Adriana N. Abella y Sebastián E. Sabene, EDFA, 69/-13; Lo que deja la jurisprudencia en responsabilidad parental a casi un año de vigencia del nuevo Código Civil y Comercial, por Úrsula C. Basset, EDFA, 72/-26; Derecho a la privacidad y protección de datos personales en las condiciones de uso y políticas de privacidad de las redes sociales, por John Grover Dorado, ED, 268-609; Buscando mejorar el ejercicio de los derechos de niños, niñas y adolescentes sin protección parental transitoria o permanente, por Mariana Gil, EDFA, 84/-22; Consideraciones sobre la aprobación por el Senado de un proyecto de ley para penalizar la publicación de imágenes íntimas (revenge porn), por Pablo A. Palazzi, ED, 272-563; Centrar el debate en la responsabilidad parental, por María M. Galli Fiant, ED, 293-798; El sharenting y el ejercicio de la responsabilidad parental en una prudente resolución judicial, por María Bibiana Nieto, ED, 294-649; La responsabilidad parental, el sharenting y el interés superior del niño en el ecosistema digital, por Karina Vanesa Salierno, ED, 305-933; Sharenting y tutela judicial reforzada, por Karina Vanesa Salierno, ED, 304 Todos los artículos citados pueden consultarse en www.elderecho-digital.com.ar.

(*) Abogada y notaria. Doctoranda en ciencias jurídicas. Maestranda en gobernanza ética de la IA (Universidad de Salamanca); Magíster en derecho de familia, Universidad de Barcelona (UB). Posgraduada infancia y adolescencia por la Universidad de Salamanca; Posgraduada en Derecho de Familia, Niñez y Adolescencia (UBA), en derecho e inteligencia artificial (UBA) y en el Sistema Universal y Europeo de protección de los derechos humanos por la Fundación Rene Cassin. Secretaria General del Consejo Académico de la UNA. Miembro honorario del Instituto Guatemalteco de Derecho Notarial. Coordinadora del Área Académica de Grooming Argentina y de Grooming LATAM. Miembro de AJUFRA (Asociación de juristas de familia de la República Argentina). Docente e investigadora, autora de libros y artículos de doctrina, ponente y expositora.

Se concluye –en forma preliminar– que los riesgos actuales no son solo hipotéticos, sino estructurales e invisibles y requieren una respuesta normativa y ética urgente.

A cinco años de la OG 25 se propone el concepto de child in the loop para definir “La incorporación estructural, continua y significativa de la perspectiva, experiencia y derechos de los niños en todas las etapas del ciclo de vida de los sistemas de inteligencia artificial” como una respuesta ética al diseño algorítmico en la infancia.

La realidad es que vemos que en los últimos años el debate sobre inteligencia artificial y niñez se centró en riesgos visibles como la exposición a contenidos nocivos, el ciberacoso, el grooming o el uso excesivo de pantallas con consecuencias nefastas para la salud.

Sin embargo, una nueva generación de riesgos, más sutiles, persistentes y estructurales, crece en el ecosistema digital. Estos riesgos no operan en la superficie, sino en la arquitectura de las interacciones entre niños y sistemas algorítmicos. En particular, la progresiva integración de herramientas conversacionales y sistemas predictivos en la vida cotidiana infantil plantea interrogantes jurídicos inéditos.

El problema ya no es qué contenido consumen los niños, sino cómo sus personalidades son moldeadas por sistemas diseñados para maximizar la interacción y la retención(1).

La confianza infantil en sistemas de inteligencia artificial

Uno de los fenómenos más relevantes es el desplazamiento progresivo de la confianza de los niños y adolescentes desde figuras humanas hacia sistemas de inteligencia artificial.

Se pone en evidencia cómo niños, niñas y adolescentes comienzan a recurrir a sistemas de IA para obtener respuestas inmediatas, tomar decisiones cotidianas o de salud y recibir apoyo emocional. Este fenómeno introduce un problema crítico relacionado con la confianza como puente hacia la construcción de una capa más de vulnerabilidad en la infancia(2).

La confianza, por otra parte, es un factor generador de deberes de protección. En el caso de la infancia, la confianza en sistemas de IA se agrava por la inmadurez cognitiva, la dificultad para distinguir entre humano y sistema y la tendencia a antropomorfizar interfaces. De esta forma, la interacción con herramientas de IA puede generar una relación de dependencia funcional y emocional, sin los correlatos de contención, empatía, contexto y responsabilidad que existen en las relaciones humanas.

Inteligencia artificial y construcción de la identidad infantil

Un segundo eje crítico radica en el impacto de la IA en la formación de la identidad. Los sistemas algorítmicos no son neutrales: operan mediante lógicas de predicción, personalización y refuerzo de patrones. En consecuencia, priorizan ciertos contenidos, refuerzan determinadas creencias y limitan la exposición a la diversidad. Estos fenómenos en etapas tempranas del desarrollo pueden incidir directamente en la formación de valores, la autopercepción y en la construcción de preferencias.

Desde la normativa de la infancia, esto interpela directamente el concepto de autonomía progresiva y plantea una tensión con el derecho al libre desarrollo de la personalidad del niño. No se trata solo de información a la cual se puede acceder como ejercicio de la libertad, sino de intervención estructural algorítmica en el proceso formativo de la personalidad.

  1. Salierno, K. V., “El derecho a la intimidad del niño y el perfilamiento de niños, niñas y adolescentes”, Cuadernos Jurídicos de Derecho de Familia, Revista de Doctrina y Jurisprudencia, julio de 2022, número 102, Cita Digital: ED-MMMCCCXIV-319.
  2. Salierno, K.V., “Infancias vulnerables. Responsabilidad 4.0. Primeras aproximaciones”, Editorial El Derecho. Suplemento Derecho, Innovación & Desarrollo Sustentable nro. 4, diciembre 2021.

La huella digital infantil como insumo de entrenamiento algorítmico

Un tercer aspecto, particularmente crítico, es la utilización de datos generados por niños para el entrenamiento de sistemas de inteligencia artificial.

Las huellas digitales infantiles, así como las de cualquier persona, incluyen las consultas, los patrones de conducta, los comentarios, las visualizaciones, los likes, el tiempo en pantalla, las búsquedas, las interacciones, las preferencias y los datos biométricos en algunos casos (caso Roblox).

Estos datos pueden ser utilizados por las plataformas para mejorar modelos de IA, entrenar sistemas predictivos, perfilar al niño y desarrollar productos comerciales en consecuencia. El problema que surge en estos casos es la ausencia de consentimiento válido.

En el caso de niños, el consentimiento es mediado o inexistente, no es libre, no es informado ya que no hay una comprensión real del destino de los datos y compromete la privacidad futura. Por supuesto que desde el derecho de protección de datos se introducen los típicos cuestionamientos sobre el principio de minimización de datos, la finalidad del tratamiento, y la protección reforzada de los datos sensibles. Recurrir sistemáticamente a estos principios nos pone en evidencia dos hipótesis complejas: 1. ¿Es realmente el consentimiento informado una herramienta eficaz de protección de datos personales en la sociedad tecnocrática? 2. ¿Qué mecanismos alternativos de protección de la infancia se plantean frente al avance de las plataformas en la comercialización y perfilado de datos de niños, niñas y adolescentes?

 

Sistemas diseñados para el engagement y el desarrollo infantil

El modelo económico de muchas plataformas digitales se basa en la maximización del tiempo de uso. Esto se traduce en problemas estructurales de diseño algorítmico que se basan en una configuración persuasiva mediante refuerzos intermitentes y personalización intensiva(3). Esto es, se desarrolla una arquitectura de la decisión en forma tal que influye e incide sobre sujetos en situación de vulnerabilidad.

Los sistemas de IA están diseñados para captar la atención de NNA y mantenerla por todo el tiempo posible en el ecosistema digital y no para promover su desarrollo integral. Aquí vemos, entonces, una posible responsabilidad por diseño vinculada con el deber de prevenir daños previsibles derivados del funcionamiento del sistema(4).

A 5 años de la Observación General 25(5)

La OG 25 brinda una serie de principios a partir de los cuales se deberá interpretar el ejercicio de los derechos de los NNA en el ecosistema digital.

En primer lugar, el principio de no discriminación que se vincula con el necesario acceso igualitario al goce del desarrollo científico y del progreso de la tecnología, por lo cual los Estados deberán acortar la brecha digital de acceso de los NNA a los productos y servicios digitalizados. En segundo lugar, el principio del interés superior del niño en su aplicación dinámica. El interés superior del niño no es un concepto nuevo(6), en efecto, es anterior a la CDN, se consagró en la Declaración de los Derechos del Niño o Decálogo de los derechos del niño de 1959 (párr. 2), proclamada por la Asamblea General de la Organización de las Naciones Unidas en su resolución 1386 de fecha 20 de noviembre de 1959 y en la Convención sobre la eliminación de todas las formas de discriminación contra la mujer (arts. 5º b(7) y 16, párr. 1d), así como en instrumentos regionales(8) y numerosas normas jurídicas nacionales e internacionales.

  1. Hansen, P. G. ; Jespersen, A. M., “Nudge and the manipulation of choice: A framework for the responsible use of nudge approach to behaviour change in public policy”. Rev. European Journal of Risk Regulation, 2013 (1). Recuperado de https://papers.ssrn.com/sol3/ papers.cfm?abstract_id=2555337, consultado 09/04/2026.
  2. Salierno K. V, “Adicciones sin sustancias. A propósito de la demanda contra Meta. ¿EE. UU. se despierta del letargo de la monstruosa creación?”. Editorial El Derecho. Suplemento Derecho, Innovación y Desarrollo Sustentable, nro. 17- febrero 2024, Cita Digital: ED-V-CCCXLIL-708.
  3. Observación General 25, publicada el 2 de marzo de 2021. Recuperado de https://www.ohchr.org/es/documents/general-com-ments-and-recommendations/general-comment-no-25-2021-childrens-rights-relation.
  4. Torrecuadrada García-Lozano, S., “El interés superior del niño y sus límites”, Revista electrónica del Instituto de investigaciones Ambrosio L. Gioja, Buenos Aires, número 23 de diciembre de 2019, mayo 2020, pág. 241. El interés superior del niño se tuvo en cuenta en la sentencia Blissets, a finales del siglo XVIII (1774), que afirmaba “if the parties are disagreed, the Court will do what shall apear best for the child” por lo que no se puede decir que resulte un principio novedoso.

A lo largo de los años, se proclama su doble naturaleza como derecho subjetivo y como principio, y se generaliza su aplicación a ámbitos materiales distintos de aquellos que le vieron nacer y en cuyo seno se ha desarrollado. El objetivo de consagrar el principio del interés superior del niño, tal como lo explica el Comité de los Derechos del Niño en su Observación número 13 del año 2013, es velar porque el principio se observe en todas las decisiones y medidas, incluyendo todos los actos, conductas, propuestas, servicios, procedimientos y demás iniciativas.

La Opinión Consultiva 17/2002 de la Corte Interamericana de Derechos Humanos(9) establece que el interés superior del niño debe ser entendido como un principio base sobre el que se construyen los límites del Estado y de los progenitores; debe respetar la autonomía gradual de la infancia y la adolescencia y debe permitir la intervención del niño o adolescente, porque su reconocimiento como sujeto le permite desarrollar al máximo sus potencialidades en el tránsito hacia la vida adulta. En este sentido, la “Observación General del Comité de los Derechos del Niño” nro 14(10), aprobada por el Comité en su 62 período de sesiones en el 2013, subraya que “(…) el interés superior del niño es un concepto triple: un derecho sustantivo, un principio jurídico interpretativo fundamental y una norma de procedimiento” y que “(…) el objetivo del concepto de interés superior del niño es garantizar el disfrute pleno y efectivo de todos los derechos reconocidos por la Convención y el desarrollo holístico del niño”.

En definitiva, se trata de analizar las herramientas digitales y las interacciones de los niños con el ecosistema digital desde el panóptico del interés superior del niño en esta concepción dinámica y evolutiva lo que en diseño algorítmico llamaremos child in the loop.

La OG 25 exige que los Estados implementen medidas legislativas, de política pública y de otra índole para asegurar el pleno cumplimiento de los derechos del niño en el entorno digital. Eso permite sostener que en IA el interés superior del niño no debe operar solo como criterio ex post de interpretación, sino como parámetro ex ante de diseño: antes de lanzar un sistema, debe evaluarse si su arquitectura favorece desarrollo, bienestar y seguridad, o si privilegia engagement, extracción de datos o dependencia conductual.

El tercer principio está relacionado con la defensa y protección del derecho a la vida, a la supervivencia y al desarrollo. Este principio se relaciona con los dos primeros y se basa en definitiva en la necesidad de no exponer al niño a contenidos que sean nocivos para su salud en sentido amplio, su desarrollo intelectual y psicofísico, o que promuevan ideas violentas que puedan atentar contra su salud física y emocional.

Este principio también se vincula al derecho a la verdad y a la desconexión digital. Las ideas falsas en internet pueden dar al niño una idea sesgada del mundo y pueden manipular sus decisiones y su libertad. Asimismo, la necesidad de sostener, sin lugar a duda, las interacciones intersubjetivas y sobre todo con el medio ambiente representa un pilar fundamental para el desarrollo cognitivo en el entorno social en especial en los primeros años de vida. En último lugar, la observación contempla el respeto de las opiniones del niño. El derecho del niño a ser oído es principio fundamental de la CDN y se basa fundamentalmente en el reconocimiento del niño como sujeto de derecho y a que sus opiniones sean tenidas en cuenta en todos los ámbitos, y en particular en aquellos en los que están en juego sus derechos personalísimos. Este principio se vincula justamente con la necesidad de incorporar la opinión de niños, niñas y adolescentes en el diseño ético de las herramientas de IA a través de sus comentarios, interacciones, experiencias y sensaciones.

“Garantizar que la educación familiar incluya una comprensión adecuada de la maternidad como función social y el reconocimiento de la responsabilidad común entre hombres y mujeres en cuanto a la educación y al desarrollo de sus hijos, en la inteligencia de que el interés de los hijos constituirá la consideración primordial en todos los casos”.

  1. El Tribunal Europeo de Derechos Humanos, primera sección, en la causa “Case of M. and M. vs. Croacia” (aplicación 10.161/13), sentencia del 3-12-2015, es una de las tantas decisiones en donde se aplicó la Convención Europea sobre el Ejercicio de los Derechos de los Niños del 25 de enero de 1996, que prevé la consideración del mejor interés de las personas menores de edad, facilitando y permitiendo su participación en los procedimientos judiciales que los afecten (art. 1, inc. 2).
  2. Opinión Consultiva OC-17/2002 de 28 de agosto de 2002 solicitada por la Comisión Interamericana de Derechos Humanos ante la Corte Interamericana de Derechos Humanos. Recuperado de https:// www.corteidh.or.cr/docs/opiniones/seriea_17_esp.pdf, consultado el 09/04/2026.
  3. Observación general Nº 14 (2013) sobre el derecho del niño a que su interés superior sea una consideración primordial (artículo 3, párrafo 1). Recuperado de https://www.unicef.org/UNICEF-ObservacionesGeneralesDelComiteDeLosDerechosDelNino-WEB.pdf.

La OG 25 fue elaborada con consulta internacional a 709 niños de 28 países, y el Comité subraya que los Estados deben promover medios digitales para que los niños expresen sus opiniones. Esa base permite pasar de una IA for children a una IA también with children: no basta con diseñar para la infancia desde una mirada adulta o corporativa; debe incorporarse la perspectiva infantil en evaluación, pruebas, gobernanza y remedios.

UNICEF 2025 lo vuelve operativo al recomendar child or youth advisory panels y feedback loops entre investigación, regulación y experiencia vivida de los niños. Aquí aparece con claridad la noción de child in the loop.

Estos principios son el horizonte de las medidas generales de aplicación por los Estados partes por medio de legislación, política y estrategias integrales, coordinación, asignación de recursos, reunión de datos e investigación, vigilancia independiente, difusión de información, concienciación, capacitación, cooperación con la sociedad civil, vinculación con el sector empresarial, publicidad comercial y comercialización, acceso a la justicia y reparación, a fin de hacer efectivos los derechos de la infancia en el ecosistema digital.

La Observación General nro. 25 debe leerse como un puente entre el derecho internacional de la niñez y la gobernanza ética de la IA. Su aporte central es desplazar el análisis desde el uso infantil de tecnologías hacia el diseño, despliegue y gobernanza de los entornos digitales. En esa lógica, la ética por diseño deja de ser una recomendación voluntaria y pasa a ser una exigencia derivada del deber de respetar, proteger y garantizar derechos en el entorno digital.

Hacia una reconstrucción del marco jurídico:
child in the loop

En un sistema estándar, human in the loop(11) (HITL) se refiere a un sistema o proceso en el que un ser humano participa en forma activa en el funcionamiento, la supervisión o la toma de decisiones de un sistema automatizado.

En el contexto de la IA, HITL se refiere a la intervención de los seres humanos en algún momento del flujo de trabajo de la IA para garantizar la precisión, la seguridad, la responsabilidad o la toma de decisiones éticas(12). Lo cierto es que en materia de infancia eso puede resultar insuficiente, porque el adulto supervisor no siempre representa adecuadamente la experiencia, comprensión o vulnerabilidades propias de niños y adolescentes.

El paradigma de human in the loop es utilizado en la gobernanza de sistemas de IA para garantizar supervisión humana en procesos automatizados. Sin embargo, este modelo presenta limitaciones cuando se aplica a contextos que involucran a niños.

En primer lugar, la supervisión humana suele estar a cargo de adultos (desarrolladores, reguladores, operadores), lo que introduce una mediación que no refleja de manera la experiencia infantil, las formas específicas de vulnerabilidad, ni los modos en que los niños interactúan con los sistemas digitales. En segundo lugar, el modelo no cuestiona la arquitectura del sistema, sino que actúa como un mecanismo correctivo ex post. En consecuencia, puede resultar insuficiente frente a riesgos estructurales como la manipulación conductual, la generación de dependencia, o la influencia en la construcción de la identidad. Por ello, la infancia exige un enfoque más robusto, que no solo incorpore supervisión, sino también representación efectiva de los intereses y perspectivas de los niños en el propio diseño del sistema.

  1. Stryker, C., “¿Qué es human-in-the-loop?”. Recuperado de https://www.ibm.com/es-es/think/topics/human-in-the-loop.
  2. Norma ISO 9241-210:2019 – Ergonomics of human-system interaction – Part 210: Human-centred design for interactive systems. Publicado por International Organization for Standardization. Norma ISO 9241-110:2020 – Ergonomics of human-system interaction – Part 110: Interaction principles. Publicado por International Organization for Standardization. Norma ISO/IEC TR 24368:2022 – Information technology – Artificial intelligence – Overview of ethical and societal concerns. ISO/IEC.

A la luz de la OG 25, el modelo más fiel a la Convención sería aquel en el cual el niño no sea solo objeto de protección ni mero usuario final, sino sujeto de derechos con voz relevante en el diseño, testeo, auditoría y evaluación de impacto de los sistemas que lo afectan. Esa es una inferencia consistente con la centralidad que la OG 25 da a la participación y con la recomendación de UNICEF de incluir paneles consultivos de niños y jóvenes, así como mecanismos de gobernanza basados en su experiencia vivida. Es decir que no se introduce solo como principio interpretativo, sino como estándar técnico.

El concepto de child in the loop puede definirse como “La incorporación estructural, continua y significativa de la perspectiva, experiencia y derechos de los niños en todas las etapas del ciclo de vida de los sistemas de inteligencia artificial”. A diferencia del enfoque tradicional, este modelo no se limita a la supervisión humana, sino que implica participación en el diseño, intervención en fases de testeo, inclusión en procesos de evaluación de impacto, y consideración en mecanismos de rendición de cuentas.

Este enfoque encuentra fundamento en el artículo 12 de la Convención sobre los Derechos del Niño, que reconoce el derecho del niño a ser escuchado en todos los asuntos que le afecten, así como en la OG 25, que enfatiza la participación significativa de los niños en el entorno digital. La ética por diseño (ethics by design) propone integrar principios éticos en la arquitectura de los sistemas tecnológicos. Sin embargo, en muchos casos, estos principios se formulan desde perspectivas adultocéntricas o corporativas. El enfoque de child in the loop permite avanzar hacia un modelo más específico basado en dos verticales:

  1. De ethics by design a child-rights by design: Implica que los derechos del niño, interés superior, privacidad, no discriminación, desarrollo integral, se integren como parámetros técnicos del sistema.
  2. De child-rights by design a child in the loop: Supone un paso adicional, no solo diseñar para el niño, sino diseñar con el niño. Esto introduce una dimensión procedimental que fortalece la legitimidad del sistema y reduce la brecha entre diseño tecnológico y experiencia real de los usuarios infantiles.

Este modelo, como vemos, cuestiona la centralidad del consentimiento informado como herramienta de protección y propone en su lugar una lógica de protección estructural, donde el sistema se diseña de manera segura independientemente de la capacidad del niño para consentir.

 

Los riesgos invisibles a la luz del AI 5Rights Code(13) y el Children’s Manifesto(14): hacia la operativización del child in the loop

Para su estudio e interpretación se pueden identificar seis áreas de interés según se detalla.

  • De la invisibilidad estructural al reconocimiento normativo del riesgo

El desarrollo previo ha demostrado que los riesgos de la IA en la infancia no son contingentes, sino estructurales, sistémicos y en gran medida invisibles, en tanto operan en la arquitectura propia de los sistemas digitales y no en sus manifestaciones superficiales.

Este diagnóstico encuentra una confirmación normativa robusta en el Children & AI Design Code, el cual reconoce en forma expresa que los sistemas de IA generan riesgos cotidianos, no excepcionales, vinculados con la captura conductual y dependencia, la afectación de la privacidad mediante perfilado masivo y la influencia en la toma de decisiones y entornos de desarrollo infantil(15). En particular, el Code identifica que los sistemas de IA “modelan la experiencia de los niños y determinan qué ven, cuánto tiempo permanecen y cómo interactúan” (Part 1.6). Desde esta perspectiva, los llamados “riesgos invisibles” pueden ser reinterpretados como riesgos de diseño algorítmico estructuralmente incorporados, que operan ex ante sobre la subjetividad infantil.

  1. 5Rights Foundation. Children & AI Design Code. Recuperado de https://5rightsfoundation.com/resource/children-ai-design-code/.
  2. The Alan Turing Institute. The Children’s Manifesto for the Future of AI. Recuperado de https://www.turing.ac.uk/news/publications/ childrens-manifesto-future-ai.
  3. Salierno, K. V., “Adicciones sin sustancias. A propósito de la de-manda contra Meta. ¿EE. UU. se despierta del letargo de la monstruosa creación?”. Editorial El Derecho. Suplemento Derecho, Innovación & Desarrollo Sustentable nro. 17 Cita digital: ED-V-CCCXLIX-708 pp. 15-22.

 

El AI 5Rights Code como validación técnico-normativa de la hipótesis

El Children & AI Design Code aporta un elemento clave: traslada la discusión desde el uso hacia el diseño, alineándose con la lógica de la Observación General Nº25 La anticipación del daño se configura como un deber jurídico de diseño. El Code establece que los sistemas deben identificar y mitigar riesgos desde la fase de diseño, aplicar estándares de seguridad, equidad, transparencia y protección de derechos del niño. Lo señalado supone un desplazamiento fundamental del enfoque tradicional porque los riesgos en la infancia se generan antes de la interacción consciente del niño. El Code incluso advierte que los niños “forman relaciones con sistemas como chatbots, lo que puede afectar su desarrollo social”, lo que constituye una validación empírica del argumento sobre la confianza algorítmica como factor de vulnerabilidad estructural en la infancia

  • El Children’s Manifesto: la evidencia empírica de la invisibilidad

El Children’s Manifesto for the Future of AI aporta una herramienta más contundente como es la voz de los niños como evidencia del riesgo invisible. La invisibilidad se da por la falta de escucha. El manifiesto comienza con una afirmación clave: “Nuestra vida ya está afectada por la IA, pero casi nunca se nos pregunta qué pensamos”. Esta frase revela un dato estructural, la infancia es objeto del sistema pero no sujeto en su diseño.

  • Identidad, dependencia y manipulación

En el uso de las plataformas los propios niños identifican dependencia emocional de sistemas de IA, impacto en su creatividad y autonomía, influencia en su percepción del mundo e imposibilidad de distinguir lo real de lo artificial. Hay una particular relevancia en señalar que la IA puede afectar la creatividad, la toma de decisiones y la construcción del pensamiento propio y crítico. En definitiva, la IA interviene en la formación de la personalidad.

  • La preocupación por los datos: el consentimiento como ficción

El manifiesto también enfatiza la preocupación por el uso de datos, la falta de comprensión sobre su destino y el riesgo de explotación económica de la información infantil. Luego de varios años de insistir con este tema podemos afirmar que el consentimiento informado es estructuralmente ineficaz en la infancia.

  • Hacia un nuevo estándar jurídico

La articulación entre la hipótesis de riesgos invisibles, el AI 5Rights Code, y el Children’s Manifesto, permite formular una primera conclusión. Estamos en el surgimiento de un nuevo paradigma: el child in the loop, que se consolida en un modelo basado en 3 ejes fundamentales: 1) Child rights by design; 2) Risk prevention by architecture y 3) Participación infantil estructural. Este nuevo escenario desplaza definitivamente el consentimiento informado hacia la protección estructural, la supervisión hacia la coparticipación y la reacción hacia la anticipación.

En ese contexto, el concepto de child in the loop adquiere una dimensión interesante porque deja de ser una propuesta teórica para convertirse en un estándar normativo emergente internacional. El concepto se apoya en tres fuentes convergentes: la CDN y su OG 25, el 5Rights Code y el Children’s Manifesto. El child in the loop es “Un principio estructural de gobernanza algorítmica que exige la incorporación efectiva, continua y significativa de la perspectiva, experiencia y derechos de niños, niñas y adolescentes en todas las fases del ciclo de vida de los sistemas de inteligencia artificial, como condición de validez ética y jurídica del diseño tecnológico”. La integración de estos instrumentos permite avanzar hacia la configuración de una teoría de la responsabilidad por diseño algorítmico, ya que los desarrolladores ya no responden por el daño causado, sino por la arquitectura que hace posible ese daño.

Conclusión: de la invisibilidad a la exigibilidad

Los riesgos de la inteligencia artificial en la infancia son actuales, estructurales y, en muchos casos, invisibles. El verdadero desafío no radica únicamente en regular el acceso de los niños a la tecnología, sino en comprender que los sistemas digitales están participando activamente en su proceso de formación. Frente a ello, el derecho no puede permanecer reactivo. Debe anticiparse, adaptarse y, sobre todo, proteger a quienes se encuentran en la etapa más vulnerable de su desarrollo.

La Observación General nro. 25 del Comité de los Derechos del Niño ofrece un fundamento normativo particularmente fértil para vincular la gobernanza de la inteligencia artificial con una ética por diseño centrada en la infancia. Un enfoque que no se limite a regular usos patológicos del entorno digital, sino que exija a los Estados adoptar medidas legislativas y administrativas, entre otras posibles, para garantizar el pleno respeto de los derechos del niño en tales entornos. Lo que nos permite afirmar que, en materia de IA, el interés superior del niño, la participación, la no discriminación, la privacidad y la protección frente a la explotación no deben operar solo como principios interpretativos ex post, sino como criterios de diseño, despliegue, auditoría y corrección de los sistemas. Desde esta lectura, el paradigma de child-rights-by-design encuentra apoyo directo en la OG 25, mientras que la noción de child in the loop constituye su desarrollo procedimental más consistente: no basta con proteger al niño frente a la tecnología; es preciso incorporar su voz, experiencia y vulnerabilidad específica dentro de la propia gobernanza del sistema.

El concepto de child in the loop representa una evolución necesaria en la gobernanza de la inteligencia artificial en contextos de infancia. Lo repetimos: no alcanza con tratar de proteger a los niños de la tecnología, sino de reconocerlos como sujetos de derecho con capacidad de incidir de manera adecuada a su edad y desarrollo, en los sistemas que los afectan.

En este sentido, la OG 25 proporciona el fundamento normativo para exigir que la infancia no sea considerada un caso especial dentro de la ética de la IA, sino un criterio estructural de diseño, evaluación y responsabilidad.

El desafío futuro consiste en traducir este principio en estándares técnicos, regulatorios y profesionales concretos que permitan construir sistemas de inteligencia artificial compatibles con el desarrollo integral de niños, niñas y adolescentes.

Los riesgos invisibles ya no son solo una hipótesis doctrinaria, sino una realidad reconocida por estándares internacionales. La infancia no puede seguir siendo objeto de protección pasiva, por ello, el child in the loop emerge como el puente entre el derecho internacional de la infancia y la ingeniería de sistemas de IA. En definitiva, si coincidimos en que los riesgos son estructurales, la respuesta también debe ser estructural, Y esa respuesta no puede ser otra que incorporar a la infancia dentro del sistema mismo de decisión algorítmica.

Bibliografía citada

Observación General 25 publicada el 2 de marzo de 2021. Recuperado de https://www.ohchr.org/es/docu-ments/general-comments-and-recommendations/general-comment-no-25-2021-childrens-rights-relation , consulta-do el 09/04/2026.

5Rights Foundation. Children & AI Design Code. Re-cuperado de https://5rightsfoundation.com/resource/chil-dren-ai-design-code/, consultado el 09/04/2026.

The Alan Turing Institute. The Children’s Manifesto for the Future of AI. Recuperado de https://www.turing. ac.uk/news/publications/childrens-manifesto-future-ai, consultado el 09/04/2026.

Salierno, K. V., “El derecho a la intimidad del niño y el perfilamiento de niños, niñas y adolescentes”, Cuadernos Jurídicos de Derecho de Familia, Revista de Doctrina y Jurisprudencia, julio de 2022, número 102, Cita Digital: ED-MMMCCCXIV-319.

Salierno, K.V., “Infancias vulnerables. Responsabilidad 4.0. Primeras aproximaciones”, Editorial El Derecho. Suplemento Derecho, Innovación & Desarrollo Sustentable nro. 4, diciembre 2021.

Hansen, P. G.; Jespersen, A. M., “Nudge and the manipulation of choice: A framework for the responsible use of nudge approach to behaviour change in public policy”. Rev. European Journal of Risk Regulation, 2013 (1). Recuperado de https://papers.ssrn.com/sol3/papers.cfm? abstract_id=2555337.

Salierno K. V., “Adicciones sin sustancias. A propósito de la demanda contra Meta. ¿EE. UU. se despierta del letargo de la monstruosa creación?”. Editorial El Derecho. Suplemento Derecho, Innovación y Desarrollo Sustentable, nro. 17, febrero 2024, Cita Digital: ED-V-CCCXLIL-708.

Torrecuadrada García Lozano, S., “El interés superior del niño y sus límites”, Revista electrónica del Instituto de investigaciones Ambrosio L. Gioja, Buenos Aires, número 23 de dic. 2019 – may. 2020. Recuperado de http:// revistas.derecho.uba.ar/index.php/revista-gioja/article/ view/160/138.

Tribunal Europeo de Derechos Humanos, Primera sección, en la causa “M. y M. vs. Croacia” (solicitud 10.161/13), sentencia del 3-12-2015. Recuperado de https://hudoc.echr.coe.int/eng#{%22itemid%22:[%22001-156522%22]}.

Opinión Consultiva OC-17/2002 de 28 de agosto de 2002 solicitada por la Comisión Interamericana de Derechos Humanos ante la Corte Interamericana de Derechos Humanos. Recuperado de https://www.corteidh. or.cr/docs/opiniones/seriea_17_esp.pdf.

Observación general Nº 14 (2013) sobre el derecho del niño a que su interés superior sea una consideración primordial (artículo 3, párrafo 1). Recuperado de https:// www.unicef.org/UNICEF-ObservacionesGeneralesDel-ComiteDeLosDerechosDelNino-WEB.pdf, consultado el 09/04/2026.

Stryker, C., “¿Qué es human-in-the-loop?”. Recupera-do de https://www.ibm.com/es-es/think/topics/human-in-the-loop.

Norma ISO 9241-210:2019 – Ergonomics of human-system interaction – Part 210: Human-centred design for interactive systems. Publicado por International Organiza-tion for Standardization.

Norma ISO 9241-110:2020 – Ergonomics of human-system interaction – Part 110: Interaction principles. Pu-blicado por International Organization for Standardiza-tion.

Norma ISO/IEC TR 24368:2022 – Information tech-nology – Artificial intelligence – Overview of ethical and societal concerns. ISO/IEC.

 

VOCES: DERECHO CIVIL – FAMILIA – MENORES – DERE-CHO A LA INTIMIDAD – CÓDIGO CIVIL Y COMERCIAL – TECNOLOGÍA – INFORMÁTICA – INTERNET – REDES SOCIALES – DAÑO PSÍQUICO – PLATAFORMAS DIGITALES – INTERÉS SUPERIOR DEL NIÑO – RESPONSABILIDAD CIVIL – DAÑOS Y PERJUICIOS – TRATADOS INTERNACIONALES – DIVORCIO – RESPONSABILIDAD PARENTAL – MEDIDAS CAUTELARES – PERSONA