Riesgos de la IA para la infancia
Nudificación, deepfakes y desafíos para la gobernanza ética internacional
Autora: Karina Vanesa SALIERNO
Fecha: 24 de abril de 2026
Investigación basada en el informe de Internet Watch Foundation, Harm without limits: AI CSAM Report 2026
Introducción
La expansión de la inteligencia artificial generativa ha transformado de manera radical la producción, manipulación y circulación de contenidos audiovisuales. Entre sus usos más preocupantes se encuentra la generación de imágenes o videos sexualmente explícitos de niñas, niños y adolescentes mediante herramientas de nudificación, modelos de imagen a imagen, sistemas de texto a imagen y técnicas de deepfake. Este fenómeno no constituye una amenaza meramente hipotética, sino un riesgo actual y acelerado para la infancia, con impacto directo sobre la dignidad, la privacidad, la integridad psíquica y el libre desarrollo de la personalidad de las personas menores de edad.
La evidencia reciente muestra que el material de abuso sexual infantil generado o facilitado por inteligencia artificial, frecuentemente denominado AI-generated child sexual abuse material o AI CSAM, crece en escala, sofisticación y accesibilidad. El informe de la Internet Watch Foundation correspondiente a 2026 identificó 8.029 imágenes y videos de abuso sexual infantil generados por IA evaluados como realistas durante 2025, así como 3.443 videos de abuso infantil generados por IA, lo que revela que el salto cuantitativo ya se ha producido y que la producción de este material se encuentra lejos de ser marginal.
A ello se suma la expansión de las llamadas nudify apps, que permiten “desnudar” digitalmente fotografías ordinarias, y de herramientas de deepfake con capacidad para fabricar escenas sexualizadas de menores o aparentes menores. Estas prácticas no solo intensifican formas preexistentes de violencia sexual digital, sino que alteran las categorías tradicionales del derecho penal, de la responsabilidad de plataformas y de la gobernanza tecnológica, porque introducen nuevas dificultades de detección, trazabilidad, atribución de responsabilidad y cooperación transfronteriza. El tema resulta especialmente importante para la asignatura de gobernanza ética de la inteligencia artificial centrada en la Unión Europea y la UNESCO del Máster porque exige articular simultáneamente varias capas normativas, el derecho internacional de los derechos humanos, los derechos del niño, la ética de la IA, la regulación digital europea, los estándares de organismos internacionales y las obligaciones de diligencia debida de actores privados.
Este trabajo sostiene que los marcos actuales de gobernanza de la IA contienen principios y herramientas relevantes para proteger a la infancia frente a la nudificación y los deepfakes sexuales, pero siguen siendo insuficientes para responder de manera armónica, preventiva y eficaz a un fenómeno transnacional, tecnológicamente mutable y profundamente lesivo. En particular, la respuesta continúa fragmentada entre instrumentos éticos no vinculantes, normas penales nacionales dispares, regulación europea en implementación y una gobernanza internacional aún incompleta.
Hipótesis y enfoque metodológico
La hipótesis de investigación que guía este trabajo es la siguiente: los instrumentos internacionales y regionales actualmente disponibles ofrecen una base normativa sólida para afirmar la ilicitud y gravedad de la nudificación y de los deepfakes sexuales que afectan a niños, niñas y adolescentes, pero la gobernanza vigente sigue presentando déficits de coordinación, tipificación, implementación y exigibilidad que impiden una protección integral y efectiva de la infancia frente a estas formas de violencia sexual sintética.
Desde el punto de vista metodológico, el trabajo adopta un enfoque cualitativo, dogmático y de análisis institucional. Se examinan, en primer lugar, las categorías conceptuales necesarias para delimitar el fenómeno; en segundo término, los marcos internacionales pertinentes, incluyendo el enfoque de derechos humanos, los derechos del niño y las recomendaciones de organismos internacionales; luego se analizan los desarrollos recientes de la Unión Europea y, finalmente, se identifican vacíos regulatorios y propuestas de mejora. La investigación se apoya en documentos oficiales, informes internacionales y normativa relevante, conforme a las exigencias formales del presente trabajo.
La evidencia empírica
Asimismo, la presente investigación busca no solo partir de los principios normativos enunciados, sino también de la evidencia empírica contemporánea que muestre cómo la violencia sexual sintética contra la infancia ya se manifiesta en casos concretos, en patrones identificables de victimización y en desafíos operativos verificables para las autoridades.
En este punto, el informe 2026 de la Internet Watch Foundation resulta especialmente valioso, porque permite abandonar cualquier aproximación abstracta al problema y demostrar que la gobernanza de la IA enfrenta un daño real, actual y cuantificable.
El primer dato que otorga densidad fáctica al análisis es la escala del fenómeno. La IWF evaluó en 2025 un total de 8.029 imágenes y videos generados por IA como representaciones realistas de abuso sexual infantil, e identificó 3.443 videos de abuso sexual infantil generados por IA, cifra que representa un incremento de 26.385% respecto del año anterior. Además, el 65% de esos videos fue clasificado en la categoría más grave del derecho británico. Estos datos no solo muestran crecimiento, sino también una deriva hacia contenidos más violentos y extremos, lo que permite sostener que la IA no está simplemente replicando daños preexistentes, sino intensificando el nivel de severidad del material producido.
Un segundo eje de evidencia surge de los casos de revictimización documentados por la IWF. El reporte recupera la situación de una víctima identificada con el seudónimo “Olivia”, abusada entre los tres y los ocho años, cuyas imágenes de abuso circularon durante años y luego fueron utilizadas para entrenar modelos LoRA capaces de generar nuevas escenas. La gravedad del caso reside en que la IA transforma un archivo de abuso en una fuente renovable de explotación, prolongando indefinidamente la lesión sufrida. De manera similar, el informe remite al testimonio público de Mara Wilson, quien describió la experiencia de ser víctima de imágenes de abuso generadas con IA como una pérdida absoluta de control sobre la propia narrativa e identidad.
El tercer eje empírico es la conexión entre nudificación, sextorsión y coerción. La IWF reportó casos de niñas cuyas imágenes fueron manipuladas por extorsionadores usando IA para hacerlas aparecer desnudas, con la amenaza de compartir ese material con padres o pares. También documentó al menos dos reportes recibidos a través del servicio Report Remove en los que jóvenes denunciaron clips deepfake realistas generados a partir de selfies comunes, la secuencia pasaba de una imagen original, completamente vestida, a escenas pornográficas realistas atribuidas a la misma fisonomía. El informe añade un caso particularmente revelador, un manual de más de 210 páginas identificado en febrero de 2024 enseñaba cómo pedir inicialmente imágenes en bikini o ropa interior a menores y luego utilizar tecnología de nudificación para remover la ropa y chantajearlas con el fin de obtener material sexual adicional. El autor afirmaba haber extorsionado con éxito a niñas de 13 años.
El cuarto eje es la dimensión de género y de proximidad escolar del daño. La IWF recopila el caso de España en 2023, donde 20 niñas de entre 11 y 17 años se presentaron como víctimas de imágenes creadas con aplicaciones de nudificación, con 11 varones identificados por participación en la creación o circulación del material. También reseña el caso de Rumania, donde un estudiante utilizó tecnología deepfake para “desnudar” a 11 compañeras de clase. Más ampliamente, el informe vincula estos hechos con la crisis surcoreana de deepfakes sexuales de 2024, en la que redes coordinadas en Telegram distribuyeron miles de imágenes a escala industrial, afectando a más de 200 escuelas, universidades e incluso al ámbito militar. La enorme mayoría de las víctimas fueron niñas y mujeres jóvenes.
El quinto eje está dado por la transformación de la investigación penal y de la cooperación internacional. En este sentido, la IWF explica que la proliferación de AI CSAM crea un problema de “aguja en un pajar” para investigadores y fiscales, ya que distinguir material sintético de material fotográfico consume tiempo y recursos, lo que retrasa la identificación de niños en peligro real e incrementa tanto falsos positivos como falsos negativos. En febrero de 2025, Europol apoyó una operación internacional en 19 países denominada “Operational Cumberland” que permitió identificar 273 sospechosos y detener a 25 personas vinculadas con la distribución de material de abuso sexual infantil plenamente generado por IA. El caso fue descrito como uno de los primeros a escala global en los que la falta de legislación nacional específica sobre AI CSAM dificultó de forma excepcional la investigación. Esta constatación es crucial para la hipótesis del presente trabajo ya que no basta con reconocer el daño, sino que es indispensable contar con dispositivos normativos armonizados y operativos para enfrentarlo.
El sexto eje, finalmente, es la accesibilidad tecnológica. El informe de la IWF señala que algunos ofensores ya comparten imágenes presuntamente generadas con herramientas en la nube y que los espacios delictivos intercambian datasets, modelos afinados y guías prácticas para maximizar la producción. La consecuencia de este ecosistema es que el costo técnico, económico y psicológico de la conducta disminuye. Cuando una sola aplicación concentra funciones de generación de imagen, video, chat y edición, la barrera de entrada al comportamiento abusivo cae de manera drástica. Esto robustece la idea de que la gobernanza no puede limitarse a sancionar conductas ex post, sino que debe incorporar exigencias ex ante de safety by design, pruebas previas al despliegue, restricciones de afinado, obligaciones de trazabilidad y controles sobre funcionalidades manifiestamente abusivas.
El problema ya no puede plantearse como una especulación sobre futuros riesgos de la IA, sino como una realidad documentada en víctimas concretas, mercados ilícitos, herramientas específicas, operaciones policiales internacionales y fallas normativas observables. Precisamente por ello, la gobernanza ética de la IA debe ser evaluada no solo por la nobleza de sus principios, sino por su capacidad efectiva para anticipar, prevenir, desincentivar y sancionar daños sexualizados producidos mediante inteligencia artificial.
Marco conceptual: IA generativa, nudificación y deepfakes
La inteligencia artificial generativa puede definirse, en términos amplios, como el conjunto de sistemas capaces de inferir a partir de entradas determinadas y producir salidas nuevas (como texto, imagen, audio o video) con niveles crecientes de autonomía y adaptabilidad. La OCDE destaca que un sistema de IA es un sistema basado en máquinas que, para objetivos explícitos o implícitos, infiere cómo generar contenidos, predicciones, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.
En el fenómeno estudiado aquí interesan especialmente los sistemas de texto a imagen, imagen a imagen, video generativo y clonación de voz, así como los mecanismos de ajuste fino de modelos por ejemplo, mediante técnicas LoRA que permiten personalizar salidas para producir material hiperrealista con escasas imágenes de entrenamiento. Según la Internet Watch Foundation, un modelo de deepfake realista de un niño específico puede entrenarse con apenas 20 a 30 imágenes, en tiempos muy reducidos y con recursos de cómputo accesibles para usuarios ordinarios.
Las nudify apps constituyen una categoría específica de riesgo, pues convierten fotografías comunes de niñas o adolescentes en imágenes falsas de desnudez. Su gravedad no depende de que la imagen represente un abuso “real” ocurrido ante una cámara, sino de que produce una sexualización no consentida, una lesión de la dignidad y una circulación potencialmente incontrolable de representaciones íntimas falsas. Desde la experiencia comparada, varios casos recientes en Europa mostraron que estas herramientas son utilizadas incluso por pares adolescentes contra compañeras de escuela, con consecuencias severas de humillación, estigmatización y violencia digital.
Los deepfakes sexuales de menores, por su parte, exceden la simple manipulación visual. Pueden combinar rostro, cuerpo, voz, movimientos y escenarios sintéticos para fabricar escenas sexualizadas altamente creíbles. INTERPOL advierte que la expansión de los medios sintéticos compromete la autenticación de evidencia, complica la identificación de víctimas y favorece el denominado liar’s dividend, es decir, la posibilidad de que agresores aleguen falsedad artificial incluso frente a material auténtico. En consecuencia, el problema no puede reducirse a una discusión sobre la “veracidad” de la imagen ya que jurídicamente, está en juego una estructura de daños que incluye revictimización, cosificación, afectación de la reputación, exposición a extorsión, normalización de la violencia sexual y debilitamiento de la capacidad institucional para distinguir entre contenidos ilícitos, pruebas auténticas y materiales generados artificialmente.
La infancia como sujeto prioritario de la gobernanza de la IA
Uno de los aportes más relevantes del reciente debate internacional consiste en desplazar la discusión sobre riesgos de IA desde abstracciones generales hacia grupos concretamente vulnerables. El informe final de Naciones Unidas Gobernanza de la IA en beneficio de la Humanidad propone justamente un enfoque basado en la vulnerabilidad y sitúa a la infancia entre los grupos cuya protección requiere atención prioritaria dentro de la gobernanza de la IA.
Ese informe afirma que garantizar que empresas y escuelas atiendan los derechos y necesidades de los niños exige un enfoque de gobernanza integral centrado en sus circunstancias singulares. Entre las medidas destacadas se encuentran la prioridad de los derechos y de la voz de los niños, la investigación específica sobre impactos a largo plazo, la protección reforzada de la privacidad infantil, las evaluaciones obligatorias de impacto sobre niños y el diseño apropiado para la edad.
Esta formulación se alinea con una concepción robusta del interés superior del niño, según la cual la infancia no puede ser tratada solo como destinataria pasiva de protección, sino como categoría normativa que obliga a rediseñar las herramientas de gobernanza. En otras palabras, no basta con aplicar a los niños estándares generales de seguridad o transparencia pensados para adultos; es necesario incorporar un criterio reforzado de protección frente a explotación, manipulación, vigilancia, adicción y producción de contenidos sexualmente abusivos.
Desde una perspectiva ética y jurídica, ello supone reconocer que la autonomía infantil es evolutiva y relacional, y que su vulnerabilidad frente a tecnologías de generación sintética no se agota en el daño individual inmediato. También compromete condiciones estructurales del desarrollo, la autoestima, la identidad, la participación social y la confianza en los entornos digitales. La gobernanza ética de la IA aplicada a la infancia exige, por tanto, un estándar de diligencia reforzada, preventivo y multidimensional.
Instrumentos internacionales y marcos de gobernanza aplicables
La primera capa normativa aplicable es el derecho internacional de los derechos humanos, en particular la Convención sobre los Derechos del Niño (CDN), que impone obligaciones positivas de protección frente a toda forma de violencia, explotación y abuso sexual. Aunque estos instrumentos fueron adoptados con anterioridad a la inteligencia artificial generativa, su lenguaje y finalidad permiten abarcar formas contemporáneas de explotación sexual digital, incluyendo material sintético cuando afecta la dignidad, la privacidad, la integridad o la seguridad de niños y adolescentes.
A esta base se añaden marcos internacionales de ética y gobernanza de la IA. La Recomendación de la UNESCO sobre la Ética de la Inteligencia Artificial y los principios de la OCDE sobre IA confiable ofrecen criterios relevantes para abordar estos riesgos, tales como derechos humanos, transparencia, seguridad, robustez, rendición de cuentas e interoperabilidad regulatoria. La OCDE subraya que sus principios buscan promover una IA innovadora y confiable que respete derechos humanos y valores democráticos, y que sirven como base para marcos normativos en la Unión Europea, el Consejo de Europa, Estados Unidos y Naciones Unidas.
El informe de Naciones Unidas de 2024 agrega un diagnóstico institucional particularmente útil para este trabajo cuando afirma que existe un déficit de gobernanza global de la IA caracterizado por lagunas de representación, coordinación e implementación. Según el documento, la gobernanza de la IA no puede dejarse únicamente al mercado ni a respuestas fragmentarias nacionales, pues la naturaleza transfronteriza de la tecnología exige un enfoque integral, global e interoperable anclado en derechos humanos.
En materia de riesgos concretos, el informe identifica entre las áreas de mayor preocupación la integridad de la información, la manipulación, la explotación, las violaciones de derechos humanos y el impacto diferencial sobre niños y otros grupos vulnerables. El mismo documento señala que las ultrafalsificaciones o deepfakes integran los riesgos para la integridad de la información, la democracia, la confianza social y la dignidad personal, lo que refuerza la pertinencia de analizarlas desde una óptica de gobernanza y no solo de moral individual o ilícito privado.
Desde un ángulo más operativo, los informes especializados sobre AI CSAM muestran que las respuestas legales siguen siendo desiguales entre jurisdicciones y las lagunas e inconsistencias legislativas respecto del material de abuso generado por IA crean riesgos claros ya que los infractores explotan vacíos normativos, las plataformas enfrentan obligaciones fragmentadas y los niños quedan insuficientemente protegidos.
Unión Europea: gobernanza regulatoria frente a la explotación sexual sintética
La Unión Europea representa hoy el laboratorio más avanzado de gobernanza regulatoria de la IA y de los servicios digitales, sin embargo, en el caso específico de nudificación y deepfakes sexuales de menores, su respuesta todavía se encuentra distribuida entre varios instrumentos que cumplen funciones distintas, el Reglamento de IA, el Reglamento de Servicios Digitales, la normativa penal sobre explotación sexual infantil y la normativa de protección de datos y derechos fundamentales.
El Reglamento (UE) 2024/1689 o AI Act, establece un enfoque basado en riesgos e incorpora obligaciones de transparencia para determinados sistemas, así como prohibiciones de usos manipulativos, explotadores o incompatibles con derechos fundamentales. Aunque el AI Act no es un instrumento penal y no resuelve por sí solo el problema del AI CSAM, sí ofrece una arquitectura preventiva relevante, al imponer obligaciones de gestión de riesgos y al reconocer que ciertos sistemas pueden afectar de manera grave a personas vulnerables, entre ellas los menores.
A su vez, la regulación europea de servicios digitales cumple un papel central respecto de la circulación del contenido. El Digital Services Act refuerza deberes de diligencia, mecanismos de reporte y evaluación de riesgos sistémicos para plataformas, lo que resulta especialmente importante cuando el daño no reside solo en la generación del contenido, sino en su viralización, recomendación algorítmica, monetización o persistencia en línea. En contextos de explotación sexual sintética, la responsabilidad de los intermediarios deja de ser una cuestión lateral y pasa a ser un eje de gobernanza.
En paralelo, la propuesta de refundición de la Directiva 2011/93/UE sobre abuso y explotación sexual de menores busca actualizar definiciones y sanciones para contemplar expresamente el material generado por IA. Según el relevamiento de la Internet Watch Foundation, el proceso interinstitucional europeo apunta a criminalizar la creación, ajuste fino, posesión, distribución u oferta de modelos diseñados para producir CSAM, aunque todavía persisten discusiones sobre el alcance final y posibles lagunas. En consecuencia, el modelo europeo muestra avances relevantes, pero también una dificultad estructural ya que el fenómeno se distribuye entre distintos regímenes jurídicos, penal, digital, consumo, protección de datos e inteligencia artificial, cuyos tiempos de desarrollo e implementación no siempre convergen. La gobernanza efectiva exige justamente articular esos regímenes y evitar que las fronteras entre ellos generen espacios de impunidad o de responsabilidad difusa.
Riesgos, vacíos regulatorios y problemas de implementación
La principal dificultad de la gobernanza actual no es la ausencia absoluta de normas, sino su fragmentación y desajuste respecto de la velocidad de evolución tecnológica. La Internet Watch Foundation documenta que el AI CSAM ya no es material rudimentario, sino contenido altamente realista, extremo y crecientemente indistinguible del abuso fotográfico. En 2025, el 65% de los videos de abuso infantil generados por IA identificados por la IWF fueron clasificados en la categoría más extrema.
Este nivel de realismo provoca múltiples problemas. En primer lugar, multiplica la revictimización ya que los modelos generativos pueden entrenarse con imágenes reales de abuso ya existentes, produciendo nuevas escenas sobre víctimas identificables y convirtiendo un episodio pasado en un recurso renovable y comerciable. No se trata, por tanto, de una violencia “sin víctima”, sino de una amplificación potencialmente ilimitada del daño ya sufrido.
En segundo lugar, produce daños operativos para las instituciones. Tanto INTERPOL como la IWF señalan que la autenticación de evidencia se vuelve más compleja, aumenta la carga sobre investigadores y se retrasa la identificación de menores efectivamente en riesgo. Esta dificultad se agrava por el uso de modelos abiertos, entornos cifrados y materiales híbridos que combinan abuso real con alteraciones sintéticas para ocultar rasgos identificatorios del niño, del perpetrador o del lugar de los hechos.
En tercer lugar, persisten vacíos de tipificación y de armonización. El informe de la IWF observa que en la Unión Europea aún no existe una prohibición uniforme del AI-generated CSAM y que las definiciones varían entre Estados miembros. Esta falta de uniformidad genera incentivos para el arbitraje normativo, complica la cooperación judicial y reduce la previsibilidad para autoridades, empresas y víctimas.
Finalmente, el fenómeno presenta una dimensión de género particularmente intensa. El mismo informe muestra que las niñas siguen siendo los principales objetivos del AI CSAM y de las prácticas de nudificación, reproduciendo patrones de misoginia y humillación sexual digital. Desde la gobernanza ética, esto obliga a integrar no solo un enfoque de infancia, sino también una perspectiva de género y de igualdad, evitando respuestas neutras que invisibilicen la distribución real del daño.
Propuestas de gobernanza multinivel
En virtud de lo analizado en la presente investigación y la demostración empírica que surge del informe que se ha tomado como base, se ve claramente que la respuesta adecuada a esta problemática no consiste en esperar una única gran norma omnicomprensiva, sino en desarrollar una gobernanza multinivel más coherente, articulada y exigible.
En el plano internacional, el primer paso debería consistir en consolidar una interpretación convergente según la cual la nudificación y los deepfakes sexuales de menores constituyen formas de violencia y explotación sexual incompatibles con los derechos del niño, aun cuando no exista una filmación original del acto sexual.
Los estándares de derechos humanos ya permiten sostener esta conclusión, pero requieren mayor explicitación institucional y guías de aplicación.
En segundo término, deberían fortalecerse los mecanismos globales de coordinación, tal como propone Naciones Unidas, mediante la creación de espacios permanentes de diálogo sobre gobernanza de la IA, el intercambio internacional de normas y una estructura ligera de coordinación dentro del sistema de la ONU pueden contribuir a evitar respuestas dispares y a construir definiciones comunes, capacidades estatales y criterios de interoperabilidad.
En el nivel europeo, el AI Act y la reforma de la directiva sobre explotación sexual infantil deberían complementarse con lineamientos específicos orientados a la protección reforzada de menores, incluyendo auditorías obligatorias, safety by design, child in the loop, restricciones técnicas al entrenamiento o afinado de modelos para producir desnudez sintética de menores, obligaciones de trazabilidad y mecanismos efectivos para prueba, retiro y preservación de evidencia. La gobernanza ética exige aquí pasar de principios abstractos a obligaciones concretas de diseño, despliegue y supervisión.
En el ámbito estatal, la regulación penal debe tipificar con claridad la producción, facilitación, distribución y posesión de material sexual sintético que represente menores, así como la comercialización de herramientas específicamente destinadas a la nudificación infantil o adolescente. Pero la respuesta no debe ser solo penal, sino que hacen falta capacidades forenses, protocolos de protección de víctimas, alfabetización digital y marcos escolares de prevención y reparación. La gobernanza de estos riesgos es inseparable de políticas públicas integrales.
También resulta crucial reforzar la responsabilidad de plataformas y desarrolladores como se ha visto en los casos de las demandas de Nuevo México y California contra Meta.
Por último, también son importantes las medidas que se adopten desde lo económico, por ejemplo, una de las innovaciones más significativas del ciclo 2025 es el Financial Sector Pilot, un proyecto piloto de colaboración entre INHOPE y actores del sector financiero para interrumpir los flujos económicos que sostienen la producción y distribución comercial de CSAM. En él participan Block Inc., Mega, Meta, PayPal, Snap y Western Union. El piloto se basa en el intercambio de datos con preservación de privacidad (privacy-preserving data sharing) entre empresas de tecnología y compañías financieras, con el objetivo de identificar transacciones vinculadas a la explotación sexual comercial de niños (ESCI) y reducir los incentivos económicos que la sostienen. Esta iniciativa representa un avance significativo en la aplicación del concepto de responsabilidad empresarial en derechos humanos (RERC/UNGPs) al ecosistema de la seguridad digital. Desde la perspectiva jurídica, este modelo plantea interrogantes relevantes en torno al derecho a la privacidad, la protección de datos personales y los límites del monitoreo financiero privado con fines de protección de derechos. La tensión entre la eficacia de la intervención y las garantías individuales requiere marcos regulatorios que aún no han sido desarrollados en la mayoría de las jurisdicciones. La evidencia disponible muestra que la seguridad infantil no puede dejarse librada a compromisos voluntarios o a la buena voluntad corporativa, el diseño seguro debe ser una condición prioritaria y no negociable desde el inicio del ciclo de vida del producto, y no una corrección tardía una vez que el daño ya se ha propagado.
Conclusión
El uso de inteligencia artificial para nudificar imágenes de niñas y adolescentes o para producir deepfakes sexuales de menores constituye una de las expresiones más graves y urgentes de la violencia digital contemporánea. No se trata de un problema periférico ni de una mera derivación de los debates sobre desinformación o autenticidad audiovisual, sino de una afectación directa a los derechos fundamentales de la infancia y a la capacidad de los sistemas jurídicos para responder frente a daños sexualizados, sintéticos y transnacionales.
El examen de los instrumentos internacionales, de los marcos éticos y del desarrollo regulatorio europeo permite concluir que la arquitectura normativa existente es significativa pero todavía insuficiente. Sin lugar a duda, existen principios robustos de derechos humanos, lineamientos sobre IA confiable, enfoques basados en vulnerabilidad y desarrollos normativos europeos promisorios, pero, sin embargo, persisten lagunas de coordinación, definición, implementación y exigibilidad que debilitan la protección efectiva de niños, niñas y adolescentes frente a nudify apps, deepfakes sexuales y AI CSAM.
La gobernanza ética de la inteligencia artificial exige, en este campo, una doble superación; por un lado, superar la falsa dicotomía entre ética blanda y derecho duro, articulando principios con obligaciones concretas y por otro, superar la visión fragmentada que separa infancia, género, plataformas, modelos fundacionales, prueba digital y cooperación internacional, cuando el fenómeno solo puede comprenderse y gobernarse como un entramado único e interconectado. Desde esa perspectiva, la protección de la infancia frente a la explotación sexual sintética no debe ocupar un lugar marginal dentro de la agenda regulatoria de la IA, sino convertirse en uno de sus criterios rectores.
Bibliografía
Bankhwal, M., et al. (2024). AI for social good: improving lives and protecting the planet. McKinsey & Company. Recuperado de: https://www.mckinsey.com/capabilities/quantumblack/our-insights/ai-for-social-good
Bielli, G. (2025). Deepfakes y prueba electrónica. Thomson Reuters – La Ley.
Consejo de la OCDE. (2024). OECD AI Principles Overview. OECD.AI. https://oecd.ai/en/ai-principles
Donoso, T; Rubio, M. J. y Vilà, R. (2017). Las ciberagresiones en función del género. Revista de Investigación Educativa, 35(1), 197-214.
European Union. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence. Official Journal of the European Union.
Europol. (2024). Internet Organised Crime Threat Assessment (IOCTA) 2024.
Internet Watch Foundation. (2026). Harm without limits: Working together to stop child sexual abuse online. AI CSAM Report 2026.
Lance Strate (2012) La tecnología, extensión y amputación del ser humano. El medio y el mensaje de McLuhan, Infoamérica, N° 7-8 (2012): 63, https://www.infoamerica.org/icr/n07_08/strate.pdf
McLuhan, M. (1996) Comprender los medios de comunicación. Las extensiones del ser humano. Editorial Paidós, p. 29.
Naciones Unidas. (2024). Gobernanza de la inteligencia artificial en beneficio de la humanidad. Informe final.
OCDE. (2019/2024). Recommendation of the Council on Artificial Intelligence.
Salierno K. y Bielli, G., (2025) Deepfakes y explotación sexual infantil. El imperio de los datos sintéticos. ED-VI-CCXVII-228, Junio 2025.
Salierno K., (2024) Derechos digitales de la infancia. Ed. Astrea
Salierno K., ( 2024) Adicciones sin sustancias. A propósito de la demanda contra Meta. ¿EE. UU se despierta del letargo de la monstruosa creación. Argentina. El Derecho, Derecho, Innovación y Desarrollo Sustentable, Número 17- febrero 2024, Cita Digital: ED-V-CCCXLIL-708.
Salierno K., (2022) El derecho a la intimidad del niño y los perfiles digitales en la infancia en la Revista de Derecho del Consumidor del Instituto Argentino de Derecho del Consumidor, IJ Editores, 2022. https://ijeditores.com/pop.php?option=publicacion&idpublicacion=166&idedicion=18990
Salierno K., (2021) Infancias vulnerables. Responsabilidad 4.0. Primeras aproximaciones. ED, Revista de Derecho, Innovación & Desarrollo Sustentable – Número 4 – Diciembre 2021
UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence.



