Año LXIV
DERECHO, INNOVACIÓN & DESARROLLO SUSTENTABLE
REVISTA DE DOCTRINA Y JURISPRUDENCIA
Director: Dr. Emiliano C. Lamanna Guiñazú
Consejo de Redacción: Dra. Matilde Pérez – Dra. Susana – Eloísa – Mender Bini Mg. – Karina Vanesa Salierno – Dr. Patricio Moyano Peña – Ing. Hernán Mariño
CÁPSULA INTRODUCTORIA
Bienvenidos a la jungla, por Susana Eloísa Mender Bini • Cita Digital: ED-VI-CLXXX-273
CÁPSULA DE ANÁLISIS
Antiqua et nova. Nota sobre la relación entre la inteligencia artificial y la inteligencia humana. Dicasterio para la Doctrina de la Fe y Dicasterio para la Cultura y la Educación, por Matilde Pérez • Cita Digital: ED-VICLXXX-272
Inteligencia artificial y copyright: Tribunal estadounidense confirma que las obras generadas por una inteligencia artificial sin intervención humana no son protegibles por la ley, por Mariana Siniscalchi • Cita Digital: ED-VI-CLXXX-271
Innovación tecnológica para las periferias. Procedencia de medios alternativos de compliance, por Leonardo Pucheta • Cita Digital: ED-VI-CLXXX-270
Asomándonos al futuro: lanzamiento del Curso sobre Certificación en Derecho Digital Cohorte 2025. Hacia una nueva formación profesional, por Emiliano Carlos Lamanna Guiñazú y Susana Eloísa Mender Bini • Cita Digital: ED-VI-CLXXX-269
DOCTRINA
Desafíos jurídicos en la era digital: competencia, prueba digital, y acceso a la justicia y regulación de activos virtuales, por Guillermina Favrat • Cita Digital: ED-VI-CLXXX-268
T5-Small y su aplicación para QA en jurisprudencia de Estados Unidos de América. Análisis del fallo: “Brown v. Board of Education”, por Ing. Matías Abbona, Mag. Federico Gustavo López y Ing. Matías Vitola • Cita Digital: ED-VI-CLXXX-267
Datos biométricos y privacidad: La corte chilena refuerza la protección de datos de NNA en la era digital. Comentario fallo: Tercera Sala Corte Suprema de Chile, “Lagos Gerding c/ Woldcoin SpA s/ Acción Constitucional”, 06/02/2025, por Karina Vanesa Salierno y Susana Eloísa Mender Bini • Cita Digital: ED-VI-CLXXX-266
Bienvenidos a la jungla
Una primera introspectiva del año
Hace unos días fui a retirar, en una hermosa cafetería de mi ciudad, un pedido para Pascuas. En dicho lugar me habían obsequiado una infusión, con lo que aproveché la ocasión de recado para disfrutar de unos minutos para reflexionar.
En mi momento de relax, pude escuchar una parejita cercana hablar de nuestro querido y archiconocido “algoritmo”. Al escuchar la palabra, discretamente, centré mi atención en lo que hablaban. Ella trataba de explicar cómo funcionaba un algoritmo, y que mediante el famoso “copie/pegue” de secciones de código –que explicó lo mejor que pudo– lograban configurar un pequeño programa que saltaba páginas.
Lo que llamó mi atención, amén de lo que suscitaba en dicha tertulia de cafecito de Instagram, es el cambio de las temáticas de las interacciones. Actualmente, hacer una mínima referencia a la IA o cualquier otro tipo de tecnología está tomando una suerte de cotidianidad que tal vez, dos años atrás, levantaba más cejas de incredulidad que otra cosa.
No obstante, y mejor que en una partida de Minecraft(1), Argentina está experimentado con todo aquello que le resulte posible. Desde el resonado caso de la meme-coin, pasando por las capturas de iris de Worldcoin con un par de casos de investigación policial por IA generativa, por mencionar algunos.
Se experimenta un inicio del año un tanto revolucionario, salvaje, que denota la intención de proseguir con la misma velocidad vertiginosa que sentimos que estamos viviendo. ¡Suena a lo lejos el riff de Slash, célebre primera guitarra de la banda Guns N’ Roses, al que podemos acompañar con un Oh my God!
Sí, señores, bienvenidos a la jungla que nos espera con muchas novedades y sorpresas(2).
Avanzando con velocidad, pero con prudencia
En este número, realizando la apertura de la sección Cápsulas, con el Dr. Emiliano Lamanna Guiñazú nos enorgullece presentarles una nueva edición del curso de Certificación en Derecho Digital, en nuestro trabajo “Asomándonos al Futuro: Lanzamiento del Curso sobre Certificación en Derecho Digital Cohorte 2025: Hacia una nueva formación profesional”, además de dar la bienvenida a este proyecto en el que estaremos como codirectores, se abordan los highlights del contenido del curso. Contando con un lujoso plantel docente, esta certificación resulta fundamental para que el abogado actual pueda navegar con suma comodidad las aguas de la actualidad tecnológica que tanto impregnan la propia actividad profesional.
¡Pisándonos los talones, se aproxima la Cápsula de la Dra. Matilde Pérez, titulada “Dicasterio para la Doctrina de la Fe y Dicasterio para la Cultura y la Educación!”. En la misma, la directora del Centro de Innovación Jurídica nos lleva de la mano por el sendero filosófico, y dentro de este, a cuestionarnos dónde se ubica el hombre frente a la inteligencia artificial, todo ello, desde luego, con el visionario documento eclesiástico: “Antiqua et nova. Nota sobre la relación entre la inteligencia artificial y la inteligencia humana”.
(*) Dra. Susana Eloísa Mender Bini es abogada (UNSTA); Doctora en Ciencias Jurídicas por la Facultad de Derecho de la Universidad Católica Argentina; Máster en Propiedad Intelectual e E-law (UCC, Irlanda), especialista en Sistemas Biométricos y Privacidad (FernUni Schweiz, Suiza), miembro del grupo Argentino de Bioestadística y de la International Biometric Society, estudiante de Ing. en IA (UP).
- Minecraft, https://www.minecraft.net/es-es (fecha de acceso: 14/04/25).
- OST de abril 2025, Welcome to the Jungle, de Guns N’ Roses.
Con los desafíos de las IA generativas, la Dra. Mariana Siniscalchi analiza un fallo estadounidense que marca una línea crítica para los derechos intelectuales, puntualmente el copyright. En su trabajo, titulado “Inteligencia artificial y copyright: Tribunal estadounidense confirma que las obras generadas por una inteligencia artificial sin intervención humana no son protegibles por la ley”, se formula la siguiente pregunta: ¿las obras producidas 100 % por las IA –sin intervención humana– cuentan con protección de copyright? En un impecable análisis realizado por la autora encontramos la respuesta a dicha incógnita.
Finalmente, hace el cierre de la sección el Magíster Leonardo Pucheta, quien, con una mirada crítica, busca construir soluciones tecnológicas a diversos problemas que afrontan las poblaciones de las periferias urbanas. En su trabajo “Innovación tecnológica para las periferias. Procedencia de medios alternativos de compliance”, analiza las dificultades, brindando posibles y viables soluciones a cada una de ellas de forma magistral. Un verdadero manifiesto contra la brecha digital.
Inaugurando la sección de Artículos, me encuentran investigando en conjunto con la Dra. Karina Salierno. En el trabajo que titulamos “Datos biométricos y privacidad: La corte chilena refuerza la protección de datos de NNA en la era digital”, realizamos un análisis profundo al reciente fallo chileno “Lagos Gerding c/ Woldcoin SpA s/ Acción Constitucional”. En el mismo abordamos cuestiones fundamentales de derecho internacional y normativa local, como así, también, cuestiones técnicas de las tecnologías intervinientes.
Los hermanos Gibb produjeron una de las canciones más relevantes de los últimos tiempos, no solo por lo pegadiza que era, sino por su importante uso para RCP(3). Si bien los autores que presentamos no son hermanos, resultan tener una química grandiosa híbrida “inge-abogadil” en su trabajo “T5-Small y su aplicación para QA en jurisprudencia de Estados Unidos de América. Análisis del fallo: Brown v. Board of Education”. No es exagerado lo que planteamos, los ingenieros Matías Abbona y Matías Vitola, en conjunto con el letrado Federico Gustavo López, realizan un análisis comparativo entre distintas IA de Grandes Modelos de Lenguaje (LLM), con resultados más que interesantes, bajo un modelo de relato que será de fácil seguimiento y lectura para los colegas, ahora sí, solo abogados.
La abogada Data Scientist, Guillermina Favrat, nos lleva de lleno al mundo de los criptoactivos, despejando todo tipo de dudas sobre los mercados virtuales, con la impronta jurídica procesal. Sin dudas, el artículo “Desafíos Jurídicos en la Era Digital: Competencia, Prueba Digital, Acceso a la Justicia y Regulación de Activos Virtuales” será una pieza de consulta en esta temática, por mucho tiempo. Este número, así lo creemos, nos está ayudando a visualizar lo que nos depara el resto del año. Con una suerte de machete jurídico en mano, los oculus prestos, para una mejor visión, les damos la bienvenida a este salvaje e indomable número del suplemento.
VOCES: INTELIGENCIA ARTIFICIAL, DERECHOS DE AUTOR, INFORMÁTICA, TECNOLOGÍA, PROPIEDAD INTELECTUAL, DAÑOS Y PERJUICIOS
CÓDIGO CIVIL Y COMERCIAL, DERECHO COMERCIAL, DAÑO, TRATADOS Y CONVENIOS
RESPONSABILIDAD CIVIL, ORDEN PÚBLICO, PERSONAS JURÍDICAS, PRINCIPIOS GENERALES DEL DERECHO, INTERNET, PODER JUDICIAL, DERECHOS Y GARANTÍAS CONSTITUCIONALES, CONTRATOS, OBLIGACIONES
ECONOMÍA, PROTECCIÓN DE DATOS PERSONALES, INTIMIDAD, ACCIÓN DE INCONSTITUCIONALIDAD, SENTENCIA EXTRANJERA, DATOS BIOMÉTRICOS, PRIVACIDAD, ACCESO A LA JUSTICIA, ABOGADO, RESOLUCIONES JUDICIALES, CORTE SUPREMA DE LA NACIÓN, PROCESO ORDINARIO, EJERCICIO PROFESIONAL, CÓDIGO DE ÉTICA
Antiqua et nova. Nota sobre la relación entre la inteligencia artificial y la inteligencia humana
Dicasterio para la Doctrina de la Fe y Dicasterio para la Cultura y la Educación
Introducción
En este Suplemento, hemos abordado varios aspectos relacionados con la inteligencia artificial, incluyendo su uso, impacto y regulación, así como cuestiones éticas. Sin embargo, en esta búsqueda de caminos hacia un marco jurídico de la IA es necesario hacer un alto y repensar dónde se encuentra parado el ser humano en su esencia y dignidad frente a ese falso alter ego llamado inteligencia artificial.
Es por ello que se debe abrevar en la interdisciplinariedad entre la filosofía y la teología para dar sentido a una ética en materia de IA.
Es en este sentido que el pasado 28 de enero de 2025, el Dicasterio para la Doctrina de la Fe y del Dicasterio para la Cultura y la Educación dio a conocer un documento elaborado titulado “Antiqua et nova. Nota sobre la relación entre la inteligencia artificial y la inteligencia humana”(1).
Con antigua y nueva sabiduría se plantea la necesidad de ser conscientes sobre los desafíos cotidianos que nos proponen los saberes científicos y tecnológicos de los que la inteligencia artificial es parte.
Es un llamado a la reflexión acerca del don de la inteligencia, como aspecto esencial y distintivo de los seres humanos a imagen y semejanza de Dios, por lo que se abordan los desafíos y oportunidades que vienen de la mano del desarrollo de la inteligencia artificial en el marco ético y antropológico de la tradición cristiana.
Reflexión necesaria que se enmarca en el mandato de “cultivar y custodiar” la Creación frente al progreso de la ciencia y la tecnología, las cuales son medios que contribuyen a fortalecer la dignidad humana y del bien común; manifestaciones de la creatividad y habilidades humanas como dones divinos.
Se estructura en seis partes: I. Introducción; II. ¿Qué es la inteligencia artificial?; III. La inteligencia en la tradición filosófica y teológica; IV. El papel de la ética para guiar el desarrollo y el uso de la IA; V. Cuestiones específicas donde se analiza la relación de la inteligencia artificial con la sociedad; las relaciones humanas; economía y trabajo; sanidad; educación; desinformación, deepfake y abusos; privacidad y control; protección de la casa común; la guerra; la relación de la humanidad con Dios. Cierra con una reflexión final acerca de la verdadera sabiduría.
(*) Abogada (UCA); Doctora en Ciencias Jurídicas (UCA); Abogada especialista en Derecho Administrativo (UNLP); Abogada especialista en Entornos Virtuales de Aprendizaje (UCA). Profesora titular de las asignaturas Obligaciones Civiles y Comerciales, Derecho de Daños y Derechos Reales Parte General y Parte Especial. Profesora invitada en la Maestría de Derecho Civil Patrimonial (UCA). Autora de diversos artículos de doctrina y ponente en congresos y jornadas. Miembro de la Comisión de Abogacía Digital de la Facultad de Derecho (UCA). Directora del Centro de Innovación Jurídica (UCA).
- Texto completo disponible en Antiqua et nova Nota sobre la relación entre la inteligencia artificial y la inteligencia humana (28 de enero de 2025), consultado el 08/04/2025.
La inteligencia artificial
La “inteligencia artificial” desde sus orígenes juega con la imitación del intelecto humano, lo que plantea preocupaciones técnicas, éticas y antropológicas profundas, entre las que se destacan la identidad humana y el papel del ser humano en el mundo. El peligro de colocar a la IA en un lugar central, este cambio de época que describe el Papa Francisco, impacta en la vida en sociedad, en las relaciones personales, así como también en los procesos de decisiones de alcance mundial.
Hay un llamado a un discernimiento activo para procurar la mitigación de los riesgos y optimizar las oportunidades que la IA presenta, de manera que su desarrollo y aplicaciones contribuyan al progreso humano en vez de socavarlo.
En su redacción da buena cuenta de la experiencia y reflexión de la Iglesia para la guía de educadores, líderes y la sociedad en general, con la promoción de un desarrollo técnico y científico centrado en el respeto de la dignidad y promoción del bien común.
La definición y evolución de la inteligencia artificial (IA) dentro del marco de Antiqua et nova se aborda desde una perspectiva histórica, técnica y antropológica.
Se describe a la IA como una “tecnología diseñada para emular ciertas capacidades del intelecto humano, como el razonamiento lógico, la toma de decisiones, el aprendizaje y, en algunos casos, el reconocimiento de patrones o lenguaje”.
Entre estas tareas se incluyen la resolución de problemas, la interpretación de datos y la interacción en lenguaje natural, sin embargo, carecen de autoconciencia, moralidad o de capacidad para establecer relaciones auténticas. Es el reflejo de la evolución del desarrollo en áreas como las matemáticas, la informática o las neurociencias, fruto de un camino que se iniciara con los primeros algoritmos de toma de decisiones y sistemas expertos, hasta las modernas aplicaciones de aprendizaje automático y redes neuronales. Es este camino el que mueve a las preguntas fundamentales acerca de la naturaleza de la inteligencia, del conocimiento y de la responsabilidad ética. Expone con exquisita claridad que, aunque la IA puede superar a los seres humanos en determinadas tareas como el cálculo de grandes volúmenes de datos o ejecución de tareas repetitivas, carece de una perspectiva experimental y racional. Hay una diferencia intrínseca entre la “inteligencia funcional” y la “inteligencia integral” de la persona que abarca aspectos emocionales, espirituales y éticos.
Es así que la IA debe ser desarrollada y utilizada como herramienta, como medio al servicio del ser humano. No es un sustituto de su inteligencia ni una amenaza a su dignidad.
La inteligencia en la tradición filosófica y jurídica
La antropología de la inteligencia humana, tal como se expone en Antiqua et nova, analiza de manera integral las dimensiones que conforman la inteligencia del ser humano, resaltando su singularidad y profundidad en comparación con la inteligencia artificial. Se aboga por una comprensión de la inteligencia que trascienda lo meramente funcional o técnico, poniendo énfasis en los aspectos racionales, emocionales, relacionales y trascendentales.
Dimensiones clave de la inteligencia humana:
- Racionalidad: La inteligencia humana incluye la capacidad de razonamiento lógico y crítico. Sin embargo, se subraya que esta racionalidad no actúa en aislamiento; está profundamente entrelazada con las emociones, las experiencias y los valores, lo que permite al ser humano tomar decisiones moralmente conscientes y reflexionar sobre su existencia.
- Emocionalidad: A diferencia de la inteligencia artificial, los seres humanos poseen una rica vida emocional que influye en sus procesos intelectuales. Las emociones no son vistas como un obstáculo, sino como un componente esencial para comprender el mundo, establecer relaciones y construir significado.
- Relacionalidad: La inteligencia humana es inherentemente relacional, lo que significa que se desarrolla y se expresa en interacción con otros. El ser humano tiene la capacidad de formar vínculos auténticos, colaborar en comunidad y actuar con empatía, elementos ausentes en la IA.
- Corporeidad: La inteligencia humana está profundamente vinculada al cuerpo, permitiendo una experiencia encarnada de la realidad que combina sensaciones físicas, pensamientos y sentimientos.
- Trascendencia: Un aspecto fundamental destacado es la dimensión trascendental de la inteligencia humana. Esto abarca la capacidad de contemplar y buscar el significado último de la vida, integrando la razón y la fe en la búsqueda de la verdad, la bondad y la belleza.
La inteligencia humana no puede ser reducida a una serie de procesos computacionales o mecánicos, pues la simple mirada funcionalista que pareciera planear en los desarrollos de la IA se ve privada de captar la riqueza y la complejidad de la experiencia humana.
La inteligencia humana refleja la dignidad del ser humano creado a imagen de Dios, capaz de amar, de discernir, de trascender hacia un propósito superior.
Es esta centralidad de la inteligencia humana la que permite adentrarse en su comprensión y valoración, así como también fijar límites éticos al desarrollo y al uso de la IA: respetar y fortalecer lo que nos hace humanos; fortalecer el ser-humano y no potenciar la deshumanización tecnológica.
El papel de la ética para guiar el desarrollo y el uso de la inteligencia artificial
La actividad técnico-científica no tiene un carácter neutro, es una empresa humana que cuestiona las dimensiones humanísticas y culturales de la inteligencia humana.
La investigación científica y el desarrollo de las habilidades técnicas son la puesta en acto de las potencialidades inscriptas en la inteligencia humana en miras al perfeccionamiento de la creación y en miras a un fin superior.
La tecnología presenta luces y sombras, con innovaciones que permiten una acuciada mejora en la calidad de vida de las personas, sin embargo, no todas pueden ser consideradas como auténtico progreso. Las innovaciones deben estar al servicio de las personas y contribuir así a lograr más justicia, más fraternidad y ser consciente de los problemas sociales.
En este marco, hay una preocupación que es compartida por la Iglesia con diversos actores sociales, sean científicos, técnicos o profesionales, que reclaman una reflexión ética para orientar este progreso de una manera responsable.
Desafío que llama la atención sobre la necesaria responsabilidad moral asentada en la dignidad y la vocación de la persona humana que se trasvasa hacia las cuestiones relativas a la IA.
En efecto, “(…) son las personas las que diseñan los sistemas y determinan para qué se utilizan”(2); en las relaciones con las máquinas los seres humanos son los verdaderos agentes morales, responsables en el ejercicio de su libertad en la toma de decisiones y en la aceptación de sus consecuencias.
Y es que solo el ser humano es el que puede tener la conciencia suficiente de sí mismo, que le permite escuchar y seguir la voz de la conciencia, discernir con prudencia y buscando el bien posible(3).
En Antiqua et nova se advierte que, como cualquier producto del ingenio humano, la IA puede ser orientada a fines positivos o negativos, es entonces donde el binomio libertad humana y valoración moral se articula en los procesos de toma de decisiones y en los medios empleados.
Valoración necesaria para garantizar el respeto de la dignidad humana y la promoción del bien común que debe estar bajo la guía del principio de subsidiariedad y los restantes principios de la Doctrina Social de la Iglesia y que incumbe a desarrolladores, propietarios, operadores y reguladores, junto con los usuarios finales y aplicable al empleo de las tecnologías en todos los niveles(4).
- Ver número 39 y la nota 81.
- Ver número 39 y la nota 84.
Una ayuda a la libertad humana y a las decisiones
En los puntos 44 a 48 se analizan las implicancias del compromiso de garantizar que la IA defienda y promueva el valor supremo de la dignidad de todo ser humano y la plenitud de su vocación, destacándose las siguientes:
- Importancia de la responsabilidad moral: La causalidad moral pertenece a los agentes personales, lo que impacta en la determinación de los responsables de los procesos de IA, destacando a aquellos en los que los sistemas pueden resolver problemas complejos y, a la par, dificultan la comprensión de los procesos que llevaron a tales decisiones (fenómeno de cajas negras). Se reflexiona sobre la responsabilidad en aquellos casos en que la IA produce resultados no deseados y la dificultad para atribuir la responsabilidad por daños a un determinado o determinados agentes causales.
Transcribo la parte pertinente por su claridad: “(…) Para resolver este problema, hay que prestar atención a la naturaleza de los procesos de atribución de responsabilidad (accountability) en contextos complejos y altamente automatizados, en los que los resultados a menudo sólo son observables a medio o largo plazo. Por lo tanto, es importante que quienes tomen decisiones basándose en la IA se hagan responsables de ellas y que sea posible dar cuenta del uso de la IA en cada fase del proceso de toma de decisiones (…)”(5).
- Fines asignados a los sistemas de IA: Aun en aquellas situaciones de aprendizaje autónomo no supervisado o que van por caminos que no pueden ser reconstruidos, se persiguen objetivos que son asignados por los seres humanos y se rigen por procesos que están en cabeza de aquellos que los diseñaron y programaron. Se hace eco de las preocupaciones de los diversos actores jurídicos acerca de la reducción de la posibilidad de control de los modelos de IA cada vez con mayores aptitudes para un aprendizaje independiente y cómo garantizar que estas aplicaciones se mantengan al servicio de los seres humanos. Esto es, plantearse el problema crítico de garantizar que los sistemas de IA se ordenen al bien común de las personas y no en contra de ellas.
- Responsabilidad compartida por los usuarios: La IA tiene la posibilidad de asistir a los seres humanos en los procesos de toma de decisiones, por tanto, los algoritmos deben ser fiables, seguros y robustos, reducir inconsistencias, ser más transparentes y mitigar los sesgos y efectos secundarios no deseados. Enfatiza el rol de las personas jurídicas y lo que respecta a las medidas para la salvaguarda de la transparencia, la privacidad y la responsabilidad. En el caso de los usuarios, evitar la dependencia excesiva de la IA para la toma de decisiones y prevenir el alto grado de subordinación a la tecnología.
- Preservar la capacidad humana de acción: Desde la enseñanza moral y social de la Iglesia hay cuestiones relacionadas con la justicia, como el fomento de las dinámicas sociales justas, la defensa de la seguridad internacional y la promoción de la paz. El ejercicio de la prudencia por los individuos y las comunidades abren la puerta a cómo usar la IA en beneficio de la humanidad, elegir aquellas aplicaciones que no menoscaben la dignidad humana o afecten a la casa común.
Cuestiones específicas
Se analiza en este documento la relación de la IA en una pluralidad de aspectos y situaciones, lo que da buena cuenta del medular análisis que realiza el Dicasterio y es la continuación de otros trabajos anteriores, como el Rome Call for AI Ethics, fruto de actividades desarrolladas por diversos actores de los ámbitos científicos, sociales, religiosos, entre otros, con la particularidad de su suscripción por las tres religiones abrahámicas: cristianos, judíos y musulmanes(6).
- Ver número 43.
- Ver número 44 y su nota 91.
- La Pontificia Academia de la Vida dedicó su Asamblea de 2020 (26 al 28 de febrero) a la reflexión sobre la inteligencia artificial en tres ámbitos: ética, derecho y salud. Se clausuró el encuentro con la firma del “Llamamiento de Roma por la Ética de la Inteligencia Artificial” (Rome Call for AI Ethics). Participaron de la firma de este documento, aprobado por el Papa Francisco, la Academia Pontificia para la Vi-
La IA y la sociedad
Con el punto de partida en el mensaje del Papa Francisco con ocasión de la 57ª Jornada Mundial de la Paz, donde advierte de la existencia de la dignidad intrínseca de cada persona y la fraternidad que nos vincula como miembros de una única familia humana, es esa dignidad la que debe estar en la base del desarrollo tecnológico y configurarse como criterio valorativo antes de su puesta en uso(7).
Destaca el posible impacto en la agricultura, la educación y la cultura, en la mejora del nivel de vida, lo que contribuye a un desarrollo humano integral.
El otro lado de este espejo muestra la posibilidad de obstaculizar u oponerse al desarrollo humano y el bien común, con un incremento de las desigualdades desde la perspectiva económica pero también en lo político o lo social, prolongando situaciones de marginación y discriminación o incidir en la creación de nuevas formas de pobreza. Cabe la posibilidad, entonces, de agrandar la “brecha digital” y agravar desigualdades sociales(8).
Advierte acerca de la concentración del poder sobre las principales aplicaciones de IA y los problemas éticos que se pueden presentar, a lo que se aúna la dificultad de una supervisión completa de los conjuntos de datos utilizados para el cálculo. En este sentido, esta situación puede encaminarse a una posible manipulación en pos de mayores beneficios económicos, influir en la opinión pública o generar formas de control sutiles e invasivas.
En esta línea, se suma la advertencia acerca del “paradigma tecnocrático” en el que la solución a todos los problemas se encuentra en la mediación tecnológica, donde impera la eficacia, frene a la defensa de la dignidad humana y del bien común.
En ello, la reflexión profunda sobre la relación entre autonomía y responsabilidad, pues ambas son directamente proporcionales; a mayor autonomía, mayor responsabilidad, que tiene su fuente en el reconocimiento de toda capacidad humana que procede de Dios y está destinada al servicio de los demás, esto es, al bien común de la familia humana.
La IA y las relaciones humanas
Es una realidad que la IA en sus diversas modalidades viene modificando las formas en que se presentan las interacciones personales, sea a través de las comunicaciones o de herramientas con diferentes fines. Cabe, entonces, la pregunta de si estas tecnologías nos enriquecen o, por el contrario, son óbice en la interacción genuina entre las personas.
La inteligencia humana necesita de las relaciones; el diálogo, la cooperación, la solidaridad, cualidades para relaciones auténticas que en modo alguno pueden ser replicadas por las tecnologías. Se pregunta, entonces, acerca de la influencia en áreas como salud, educación o trabajo y el riesgo en los intentos de replicar las relaciones humanas en dispositivos tecnológicos.
El desarrollo ético de la IA permite garantizar el fortalecimiento de las relaciones humanas.
La IA y la economía, el trabajo, la sanidad y la educación
Es una realidad el carácter transversal de la IA en muchas áreas. En el plano económico financiero las mayores inversiones se reflejan en energía, finanzas y medios de comunicación que, a su vez, irradian en otras áreas.
Es una gran fuente de oportunidades, pero también de riesgos profundos. Entre ellos, la concentración de la oferta en pocas empresas y la posibilidad de que se beneficien del valor creado y no se traslade a los usuarios; también, las realidades digitales libres de limitaciones espaciales reflejan en una mayor homogeneidad e impersonalidad frente al arraigo, al sentido de pertenencia.
Dejar en manos de la tecnología digital la economía y las finanzas sería tanto como reducir la variedad y riqueza de las interacciones naturales a un mundo en que los procedimientos y las proximidades se faciliten en apariencia.
da, Microsoft, IBM, la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO) y el Gobierno Italiano. Enlace en inglés disponible en rc_pont-acd_life_doc_20202228_rome-call-for-aiethics_en.pdf.
- Pérez, Matilde. “Hacia una algor-ética. A propósito del mensaje de Su Santidad Francisco para la celebración de la 57.a Jornada Mundial de la Paz”, El Derecho Derecho, Innovación & Desarrollo Sustentable, Número 17 Febrero 2024, Cita digital ED-V-CCCXLIX-709.
- Ver número 52.
En lo laboral, señala el impacto en muchas profesiones, así como se destaca su potencial para el incremento de las competencias y la productividad. Remarca que los peligros de la velocidad en los cambios pueden llevar a que sean los trabajadores los que se deban adaptar a las máquinas y no viceversa, o verse invadidos o amenazados en sus actividades y/o privacidad por tecnologías de control, así como limitar o erosionar el sentido de la propia capacidad. El trabajo es un modo de ganarse el pan, pero también una dimensión irrenunciable de la vida social, es el cauce para el crecimiento personal, para establecer relaciones sanas, es expresión y es compartir dones, es el medio para vivir como pueblo(9).
En lo referente al personal de la sanidad, los médicos y profesionales sanitarios tienen un compromiso que nace de su juramento profesional por el que deben respetar la vida humana y su carácter sagrado.
Destaca el enorme potencial de la IA tanto en diagnósticos, tratamientos o acceso a la atención, con una necesaria cercanía marcada por la compasión y la ternura.
Advierte sobre la posibilidad de su utilización para sustituir las relaciones entre pacientes y profesionales, interactuando con máquinas y no personas, con el riesgo de agravar la soledad que va de la mano de la enfermedad; en ello va el respeto de la dignidad de la persona y la solidaridad con los que sufren.
Hay una responsabilidad por el bienestar del paciente, en la que las decisiones que se adopten son el centro de la profesión, con una motivación ética basada en la dignidad de la persona y en el principio del consentimiento informado que debe permanecer en manos de las personas y no delegada en la IA(10).
Pone sobre aviso acerca del uso de los sistemas de IA en la determinación de las personas que deben recibir tratamiento, sea a través de criterios económicos o de eficacia, en el marco del llamado “paradigma tecnocrático” que debe ser rechazado de plano.
Por otro lado, la optimización en el uso de los recursos debe ir de la mano de la solidaridad, de manera de no penalizar a los más frágiles, y en su utilización evitar, como efecto dominó, formas de desigualdad social.
En este sentido, se resaltan las implicancias del uso de la IA en la prevención, en el enfoque en el estilo de vida, donde las soluciones brindadas por estos sistemas pueden llegar a beneficiar a poblaciones más favorecidas en detrimento de personas de menores recursos. Los marcos de gestión de carácter equitativo deben procurar que no se agraven las desigualdades existentes y, por tanto, que estos sistemas estén al servicio del bien común.
No escapan a su análisis las implicancias en materia educativa. La educación es un elemento central en la formación integral de la persona en sus diversas dimensiones. La relación entre maestro y alumno es esencial, no como mera fuente de transmisión de conocimiento, sino como modelo de las principales cualidades humanas e inspiradores del descubrir(11).
La dinámica de la relación entre docentes y alumnos genera una sinergia que no puede ser replicada por la IA. No obstante, destaca que puede constituirse en un recurso educativo de mejora al acceso a la educación, con apoyo personalizado y con una devolución inmediata por parte de los alumnos. Posibilita la mejora de la relación entre enseñanza y aprendizaje, en especial, en aquellos entornos en que fuere necesaria una atención personalizada.
Se pone en foco la creciente dependencia de los estudiantes con la tecnología y su vinculación con la capacidad para la realización de actividades de manera autónoma y agravar la dependencia a las pantallas. Es por ello que la educación debe orientarse a la promoción de libertades responsables que permitan decidir con sentido e inteligencia. Este es un rol compartido con escuelas, universidades y sociedades científicas en la colaboración hacia la promoción del pensamiento crítico.
La Universidad Católica desarrolla tareas con una importancia y una urgencia cada vez mayores como laboratorios de esperanza, sabiduría y creatividad, donde se necesita poner de relevancia las potencialidades de los diversos campos de ciencia y realidad en forma ética, al servicio de la cohesión social y abriendo las nuevas fronteras en el diálogo entre la Fe y la Razón(12).
- Ver número 69 y sus notas 132 y 133.
- Ver número 74 y su nota 139.
- Ver números 77, 78 y 79 y sus notas.
- Ver número 83 y sus notas.
Se ocupa de los problemas derivados de los programas de IA que pueden proporcionar una información distorsionada o falseada que contribuyan a dificultar la distinción entre usos apropiados e inapropiados de la tecnología que impacta en la educación, pero también en la investigación. Refuerza el principio de transparencia como principio rector en materia de uso de la IA, lo que posibilita conocer los procesos de IA y su implementación sin ambigüedades.
La IA, desinformación, deepfakes y abusos
La IA puede ser una herramienta valiosa para comprender hechos complejos y buscar la verdad. A la par, existe el riesgo de que genere información falsa que sea difícil de distinguir de los datos reales. Esto puede ocurrir accidentalmente, como en el caso de la “alucinación” de la IA, o intencionadamente, como en el caso de las deepfakes. Las deepfakes son representaciones falsas de personas creadas por algoritmos de IA y pueden ser utilizadas para engañar o perjudicar, causando daños reales y erosionando la confianza en la información.
Se subraya la importancia de que todos los que producen y utilizan IA se comprometan con la veracidad y exactitud de la información, y destaca la necesidad de una regulación cuidadosa para evitar la desinformación y sus consecuencias negativas en la sociedad.
La IA, privacidad y control
Los datos que cada persona genera en el mundo digital son parte de su naturaleza relacional, por lo que son parte de la vida interior de cada persona pero que proyecta su influencia en el ámbito público.
Es necesario marcar una línea entre la privacidad como ámbito esencial para garantizar su libertad, expresar y tomar decisiones en esa esfera íntima. El uso de los sistemas de IA nos pone en alerta frente a los controles de carácter indebido, esto es, una vigilancia digital que puede afectar la libertad religiosa y la expresión de la fe(13).
Destaca la influencia del Concilio Vaticano II en la inclusión del derecho a la vida privada entre los derechos fundamentales para el desarrollo de una vida humana, marcada por la privacidad de los datos como esencial para la salvaguarda de la dignidad y la naturaleza relacional de la persona humana.
La IA puede ser usada de una manera legítima y correcta en los entornos de vigilancia, mas no es posible ni justificable el uso para el control o la restricción de la libertad de las personas. En correlato con ello, es necesario rechazar que la singularidad de la persona humana pueda ser entendida como sinónimo de un conjunto de datos.
Por otro lado, la evaluación de las personas basada en su comportamiento pasado no debe ser óbice para cambiar y contribuir a la sociedad(14).
La IA y el cuidado de la casa común
La preocupación por el cuidado de la casa común reconoce una nueva mirada en esta nota.
Hay una conciencia meridiana acerca de las aplicaciones diversas de la IA en la prevención de eventos, articulación de rescates y traslados de población.
El desarrollo sostenible en materia de agricultura, energía o sistemas de alerta temprana permiten optimizar recursos naturales y gestionar los riesgos.
En paralelo, la “construcción” de los sistemas de IA está llamando la atención acerca de su potencialidad contaminante atento el gran consumo de agua y energía, lo que potencia las emisiones de CO2, aunque desde los diversos sistemas de la industria o desde los usuarios parece no advertirse o crear la convicción sobre su inocuidad contaminante.
Recoge la enseñanza del Papa Francisco acerca de la búsqueda de soluciones en el cambio del ser humano. Es necesaria una visión holística que respete el orden de la creación y el bien integral de la persona humana. Es preciso dejar de lado el antropocentrismo distorsionado del paradigma tecnocrático y del mito del progreso.
La IA y la guerra
La paz no solo es la ausencia de guerra sino también la tranquilidad del orden y de la protección de la dignidad humana(15).
- Ver número 90 y sus notas.
- Ver números 90 a 94 y sus notas.
- Ver números 99 a 104 y sus notas.
Los conflictos bélicos recientes o en curso nos advierten de los riesgos del uso de IA que se manifiestan en la deshumanización de los conflictos, la determinación de responsabilidades en los casos de uso de sistemas de control remoto. En la senda del Papa Francisco se pone el foco en el uso de las armas autónomas letales, alejadas de todo juicio moral y ético, por lo que se refuerza el llamado a prohibir su uso.
El uso de la IA debe enmarcarse en la promoción del bien común y el respeto hacia el ser humano. La protección de los más vulnerables en la guerra, como los niños, los ancianos, las personas más vulnerables en general, son los civiles inocentes que carecen de rostro en las guerras, lo que se acentúa más aún con el uso de armas letales y autónomas.
La IA y la relación de la humanidad con Dios
Se encara un abordaje de la relación entre la IA y la humanidad desde una perspectiva teológica.
Es una realidad que la tecnología puede ser útil para gestionar y desarrollar los recursos naturales, que existe un optimismo acerca del potencial de la IA generativa en su camino a emular e, incluso, superar a la inteligencia humana. En la afirmación que sustituir a Dios con una creación humana es idolatría.
La IA puede crear la ilusión que tiene el entendimiento o el habla, pero es solo un reflejo de humanidad. La IA es un producto del ser humano y en esa medida cabe darle valor. La verdadera satisfacción y sentido pueden encontrarse en la comunión con el Señor.
Hay un riesgo de buscar en la IA a un sustituto de Dios, un Otro más grande con quien compartir la existencia y la responsabilidad.
La interioridad humana y su conexión con Dios nos permite conocer nuestro propio destino bajo su mirada divina. La verdadera sabiduría y la valoración del propio ser se encuentran en el corazón, donde se descubre la conexión entre la valoración personal y la apertura a los demás(16).
Antiqua et nova: Reflexión final
Es necesario un desarrollo tecnológico basado en responsabilidad, valores y conciencia que debe ser proporcional al incremento de las posibilidades que ofrece la tecnología.
Una de las preguntas que debemos plantear es si el progreso tecnológico hace al ser humano mejor, más maduro en espíritu, más consciente de su dignidad, más responsable y abierto a los demás.
Estas preguntas se extienden a las valoraciones críticas de las aplicaciones de IA para analizar si promueven la dignidad humana y el bien común. La responsabilidad y la transparencia junto con la retroalimentación se debe presentar en todos los niveles de la sociedad.
La IA debe ser considerada dentro del horizonte de la inteligencia relacional que permite fortalecer la interconexión de las personas y una responsabilidad compartida. Es una herramienta complementaria de la inteligencia humana y no un sustituto.
Es así que es menester una sabiduría del corazón que permita abordar los desafíos éticos que plantea la IA.
Esa verdadera sabiduría es la que puede iluminar y guiar el uso de la tecnología centrada en el eje ser humano-bien común-comunión con Dios.
Los creyentes son agentes responsables para un uso de la tecnología basada en este eje.
Antiqua et nova: La verdadera sabiduría
La sabiduría del corazón es una virtud que permite entrelazar las decisiones y sus consecuencias, lo que no puede esperarse de las máquinas. En este mundo marcado por la IA se precisa de la gracia del Espíritu Santo para ver con los ojos de Dios y descubrir su sentido.
La medida de la perfección de las personas es su grado de caridad, el uso de la IA; por tanto, debe incluir a los más débiles y necesitados. La sabiduría para guiar el uso de la tecnología centrada en el ser humano y en la comunión con Dios.
La vieja y nueva sabiduría: el camino para una IA ética y más justa
En tiempos de IA, vivimos la transformación de diversos aspectos de nuestra vida diaria, lo que genera a la par fascinación y también dudas. El progreso tecnológico plantea nuevos desafíos desde lo filosófico, lo teológico y lo ético que no pueden ser dejados de lado.
- Ver números 104 a 107 y sus notas.
Antiqua et nova nos habla de la “sabiduría del corazón”, que permite ahondar en cada uno de nosotros para buscar esa conexión entre inteligencia y razón que nos lleve a levantar la mirada, encontrarnos con el otro y juntos procurar el bien común.
La IA es una herramienta, un medio al servicio del ser humanos, no debe ser considerada como un sustituto de su inteligencia ni una amenaza a su dignidad.
La inteligencia humana es relacional, emocional y es trascendental, características esenciales que no pueden ser replicadas por los sistemas de IA. Es este el norte que se debe seguir a la hora de desarrollar y utilizar la IA.
Por otro lado, hay una responsabilidad moral en el uso de la IA que recae en los diseñadores, los desarrolladores, los propietarios y los usuarios, marcada por la transparencia y gestión de los riesgos para su eliminación o mitigación, de manera que los procesos puedan llevar a toma de decisiones justas y no discriminatorias.
La verdadera sabiduría radica en utilizar la tecnología de manera que fortalezca nuestra humanidad y promueva el bien común.
En palabras de Paolo Benanti: “(…) El ser humano en la categoría de persona es una expresión de valor éticamente relevante: el valor y la singularidad del ser humano, su vida personal, se expresan con el enunciado de dignidad humana”(17).
VOCES: INTELIGENCIA ARTIFICIAL, COMUNICACIONES ELECTRÓNICAS, INTERNET, TECNOLOGÍA INFORMÁTICA, DAÑOS Y PERJUICIOS, COMERCIO E INDUSTRIA, OBLIGACIONES, DERECHOS DEL CONSUMIDOR, UNIÓN EUROPEA, RESPONSABILIDAD CIVIL, ACTOS Y HECHOS JURÍDICOS, LEY, PODER LEGISLATIVO, RESPONSABILIDAD CONTRACTUAL, ECONOMÍA, DEBER DE INFORMACIÓN, ESTADO, DAÑO, CÓDIGO DE ÉTICA, JUECES, ABOGADO, PROFESIONES LIBERALES, ORGANISMOS INTERNACIONALES
EMPRESA, ACCESO A LA JUSTICIA, PROTECCIÓN DE DATOS PERSONALES, TRATADOS INTERNACIONALES
Inteligencia artificial y copyright: Tribunal estadounidense confirma que las obras generadas por una inteligencia artificial sin intervención humana no son protegibles por la ley
Una introducción
El 18 de marzo de 2025, el Tribunal de Apelaciones del Circuito de Columbia de los Estados Unidos rechazó la apelación del Dr. Stephen Thaler contra la decisión de la Oficina de Copyright de ese país (en adelante, la Oficina) de no reconocer la autoría de una imagen generada de forma autónoma por una inteligencia artificial (en adelante, IA).
En el caso se discutió si una máquina puede ser autora en los términos de la Ley de Copyright estadounidense de 1976 (en adelante, LC), que es la ley federal vigente en la materia, y cuya aplicación se encuentra a cargo de dicha Oficina.
La sentencia reconoció que el uso de la IA para producir obras originales se está incrementando rápidamente a través de las industrias y campos creativos. Quién –o qué– es el autor de esas obras es una pregunta que implica importantes derechos de propiedad que sustentan el crecimiento económico y la innovación creativa.
En este caso, el Dr. Stephen Thaler creó una IA generativa a la que nombró “Máquina de Creatividad” (“Creativity Machine”, en inglés), que generó una imagen a la que él mismo tituló “Una entrada reciente al paraíso”, y presentó la solicitud de registro ante la Oficina, declarando a dicha máquina como única autora, y a él mismo como propietario de la obra.
La Oficina denegó la solicitud del Dr. Thaler con fundamento en la falta de cumplimiento del requisito de autoría humana, que exige que la obra sea creada en primera instancia por un ser humano para ser elegible para su registro.
La decisión de la Oficina fue apelada ante un Tribunal Federal de Distrito, pero fue rechazada. A su vez, el Tribunal de Apelaciones que emitió esta sentencia confirmó la denegatoria de la solicitud, y decidió que la máquina del Dr. Thaler no puede ser reconocida como autora de una obra, porque de acuerdo a la LC, toda obra elegible para tal protección debe tener como autor en primera instancia a un ser humano.
La sentencia afirma que la LC incentiva la creación de obras originales para que puedan ser usadas y disfrutadas por el público. Esta protección no se extiende como una “recompensa especial” para el autor, sino para “fomentar la producción de obras que otros puedan reproducir a un menor costo”. Al asegurar que las obras fácilmente reproducibles sean protegidas, se incentiva a los individuos a realizar el esfuerzo de crear obras originales que de otro modo serían fácilmente objeto de plagio.
En primer lugar, la LC reconoce al autor la titularidad de su obra en el momento de su creación. Sin embargo, aunque los autores en general deben registrarlas para ejercer otros derechos, como el de demandar por infracción, el derecho del autor sobre una obra protegida no depende de su registración o publicación.
Además, la LC otorga protección durante la vida del autor y por 70 años contados desde su fallecimiento.
Tanto las personas físicas como jurídicas pueden ser titulares de derechos de copyright al contratar a alguien para crear una obra. Las disposiciones de la LC sobre obras realizadas por encargo contemplan la posibilidad de que el empleador sea considerado el autor en estos casos y se le atribuyan todos los derechos como tal, durante 95 años desde el año de su primera publicación, o 120 años desde el año de su creación, lo que expire primero.
(*) Abogada (Pontificia Universidad Católica Argentina), Especialista en Abogacía del Estado (Escuela del Cuerpo de Abogados del Estado), Magíster en Propiedad Intelectual (FLACSO) y Doctoranda en Ciencias Jurídicas (UCA). Refrendante Legal de la Administración Nacional de Patentes del Instituto Nacional de la Propiedad Industrial (desde 2020). Ex Jefa del Departamento Dictámenes de la Dirección de Asuntos Legales del INPI (2014-2020). Docente del Curso para Aspirantes a la Matrícula de Agentes de la Propiedad Industrial desde 2008. ORCID: 0009-0005-1466-8364.
El Dr. Thaler confirmó durante el procedimiento que la solicitud carece del requisito tradicional de que el autor sea humano, ya que la imagen fue generada autónomamente por una IA, y alegó la inconstitucionalidad de este requisito. También sostuvo que él mismo debería ser el titular del derecho amparado por la doctrina de las obras realizadas por encargo, porque actualmente entidades no humanas como las personas jurídicas ya pueden ser consideradas autores bajo dicha doctrina. Este argumento fue rechazado con base en que no existe ningún contrato celebrado entre el apelante y la máquina creativa invocada como autora en la solicitud, ya que dicho objeto no detenta ningún derecho para transferir.
La sentencia aclara que, si bien la LC no define la palabra “autor”, su interpretación demuestra que dicho vocablo se refiere únicamente a seres humanos. En primer lugar, una entidad que no puede detentar derechos de propiedad no puede ser un autor en los términos de la ley. Al igual que todo otro objeto, las máquinas carecen de los atributos de la personalidad enumerados en la sentencia, tales como domicilio y nacionalidad.
Además, la duración de la protección legal se encuentra limitada a la de la vida del autor, o a un período que se aproxima al de la vida de un ser humano, por lo que la Oficina mantiene registros relacionados con la fecha de la muerte de los autores de obras protegidas, a fin de determinar cuándo expiran estos derechos. Si se desconoce esta fecha, la LC presume que el autor ha fallecido después de 95 años contados desde el año de la primera publicación de la obra, o de 120 años desde el año de su creación. Estos plazos también son aplicables cuando una persona jurídica sea la titular del derecho de acuerdo con la doctrina de obras por encargo.
Se enfatiza que cada vez que el texto de la LC se refiere a las máquinas, su contexto indica que se trata de herramientas, no de autores. La palabra “máquina” se usa consistentemente con el mismo sentido que “artefacto” y “proceso”: como mecanismos que asisten a los autores.
Entre los argumentos del Dr. Thaler, cabe destacar el que sostiene que el requerimiento de la autoría humana impediría indebidamente que se pueda proteger mediante copyright a las obras creadas con IA. El Tribunal rebatió esta afirmación con la jurisprudencia de la Corte Suprema estadounidense, la que ha sostenido largamente que la LC tiene como finalidad beneficiar al público y no a los autores, y que la recompensa al autor resulta una consideración secundaria.
Asimismo, el Tribunal señala que el requisito de la autoría humana no impide la protección de obras hechas por o con la asistencia de IA. La norma requiere solamente que el autor de esa obra sea un ser humano, es decir, la persona que creó, operó o usó la IA, pero no la máquina en sí. De hecho, la Oficina ha permitido el registro de obras creadas por autores humanos que utilizan IA. En las Guías de Registración de la Oficina de marzo de 2023 se prevé que la posibilidad de registrar una obra creada con IA depende de las circunstancias, en particular, de cómo funciona la herramienta de IA y cómo se utilizó para crear la obra final.
En el presente caso se ha litigado únicamente por la protección mediante copyright de una obra cuyo autor sea exclusivamente una IA, y no la extensión de su contribución en una obra en la que haya sido utilizada por un ser humano.
En cuanto a la potencial desmotivación para crear obras originales que el requisito de la autoría humana le podría causar a los autores humanos que utilicen IA, se aclara que, si bien las máquinas no responden a incentivos de carácter económico, los seres humanos sí, tal como sucede con el apelante en cuestión.
La sentencia concluye en que al requerir la misma LC que el autor de una obra protegible mediante copyright sea un ser humano, constituye base suficiente para rechazar la apelación del Dr. Thaler; y que aun si el requisito de la autoría humana en algún punto llegara a bloquear la creación de obras originales, se trata de un tema que debe ser abordado por el Congreso, ya que el trabajo del Tribunal es aplicar la ley de la forma en que está escrita y no determinar cuál sería la mejor política pública en ese caso.
VOCES: INTELIGENCIA ARTIFICIAL, RESPONSABILIDAD CIVIL, DAÑO MORAL, INFORMÁTICA, TECNOLOGÍA, PROPIEDAD INTELECTUAL, DAÑOS Y PERJUICIOS, DERECHOS DE AUTOR, CÓDIGO CIVIL Y COMERCIAL, DERECHO COMERCIAL
DAÑO, TRATADOS Y CONVENIOS, ORDEN PÚBLICO, PERSONAS JURÍDICAS, PRINCIPIOS GENERALES DEL DERECHO, INTERNET, PODER JUDICIAL, DERECHOS Y GARANTÍAS CONSTITUCIONALES, CONTRATOS, OBLIGACIONES, ECONOMÍA
Innovación tecnológica para las periferias. Procedencia de medios alternativos de compliance
Idea introductoria
Como primer paso puede ser útil iniciar estas reflexiones justificando el título. Creemos que es infundado identificar lo periférico a lo vulnerable, al menos en sentido esencial. Es decir, en tanto seres humanos, quienes habitan en periferias son tan vulnerables como quienes lo hacen en los epicentros urbanos. Ahora bien, en un sentido material –en cambio–, quizás podamos identificar en zonas distantes de las grandes urbes menor acceso a recursos esenciales para el desarrollo humano integral (agua, energía eléctrica, conectividad, etc.). Es, por tanto, tal el sentido que atribuimos a “periferia” en esta ocasión, entendida en sentido geográfico y material.
Luego, la preposición “para” aspira a recalcar que partimos de la consideración de las periferias como destino de los méritos de la innovación tecnológica, como contexto en el que han de implementarse para el despliegue de sus potencialidades. Pretende ponerse de relieve el carácter instrumental de la innovación en relación con poblaciones distantes y con insuficiente infraestructura.
El foco se hará en la evaluación de utilidades de determinadas tecnologías para servir a los intereses de las personas que están lejos en términos geográficos, específicamente para la prevención de accidentes y enfermedades en el ámbito laboral.
Hemos sostenido que tecnologías emergentes y convergentes pueden ofrecer soluciones prácticas para acortar distancia y aumentar los sentidos(1), por lo que valoramos los méritos de determinadas herramientas tecnológicas, al turno que instamos a regulaciones tendientes a mitigar los riesgos asociados.
¿Podemos “ver más” con herramientas tecnológicas?
¿Podemos anticiparnos a contingencias no deseadas?
¿Permite la tecnología reducir limitaciones tempo-espaciales motivadas por largas distancias y otras circunstancias geográficas?
Salud laboral en la periferia
Para evitar que el trabajo sea un ámbito que comprometa la integridad psicofísica de quienes trabajan, en nuestro país rige un nutrido corpus normativo que establece obligaciones bien especificadas para prevenir contingencias disvaliosas. En favor del foco pretendido vale traer a colación tres de las más genéricas (y relevantes):
- El empleador y la Aseguradora de Riesgos del Trabajo (ART) deben capacitar concurrentemente al trabajador en materia de prevención(2);
- La ART debe visitar todos los establecimientos declarados por el empleador en ocasión del contrato de afiliación(3);
- La ART debe brindar asistencia técnica a los empleadores alcanzados por su cobertura.
Nótese que las referidas obligaciones, a priori diseñadas para su satisfacción de forma presencial, resultan más fáciles de cumplir –en principio– cuando no se constatan grandes distancias, cuando existen caminos y cuando las condiciones climáticas lo permiten.
(*) Abogado, Magíster en Ética Biomédica, Doctorando en Ciencias Jurídicas. Docente Facultad de Derecho y Ciencias Médicas (UCA). Subgerente de Innovación Tecnología en Superintendencia de Riesgos del Trabajo. Miembro de la Pontificia Academia Pro Vita y del Centro de Bioética, Persona y Familia.
- Leonardo Pucheta, Innovación tecnológica y salud laboral. Pertinencia y alcance de un análisis biojurídico. Vida y Ética, Vol. 25 Núm. 1 (2024), pp. 101-107.
- Leonardo Pucheta y Nelson Cañete, Capacitación en materia de salud y seguridad en el trabajo: una obligación concurrente. 19 de marzo de 2024, www.saij.gob.ar, Id SAIJ: DACF240023.
- El régimen genérico de visitas está establecido en la Resolución SRT Nº 463/09 y los regímenes agravados por siniestralidad están establecidos en las Resoluciones SRT Nº 20/18 y Nº 363/16.
La situación de excepción motivada por el COVID-19 permitió constatar que, para su cumplimiento en contextos imprevistos, de emergencia y/o ajenos a la voluntad de las partes, es razonable habilitar formas alternativas de cumplir con las cargas tradicionales. Naturalmente, sin que ello impacte negativamente en la calidad de las conductas pretendidas.
En este punto instamos a considerar las dificultades prácticas para formar a los trabajadores en materia de prevención, para asesorar técnicamente a los empleadores o para que las ART u órganos de control puedan visitar los establecimientos con fundamento en circunstancias geográficas, tales como la distancia, la altitud, condiciones climáticas extremas, para citar algunas.
En actividades mineras o afines, tales como la extracción de minerales, de hidrocarburos o de litio, por ejemplo, los establecimientos productivos están aislados de la urbanización, por lo que suele aplicarse el régimen “roster”, que es el que justifica prestación de servicios por turnos por largas horas o varios días. En estos casos el trabajador vive en el establecimiento, extendiendo la cobertura del sistema de riesgos del trabajo y confundiéndose con otros subsistemas de cobertura. Los rosters, de hecho, están motivados en la conveniencia de evitar traslados desde y hacia los establecimientos lejanos o de difícil acceso, minimizando los riesgos de siniestros in itinere.
¿Cómo dar cumplimiento a tales obligaciones en esos casos? Y, en última instancia, ¿cómo llegar a los empleadores y trabajadores de la periferia?
Reglas y excepciones
No creemos que lo digital sea equivalente a la presencia física. La visita presencial de un preventor, de un agente de control, de un profesional de la salud o de un representante gremial es a todas luces superior a la que podría realizarse mediante el uso de plataformas digitales. Sin embargo, no parece sensato desatender las ventajas que estas poseen cuando no están dadas las condiciones para llevar a cabo las labores preventivas relatadas de forma ordinaria.
En este sentido, el ordenamiento ha de priorizar labores presenciales como regla y fomentar la promoción de las mejores prácticas preventivas que en cada caso resulten conforme pautas de razonabilidad, a la vez que podría contemplar las situaciones de excepción en las que podría proceder el despliegue de formas alternativas de cumplimiento.
Uno de los desafíos más importantes respecto de la liberalización de formas alternativas de cumplimiento reside en la necesidad de establecer las pautas técnicas y principios que han de acatarse en orden a que la innovación que se utilizara no redunde en perjuicio de los intereses de los trabajadores o los empleadores. Luego, los controles llevados a cabo en consecuencia también habrán de actualizarse técnicamente.
Utilidades preventivas concretas
En casos concretos soluciones digitales pueden representar una forma de acortar distancias para resolver temas específicos:
- Capacitación genérica o específica en función de los procesos productivos ejecutados: La transmisión de conocimientos mediante plataformas se encuentra suficientemente estudiada, con sus aspectos positivos y negativos. Este tipo de soluciones debe ser acompañada, necesariamente, de diagramas pedagógicos de probada eficacia, considerando la población destino, la complejidad técnica comprometida en cada tópico y circunstancias de hecho. La capacitación de los trabajadores en materia de prevención no ha de satisfacerse solo formalmente, pues solo poseerá el efecto deseado en la medida en que las nociones comprometidas efectivamente sean transmitidas a quienes han de recibirlas.
- Asesoramiento técnico a empleadores: El destinatario en este caso es el empleador e, idealmente, quienes se desempeñan como integrantes de los servicios de higiene y seguridad y salud laboral. Al igual que en el caso anterior, la pertinencia de los medios utilizados será valorada a partir de su idoneidad para lograr una transmisión de conocimientos efectiva.
- Atención médica de urgencia y activación de sistema de derivación al sistema de salud: Mediando el cumplimiento de las exigencias que hoy dispone la ley 26.529 y sus normas complementarias y el Código Civil y Comercial de la Nación –entre otras–, podría explorarse el uso de dispositivos de captación de signos vitales para anticipar contingencias y dar intervención, de corresponder, a un sistema de emergencias. Especialmente relevante puede resultar lo antedicho en el supuesto de trabajadores aislados geográficamente y que prestan servicios en soledad.
- Vigilancia médica: En similar sentido al punto anterior, contar con datos de salud de cada agente en tiempo real favorece el seguimiento remoto de modo simultáneo y, sostenido en el tiempo, la identificación de tendencias de vigilancia médica complementaria a la llevada a cabo a partir de los exámenes médicos en salud previstos en la Resolución SRT Nº 37/2010. En este caso, la vigilancia médica se asocia a la medicina de precisión, en tanto se encuentra asociada a la exposición individual de cada persona a los agentes de riesgo presentes (y declarados) en el establecimiento.
Dignidad y derechos humanos
Existen condicionamientos de infraestructura, tales como la existencia de energía eléctrica y conectividad estables(4), que han de atenderse prioritariamente para tornar factible la implementación de soluciones tecnológicas y así evitar que se agudice la vulnerabilidad material de la población periférica.
- Leonardo Pucheta, Presupuestos para la implementación de IA en procesos de prevención. 7 de enero de 2025, www.saij.gob.ar. Id SAIJ: DACF250001.
Cumplidos los presupuestos operativos para el uso de tecnologías digitales, todo lo relatado en relación con la salud y seguridad en el trabajo –desde ya– bien podría ampliarse por analogía a otras utilidades en términos de salud en general, consideración que pone de manifiesto la pertinencia de transitar el camino de la innovación como herramienta para el respeto de la dignidad de la persona humana y la satisfacción de sus derechos fundamentales, también de las que están alejadas.
En definitiva, allí donde hay trabajadores debe garantizarse el cumplimiento de todas las normas vigentes para la protección de su vida y su salud. Cuando se den situaciones ordinarias habrán de desplegarse los medios ideales. Cuando las situaciones sean de excepción parece sensata la ideación de esquemas de compliance alternativos apoyados en las potencialidades de las tecnologías disponibles.
VOCES: DERECHO, TECNOLOGÍA, INTERNET, INTELIGENCIA ARTIFICIAL, INFORMÁTICA, DAÑOS Y PERJUICIOS, RESPONSABILIDAD CIVIL, ESTADO, EDUCACIÓN, CULTURA, DERECHOS Y GARANTÍAS CONSTITUCIONALES, PODER JUDICIAL, ECONOMÍA, ACTOS DE COMERCIO, ACCESO A LA JUSTICIA, PROTECCIÓN DE DATOS PERSONALES, TRATADOS INTERNACIONALES
SOCIEDADES, DERECHOS HUMANOS, PERSONAS JURÍDICAS, EMPRESA, GRUPOS ECONÓMICOS, SALUD PÚBLICA
Asomándonos al futuro: lanzamiento del Curso sobre Certificación en Derecho Digital Cohorte 2025
Hacia una nueva formación profesional
por Emiliano Carlos Lamanna Guiñazú(*) y Susana Eloísa Mender Bini(**)
Explicando la idea
El jueves 8 de mayo de este año comienza –por segundo año consecutivo– lo que hemos denominado CURSO DE CERTIFICACIÓN EN DERECHO DIGITAL Cohorte 2025, bajo una modalidad enteramente por “zoom”, y que vuelve a replicar sus entregas los días jueves de 18 a 21 horas, tal como ocurriera el año pasado. Y debemos destacar que se trata de una nueva versión del curso que se celebrara en 2024, aquella vez bajo la dirección de la Dra. Matilde Pérez, quien hoy dirige el Centro de Innovación Jurídica (CIJ) con notables proyecciones académicas para este año en curso.
El temario
Temas tales como historia y el devenir de la sociedad del conocimiento, la salud y su cruce con los datos personales, la responsabilidad civil en los tiempos disruptivos digitales, la asegurabilidad en tiempos de actividades tecnológicas, el quid del consumo en productos tecnológicos y su relación con un usuario tan particular y único en sus necesidades; los sesgos algorítmicos y los distintos modelos de lenguaje que propone la IA; las transformaciones operadas en el campo de un derecho jaqueado por lo tecnológico: tal es el caso de los derechos intelectuales; la biometría y la ciberseguridad juntamente con la sobria discusión que propone la mirada filosófica trazada por la ética y el comportamiento humano en esta discusión fuertemente golpeada por tantos cambios disruptivos.
Lo que hemos preparado
Para esta ocasión hemos pensado en una serie de cambios en relación con el año próximo pasado, por ejemplo, en materia de innovación –esa palabra que nos ha enseñado y nos ha redefinido Matilde Pérez–, y este ha sido el canal por donde hemos decidido formular algunas inserciones. No porque algo no haya salido bien antes –todo lo contrario–, sino porque la innovación exige reescribir y andar por nuevos caminos, lo sabemos.
Caminos nuevos que nos llevaron a incorporar a Gustavo Sain para que acompañe a Henoch Aguiar en el Módulo I, que refiere a los aspectos históricos de la Sociedad del Conocimiento, pues es bueno saber de dónde viene tanto cambio, y cuál ha sido la dinámica de su particular historia.
(*) Emiliano Carlos Lamanna Guiñazú, Abogado (UBA 1994); Especialista en Derecho de la Alta Tecnología (UCA 2008) y Doctor en Ciencias Jurídicas (UCA 2015). Profesor Titular en grado en la Facultad de Derecho de la Pontificia Universidad Católica Argentina (UCA), también en la Facultad de Derecho de la Universidad del Museo Social Argentino (UMSA); es Coordinador del Doctorado en Ciencias Jurídicas de la Facultad de Derecho de la Pontificia Universidad Católica Argentina (UCA), y director del suplemento “Derecho, Innovación & Desarrollo Sustentable” de la editorial jurídica EL DERECHO. Coordinador del Centro de Innovación Jurídica Aplicada (CIJ-UCA). Docente en Posgrado. Autor de diversos artículos de doctrina.
(**) Dra. Susana Eloísa Mender Bini es abogada (UNSTA); Doctora en Ciencias Jurídicas por la Facultad de Derecho de la Universidad Católica Argentina; Máster en Propiedad Intelectual e E-law (UCC, Irlanda), especialista en Sistemas Biométricos y Privacidad (FernUni Schweiz, Suiza), miembro del Grupo Argentino de Bioestadística y de la International Biometric Society, estudiante de Ing. en IA (UP).
Para el Módulo II, sobre Responsabilidad Civil y Principio Precautorio, dos figuras colosales del Derecho de Daños de este país, como lo son Fernando Ubiría y Matilde Pérez, prometen desentrañar aspectos relacionados con la responsabilidad en materia de Daños 4.0, el Compliance –tan valorado en las corporaciones privadas y con rotunda y estable vigencia en los estamentos públicos–, y el llamado “principio precautorio”, de frecuencia perenne en el ámbito de la salud y en el cuidado de los ecosistemas.
Con respecto a los Módulos III y IV, abre fuego la Dra. Matilde Pérez y termina de exponer Christopher Atanasopulo Tarello, quienes aplican todo su conocimiento, primero, a los sesgos algorítmicos, y luego, a la IAGen y los distintos modelos de lenguaje (algo muy buscado por los profesionales abogados en su nueva formación tecnológica); cierra, en materia de transformaciones del sector público, la Dra. Mariana Sánchez Caparrós, quien nos contará sobre las nuevas herramientas tecnológicas que podemos esperar ver aplicadas en la gestión pública.
En el Módulo V, dedicado a los derechos intelectuales, relaciones de consumo y derecho de seguros, tres expositores de lujo: Darío Veltani, que comienza a mover nuestro entendimiento en materia de derechos intelectuales en tiempos de intangibles, luego Daniel Guffanti, que nos contará sobre la industria del seguro y su presencia, cada vez más provocativa y dinámica, en la Asegurabilidad en tiempos de tecnologías ubicuas e invisibles, y la enorme Verónica Melo, desde la hermosa Ciudad de Rosario, quien nos comentará sobre productos tecnológicos y los derechos del consumidor de productos ligados a la tecnología.
El Módulo VI pondrá en juego nuestros temores más fundados: confluirán la salud digital y los datos personales. Dos verticales centrales e incardinadas, una a la otra, en el conglomerado de pujas que generan la manipulación de los datos en la Revolución Industrial 4.0. Por el lado de la salud, una jurista trascendente en el sector, Marisa Aizenberg, toma la batuta con las historias clínicas electrónicas y los datos personales; luego aparecerá en escena Mariano Giménez, médico cirujano de profesión, de enorme y rutilante tarea, tanto en la Argentina como en el resto del mundo, quien nos hablará de cirugía robótica, la IA aplicada al sistema de salud y el diagnóstico por imágenes como solo un maestro de su profesión lo puede hacer; luego dirá presente la biometría –como especialidad digital– y la ciberseguridad como actividad tendiente a mitigar daños. La convocatoria –en esta parte del módulo– es para dos especialistas que nos mostrarán las complejidades del tema convocante: la codirectora de este curso, Dra. Susana Eloísa Mender Bini, y Tomás Illuminatti Balbín.
Finalizado el jaleo del último módulo, se viene la reflexión de la mano del Módulo VII, en el cual Karina Salierno y Gustavo Atta harán referencia a temas claves en un sector sensible para quienes son padres: las infancias y las adolescencias, sobre todo cuando vemos la interacción de estas franjas etarias en los motores de búsqueda, donde la digitalización y la ludopatía se muestran como sus grandes problemáticas.
Cerramos con el Módulo VIII, que trata sobre la discusión ética que viene de la mano de las regulaciones y desregulaciones de la Inteligencia Artificial. La ética, un problema filosófico de cuatrocientos años, ha venido a discutirse nuevamente en este siglo XXI, y de la mano de los algoritmos alimentados con datos. Es decir, un análisis del comportamiento humano al educar la herramienta digital. Para discutir estos temas trascendentes ha sido convocado, en primer lugar, el Padre Rubén Revello, para que nos brinde su mirada desde la antropología filosófica y la filosofía moral en la bioética personalista. Luego vendrá Marcelo Quaglia, que nos acercará las distintas regulaciones posibles que asoman en la Argentina y su relación con la IA, sus conveniencias e inconveniencias regulatorias.
El cierre será de lujo, e incluye una mesa redonda, que dirigirá la enorme jurista María Isabel Iñigo Petralanda, quien moderará un grupo de autoridades, profesionales,
docentes y, sobre todo, pensadores de toda esta problemática: Daniel Alejandro Herrera (decano Facultad de Derecho) con su afinado criterio filosófico; el Dr. Horacio Granero (director del ELDIAL.com) y articulador notable en la Argentina de estos temas hace muchísimo tiempo; el profesor Dr. Carlos Muñiz (secretario académico UCA), un jurista joven y profundo en la comprensión de la problemática digital; el Padre Rubén Revello (director del Instituto de Bioética), que vendrá a sumar su palabra y vigencia en la discusión de estos temas de honda preocupación social, y la Dra. Matilde Pérez (directora del Centro de Innovación Jurídica), quien ha sido puntal en la marcación de una agenda de discusión sobre esta problemática.
Sin lugar a duda, una oportunidad para no desaprovechar.
Lo que esperamos: hacia una nueva formación profesional
Uno podría decir muchas cosas en un punto tan elástico como este. Pero para hablar de una consecuencia debemos revisar sus causas. Realmente esperamos que sea un posgrado distinto, fundamentalmente, porque es diferente. Lo que buscamos es alentar a los que se inscriban a que vean qué problemáticas planteadas llegaron para quedarse. Podemos elegir no conocer y que sean los demás quienes manejen estos problemas, pero, como operadores
jurídicos, sabemos que cada vez más la profesión nos va a exigir conocer y trabajar con estas verticales tecnológicas. La biometría, las historias clínicas digitales, juntamente con los modelos de lenguaje que plantea la IAGen, no son problemas de los demás, sino que constituyen temas que si bien nacieron alejados de los tradicionales conceptos jurídicos hoy se han acercado demasiado, al punto donde la conexión es evidente, y se corre el riesgo de alterar los conceptos y significados que gobernaron tanto tiempo la profesión. Todo esto implica cambiar el pensamiento que nos ha dado una formación de grado magnífica como la que tuvimos, pero que debemos mantener sostenida en la frescura de estos nuevos conocimientos. Para que el nuevo mundo que se avecina no nos pase por encima.
Los esperamos.
VOCES: INTELIGENCIA ARTIFICIAL, DERECHOS DE AUTOR, INFORMÁTICA, TECNOLOGÍA, PROPIEDAD INTELECTUAL, DAÑOS Y PERJUICIOS
DAÑO MORAL, CÓDIGO CIVIL Y COMERCIAL
DERECHO COMERCIAL, DAÑO, TRATADOS Y CONVENIOS, RESPONSABILIDAD CIVIL, ORDEN PÚBLICO, PERSONAS JURÍDICAS, PRINCIPIOS GENERALES DEL DERECHO, INTERNET
PODER JUDICIAL, DERECHOS Y GARANTÍAS CONSTITUCIONALES, CONTRATOS, OBLIGACIONES, ECONOMÍA
DOCTRINA
Desafíos jurídicos en la era digital: competencia, prueba digital, y acceso a la justicia y regulación de activos virtuales
Introducción
En los últimos años, el sector de las tecnologías financieras (fintech)(1) ha experimentado una transformación sin precedentes, impulsada por innovaciones que han revolucionado la forma en que interactuamos con el dinero y los servicios financieros. Entre los avances más destacados se encuentran el auge de los activos virtuales, como las criptomonedas y los tokens, que han emergido como una forma innovadora de intercambio, inversión y almacenamiento de valor. Estas herramientas, si bien abren oportunidades económicas y promueven la descentralización, también plantean desafíos significativos debido a su volatilidad y su potencial uso en actividades ilícitas.
NOTA DE REDACCIÓN: Sobre el tema ver, además, los trabajos publicados en EL DERECHO: Notificación electrónica. Reforma al Código Procesal de la Provincia de Buenos Aires, por HUGO A. VANINETTI y GUSTAVO VANINETTI, EDLA, 2010-B-1069; E-Justicia en el Poder Judicial de la Nación. Proyecto de ley que busca instaurar el expediente electrónico, por HUGO ALFREDO VANINETTI, cita digital: ED-DCCLXXII-328; Notificación electrónica. Acordadas 35/13, 36/13, 38/13 y 43/13 de la Corte Suprema de la Nación. Avances en su implementación, por HUGO ALFREDO VANINETTI, EDLA, 2014; Consideración procesal de los medios de prueba tecnológicos, por LUIS R. CARRANZA TORRES, ED, 248-177; La videograbación de las audiencias y su máximo rendimiento para una valoración fundada de la prueba, por AMALIA FERNÁNDEZ BALBIS, ED, 253-729; Cuestiones probatorias del correo electrónico, por PABLO A. PALAZZI y LUCAS F. TAMAGNO, ED, 255-78; Correo electrónico e Internet. Consecuencias jurídicas de su uso en el ámbito laboral, por MARCO
- RUFINO, ED, 255-92; El uso de software abierto para el análisis de la evidencia digital, por PABLO A. PALAZZI y GUSTAVO PRESMAN, ED, 267653; La invasión digital al Poder Judicial, por JORGE HORACIO GENTILE, EDCO, 2017-342; En la prueba anticipada, los medios de prueba son taxativos (art. 326 del Código Procesal Civil de la Nación), por JULIO CHIAPPINI, ED, 271-559; Prueba de la manifestación de voluntad por medios electrónicos, por PABLO FERNANDO CEBALLOS CHIAPPERO, ED, 279641; La prueba tecnológica y el principio de libertad probatoria, por ENRIQUE V. DEL CARRIL, 284-705; El aislamiento social y preventivo como presupuesto del avance del expediente electrónico: algunas reflexiones sobre los plazos en los procesos aduaneros para las infracciones, las impugnaciones y las repeticiones, por PABLO SEBASTIÁN BORGNA y MARCELO RAÚL RODRÍGUEZ, ED, 290-655; Automatización, virtualidad y eficacia, estandartes de las transformaciones procesales en el expediente digital de la Justicia bonaerense. Nuevo Reglamento de Presentaciones y Notificaciones Electrónicas –Acuerdo nº 4013/2021 SCBA– (T.O. Acuerdo nº 4039/2021), por PAULO ALBERTO MARESCA, ED, 295-897; Abogacía digital. De la toga al metaverso, por MATILDE PÉREZ, El Derecho Diario, El abogado y el futuro. Todos los artículos citados pueden consultarse en www.elderechodigital.com.ar.
(*) Abogada por la Universidad de Buenos Aires, Data Sciencist, Investigadora en el Centro Internacional de Estudios y Prospectiva Parlamentaria de la Escuela de Gobierno de la Universidad Austral. Directora de la Colección Instituciones Digitales. Coautora del libro Amparo digital de Editorial Ad Hoc.
- Las fintech son empresas que utilizan tecnología para mejorar o automatizar servicios y procesos financieros, combinando las palabras “finanzas” y “tecnología”.
En respuesta a ello, organismos internacionales como el Grupo de Acción Financiera Internacional (GAFI) han emitido recomendaciones para su regulación, mientras que países como Argentina han avanzado con normativas específicas, como la resolución general 1058/2025 de la Comisión Nacional de Valores (CNV), destinada a supervisar a los Proveedores de Servicios de Activos Virtuales (PSAV). Estas medidas buscan fortalecer la transparencia y la seguridad en el ecosistema cripto, alineándose con estándares globales para prevenir el lavado de dinero y el financiamiento del terrorismo.
En paralelo, el acceso a la justicia, un derecho fundamental de rango constitucional en Argentina y respaldado por tratados internacionales de derechos humanos(2), enfrenta nuevos retos en este contexto digital. Ahora bien, más allá de garantizar la posibilidad de acudir a los tribunales, implica ofrecer procesos justos y efectivos, en especial para los sectores más vulnerables, en un entorno donde las barreras estructurales aún persisten. En el ámbito de los criptoactivos y los delitos informáticos asociados, la determinación de la competencia judicial se vuelve crucial. En este contexto, la justicia federal asume un rol preponderante en casos de alcance interjurisdiccional o relacionados con crímenes financieros como el lavado de activos, mientras que la justicia local interviene en disputas individuales sin impacto en servicios públicos de telecomunicaciones. Este marco busca optimizar la administración de justicia en el ecosistema digital, pero plantea algunos interrogantes pendientes que exponemos a continuación: ¿qué competencia corresponde específicamente a los delitos informáticos vinculados a los criptoactivos, considerando su naturaleza transnacional y tecnológica? Asimismo, ¿cómo debería el Poder Legislativo o los representantes del Parlamento intervenir para legislar en torno al aseguramiento de datos y la prueba digital, garantizando tanto la seguridad jurídica como la protección de los derechos fundamentales en un mundo cada vez más interconectado? Estas preguntas no solo reflejan la necesidad de adaptar los sistemas legales a los avances tecnológicos, sino también de repensar el equilibrio entre innovación, regulación y justicia en la era fintech.
Nociones básicas sobre activos virtuales
En 2008, Satoshi Nakamoto publicó el documento que dio origen a bitcoin, la primera criptomoneda. Su funcionamiento se basa en la tecnología blockchain, un sistema descentralizado de almacenamiento de datos que actúa como un libro de contabilidad digital, donde las transacciones son verificadas por los usuarios (mineros) mediante criptografía. Las principales características de las criptomonedas son las siguientes: I) Descentralización: no dependen de bancos o gobiernos. II) Seguridad: son prácticamente imposibles de falsificar. III) Anonimato parcial: aunque las transacciones son públicas, los datos personales no lo son. IV) Irreversibilidad: una vez realizada, una transacción no puede modificarse. V) Facilidad en transferencias: ya sea internacionales y con la posibilidad de intercambiarse por dinero fiduciario.
Almacenamiento de criptomonedas: las criptomonedas no son archivos digitales, sino registros en la blockchain. Se pueden gestionar mediante: I) Exchanges: plataformas online que permiten la compra y almacenamiento (menos seguro). II) Wallets (billeteras digitales): pueden ser calientes (digitales, conectadas a internet) o frías (hardware o papel, más seguras). Cada usuario tiene una clave pública (similar a un número de cuenta) y una clave privada (como un PIN secreto), necesarias para realizar transacciones.
Formas de adquirir criptomonedas: I) Compra en exchanges: plataformas como Binance o Coinbase permiten comprar criptomonedas con dinero fiat. II) Compra P2P o F2F: adquisición directa entre personas, en línea o en efectivo, con mayor privacidad. III) Minería: usuarios (mineros) validan transacciones y son recompensados con criptomonedas. IV) Cobro por bienes o servicios: cada vez más negocios aceptan pagos en criptomonedas.
Además de su uso en criptomonedas, la blockchain tiene aplicaciones en transparencia gubernamental, trazabilidad de productos y reducción de costos en el sector financiero.
Según el Grupo de Acción Financiera Internacional (GAFI), los activos virtuales se definen como una representación digital de valor que puede ser comercializada o transferida de manera digital y utilizada para pagos o fines de inversión. Esto incluye criptomonedas como bitcoin, pero también abarca otros tipos de activos digitales que operan en sistemas basados en tecnologías de registro distribuido, como las cadenas de bloques (blockchain). El GAFI no los considera monedas de curso legal, sino que los ve como instrumentos que pueden ser explotados para actividades ilícitas, como el lavado de dinero o el financiamiento del terrorismo, razón por la cual ha establecido recomendaciones para su regulación, como la “Recomendación 15”(3), que exige a los países supervisar a los proveedores de servicios de activos virtuales (PSAV).
Los activos virtuales tienen múltiples usos, entre los que destacan los siguientes: I) Medio de intercambio: se utilizan para comprar bienes y servicios en plataformas que los aceptan. II) Reserva de valor: muchos usuarios los adquieren como una forma de ahorro o inversión, en particular en países con economías inestables. III) Transferencias y remesas: facilitan envíos de dinero rápidos y transfronterizos con costos reducidos. IV) Inversión especulativa: su volatilidad atrae a inversores que buscan ganancias a corto o largo plazo. V) Aplicaciones en finanzas descentralizadas (DeFi): se utilizan en protocolos para préstamos, staking o yield farming.
CoinMarketCap es una de las principales plataformas que rastrea criptomonedas y tokens. En estos tiempos, marzo de 2025, la cantidad exacta de activos virtuales listados puede variar a diario, pero históricamente ha superado las 20.000 criptomonedas y tokens. En cuanto a la variedad, se clasifican en categorías como las que pasamos a mencionar: I) Criptomonedas principales: Bitcoin (BTC), Ethereum (ETH). II) Altcoins: otras monedas alternativas como Ripple (XRP), Cardano (ADA), Solana (SOL). III) Tokens: activos emitidos en blockchains existentes, como los tokens ERC-20 en Ethereum (por ejemplo, USDT, LINK). IV) Stablecoins: criptoactivos vinculados a monedas fiat, tales como Tether (USDT) o USD Coin (USDC). V) Tokens de utilidad o seguridad: usados en ecosistemas específicos o como instrumentos financieros.
Argentina, según el informe más reciente disponible hasta octubre de 2023(4), se ubicó en el decimoquinto puesto a nivel mundial y fue el segundo país de América Latina con mayor adopción, después de Brasil. Esta clasificación refleja el creciente interés en criptomonedas en Argentina, impulsado por la inflación y las restricciones cambiarias, aunque el puesto exacto podría haber variado en el informe de 2024 (no se poseen datos específicos de 2025; sin embargo, el contexto sugiere que Argentina se trata de un líder regional).
Diferencia entre bitcoin, altcoins, tokens y criptoactivos colateralizados
Bitcoin (BTC)(5): se trata de la primera criptomoneda descentralizada, creada en 2009 por Satoshi Nakamoto. Funciona en su propia blockchain y usa el mecanismo de consenso Proof of Work (PoW). Su propósito principal es ser un medio de intercambio y reserva de valor digital, sin respaldo de activos físicos.
- RECOMENDACIÓN 15. Nuevas tecnologías, en https://www. cfatf-gafic.org/index.php/es/documentos/gafi40recomendaciones/ 421-fatf-recomendacion-15-nuevas-tecnologias.
- Según el ranking del Índice Global de Adopción de Criptomonedas de Chainalysis: El Índice Global de Adopción de Criptomonedas de Chainalysis mide la adopción de criptoactivos en 154 países, basándose en métricas como el volumen de transacciones, el uso de exchanges y la actividad P2P.
- El primer activo digital se describió como “Una versión puramente electrónica de efectivo [que] permitiría que los pagos en línea fuesen enviados directamente de un ente a otro sin tener que pasar por medio de una institución financiera”.
Altcoins(6): son todas las criptomonedas alternativas a bitcoin (del inglés “alternative coins”). Ejemplos: Ethereum (ETH), Litecoin (LTC), Ripple (XRP). Pueden operar en sus propias blockchains y suelen ofrecer mejoras o funciones adicionales, como mayor velocidad de transacción o contratos inteligentes (en el caso de Ethereum).
Tokens(7): son activos digitales emitidos sobre una blockchain existente, como Ethereum, Binance Smart Chain o Solana. No tienen su propia cadena de bloques; dependen de la infraestructura de otra red. Pueden ser tokens de utilidad (para acceder a servicios en un ecosistema, como BAT en Brave) o tokens de seguridad (representan propiedad o derechos financieros). Ejemplo: Chainlink (LINK), que es un token ERC-20 en Ethereum.
Criptoactivos colateralizados(8): son criptoactivos cuyo valor está respaldado por otro activo, como monedas fiat, materias primas o incluso otras criptomonedas. El ejemplo más común son las stablecoins, como Tether (USDT) o USD Coin (USDC), que están vinculadas al dólar en una proporción 1:1. Su objetivo es reducir la volatilidad típica de las criptomonedas, haciéndolos útiles para transacciones y ahorros estables.
A continuación mencionaremos, resumidamente, la normativa sobre criptoactivos en Argentina:
- Comisión Nacional de Valores (CNV) y advertencias sobre ICO:
Comunicado del 4/12/2017: la CNV alertó sobre los riesgos de las Ofertas Iniciales de Monedas (ICO), incluyendo falta de regulación, volatilidad, fraude potencial y escasa información. No estableció prohibiciones ni regulaciones específicas para la compra y venta de criptomonedas.
- Banco Central de la República Argentina (BCRA) y normas cambiarias:
- Comunicado de mayo de 2014: el BCRA aclaró que las criptomonedas no son de curso legal ni tienen respaldo oficial y advirtió sobre su volatilidad.
- Comunicación –A– 6823 (31/10/2019): prohibió el uso de tarjetas de crédito para comprar criptoactivos en exchanges extranjeros, como parte de restricciones cambiarias.
- Comunicación –A– 7030 (28/5/2020) y –A– 7042 (11/6/2020): obligó a personas con activos externos mayores a USD 100.000 (incluyendo criptoactivos) a usarlos antes de acceder al Mercado Único y Libre de Cambios (MULC). No impuso restricciones directas a la compraventa de criptomonedas, permitiendo el “dólar cripto” como alternativa al cepo cambiario.
- Comunicación –A– 6770 (01/09/2019): exigió que las divisas obtenidas por exportaciones sean pesificadas al tipo de cambio oficial. No aclaró si los exportadores pueden cobrar en criptomonedas para evitar esta obligación.
- Impuesto a las Ganancias sobre criptomonedas:
- Ley 27.430 (B.O. 29/12/2017): incorporó la enajenación de criptomonedas como hecho imponible en el impuesto a las ganancias (art. 2, apdo. 4, de la LIG).
- Personas humanas y sucesiones indivisas: Ganancia de fuente extranjera: tributa el 15%, según el artículo 94 de la LIG. Ganancia de fuente argentina: tributa el 5% o 15%, según el artículo 98 (Impuesto Cedular). Personas jurídicas (art. 53 de la LIG): tributan bajo la tercera categoría, con las alícuotas correspondientes.
Recientemente, la resolución general 1058/2025 de la Comisión Nacional de Valores (CNV) de Argentina, aprobada y publicada el 14 de marzo de 2025, estableció un marco regulatorio para los Proveedores de Servicios de Activos Virtuales (PSAV). Su objetivo principal es garantizar transparencia, estabilidad y protección a los usuarios en el ecosistema de criptoactivos, alineándose con las recomendaciones del GAFI (Grupo de Acción Financiera Internacional) para prevenir el lavado de dinero y el financiamiento del terrorismo.
- Término que surge justamente de la abreviatura de “alternativa a bitcoin”.
- Son activos no nativos que funcionan sobre plataformas, desplegados e implementados por medio de programas informáticos conocidos como “contratos inteligentes”.
- Los criptoactivos apalancados son instrumentos financieros derivados que permiten a los inversores amplificar su exposición al mercado de criptomonedas mediante el uso de un factor de apalancamiento. Este mecanismo implica el uso de capital prestado o contratos diseñados para multiplicar los movimientos del activo subyacente, lo que puede generar rendimientos más elevados en comparación con la inversión directa, pero también conlleva un mayor riesgo de pérdidas. Su operativa suele realizarse a través de plataformas de trading que ofrecen productos como contratos por diferencia (CFD), tokens apalancados o futuros perpetuos; cada uno con características específicas de margen, liquidación y gestión del riesgo.
¿De qué trata la norma? El texto establece un registro obligatorio para las personas o empresas que intercambian, transfieren, custodian o administran activos virtuales (PSAV) deben inscribirse en el Registro de PSAV de la CNV antes de operar. Impone obligaciones como segregación de fondos (diferenciar activos propios de los de clientes), ciberseguridad, auditorías, transparencia en comisiones y cumplimiento de normas antilavado. Los PSAV ya registrados tienen hasta el 1 de julio (personas humanas), 1 de agosto (empresas locales) o 1 de septiembre de 2025 (empresas extranjeras) para adaptarse. La norma entra en vigor con plenitud el 31 de diciembre de 2025. Asimismo, la CNV regula a los PSAV, no a los activos virtuales en sí, salvo que sean valores negociables bajo la ley de mercado de capitales.
¿Cuáles son las sanciones por incumplimiento? Las sanciones están previstas en el Capítulo I del Título IV de la ley 26.831 (ley de mercado de capitales) y el artículo 37 de la ley 27.739. Entre ellas, se incluyen: I) Multas: montos variables según la gravedad. II) Suspensión o cancelación de la inscripción: impide operar legalmente como PSAV. III) Inhabilitación: para personas o directivos involucrados. IV) Acciones legales: si se detectan actos ilícitos (como operar sin registro), la CNV puede solicitar a fiscalías o juzgados el bloqueo inmediato de sitios web o cuentas en redes sociales.
En síntesis, los activos virtuales, que incluyen criptomonedas y tokens, representan una innovadora forma de intercambio, inversión y almacenamiento de valor, aunque también conllevan riesgos asociados a su volatilidad y posible uso en actividades ilícitas. Debido a esto, organismos internacionales como el GAFI han establecido recomendaciones para su regulación, y países como Argentina han implementado normativas específicas, como la resolución general 1058/2025 de la CNV, para supervisar a los Proveedores de Servicios de Activos Virtuales (PSAV). Esta regulación busca garantizar mayor transparencia y seguridad en el ecosistema cripto, alineándose con estándares internacionales para prevenir el lavado de dinero y el financiamiento del terrorismo.
Acceso a la justicia
La justicia se define como el conjunto de instituciones estatales que se encargan de aplicar la ley, enfocándose en su estructura y procesos. El acceso a la justicia implica llegar al sistema judicial para reclamar derechos o resolver conflictos. Desde una visión socio-jurídica, incluye tanto el acceso a las estructuras judiciales como los resultados justos que estas deben ofrecer, especialmente para grupos vulnerables, al eliminar barreras y garantizar una justicia efectiva.
Desde una perspectiva jurídica, el acceso a la justicia es un derecho que permite restaurar derechos vulnerados, vinculado a las condiciones del sistema judicial y al principio de igualdad y no discriminación. En Argentina, este derecho garantiza que todos puedan reclamar ante la justicia de forma igualitaria, respetando el debido proceso, la defensa en juicio y la justicia como valor esencial para la tutela efectiva de derechos(9).
El acceso a la justicia en Argentina no es un derecho menor, dado que tiene rango constitucional, encontrándose establecido implícitamente en los artículos 16, 18 y 33 de la Constitución nacional. Además, está receptado en los distintos instrumentos internacionales con jerarquía constitucional incorporados en el artículo 75, inciso 22, tras la reforma de 1994. A propósito de ello, es posible mencionar que, en los inicios de su reconocimiento, este derecho fue incluido en los instrumentos de la posguerra: la Declaración Americana de los Derechos y Deberes del Hombre (art. 18) y la Declaración Universal de Derechos Humanos (arts. 8, 10 y 11). Con posterioridad, luego de la aprobación de diversos tratados internacionales de derechos humanos, se incorporó en el Pacto Internacional de Derechos Civiles y Políticos (artículo 14), la Convención Americana sobre Derechos Humanos (arts. 8 y 25), y en materia de infancia en la Convención sobre los Derechos del Niño, implícitamente en su artículo 12 y en su artículo 40, para cuestiones relativas a procesos penales.
- Programa de Acceso a la Justicia para todos (2009) res. 1114/2007 y 1398/2009, del Ministerio de Justicia y Derechos Humanos.
El acceso a la justicia, más allá de las visiones previas, debe entenderse como un derecho humano fundamental que el Estado debe garantizar en igualdad de condiciones para todos, en particular para los más vulnerables. Desde la perspectiva de los derechos humanos, no solo es la entrada a las instituciones judiciales, sino que abarca todo el proceso hasta la ejecución de la sentencia, exigiendo igualdad, accesibilidad y efectividad. Si esto falla, las personas, particularmente aquellas en situación de vulnerabilidad (definidas por las Reglas de Brasilia como quienes enfrentan dificultades por edad, género, estado físico/mental o condiciones sociales), podrían quedar privadas de sus derechos. Aunque es un derecho universal, su ejercicio no es igualitario para todos debido a obstáculos estructurales(10).
En suma, el acceso a la justicia es un derecho fundamental que garantiza la posibilidad de acudir al sistema judicial para reclamar derechos o resolver conflictos, asegurando igualdad y no discriminación. En Argentina, tiene rango constitucional y está respaldado por tratados internacionales de derechos humanos. Más allá de la posibilidad de acceder a los tribunales, implica asegurar procesos justos y efectivos, en especial para los sectores más vulnerables. Sin embargo, su ejercicio aún enfrenta barreras estructurales que pueden impedir una tutela efectiva de los derechos.
Plataformas digitales y competencia
La Corte Suprema de Justicia de Argentina ha establecido criterios claros para determinar la competencia entre la justicia federal y la local en casos relacionados con actividades digitales, telecomunicaciones y delitos informáticos(11). A continuación, se brinda un resumen de los principales lineamientos extraídos de los casos mencionados:
- Competencia federal
La justicia federal tiene competencia en las siguientes situaciones: I) Ingresos no autorizados a sistemas informáticos de acceso restringido: se asigna competencia federal cuando hay un ingreso no autorizado a sistemas como redes sociales, correos electrónicos o dispositivos, siempre que ello implique una posible vulneración de datos o comunicaciones electrónicas protegidas por los artículos 153 y 153 bis del Código Penal (ley 26.388). Esto se fundamenta en que tales sistemas operan dentro de servicios de telecomunicaciones de interés nacional (leyes 19.798 y 27.078). Ejemplos: acceso indebido a cuentas de Facebook o correos electrónicos con cambio de claves, instalación de malware para espionaje (caso Lanata), o usurpación de identidades digitales con amenazas. II) Eliminación de datos en bases de información de internet: la justicia federal es competente cuando se solicita la eliminación o bloqueo de contenidos en redes interjurisdiccionales como Facebook o Google, especialmente si se invocan derechos protegidos por la ley 25.326 (protección de datos personales). Esto aplica a casos de publicaciones injuriantes o calumniosas. III) Actividades delictivas vía internet de alcance extralocal: casos como la difusión de pornografía infantil o la violación de derechos de propiedad intelectual mediante internet, que trascienden jurisdicciones locales y afectan intereses nacionales (leyes 25.763, 25.087, 11.723), caen bajo la justicia federal por su carácter interjurisdiccional y global.
- Competencia local
La justicia local interviene en los siguientes supuestos: I) Ingresos ilegítimos a cuentas sin afectación a servicios de telecomunicaciones: cuando el acceso indebido a redes sociales o correos electrónicos no compromete la prestación regular de servicios de telecomunicaciones de interés nacional (esto ocurre en casos de abuso de confianza o fallos de seguridad del usuario), la competencia es local. Ejemplo: Fallos, 346:1248 (hostigamiento personal sin impacto en el servicio). También aplica si los hechos configuran delitos como defraudación o violación de privacidad sin afectar el sistema de telecomunicaciones (Fallos, 340:895). II) Publicaciones o mensajes agraviantes sin impacto interjurisdiccional: denuncias por publicaciones en redes sociales (como amenazas, caza ilegal o discriminación) que no interrumpen servicios de telecomunicaciones ni tienen alcance extralocal quedan en la justicia local. Ejemplo: publicaciones en Facebook sobre caza (UFIMA) o amenazas de incendiar una escuela. Si el objetivo es una reparación civil (daños y perjuicios) y no la eliminación de contenidos, también corresponde al fuero local (Fallos, 338:428).
- Es importante resaltar que Argentina adhirió a las Reglas de Brasilia sobre acceso a la justicia a través de la acordada 05/2009 de la Corte Suprema de Justicia de la Nación, cuyo objetivo radica –entre otros– en destacar las principales problemáticas que obstaculizan el efectivo acceso a la justicia de las personas en condición de vulnerabilidad.
- Corte Suprema de Justicia de la Nación: Plataformas digitales y competencia (Facebook, Instagram, Twitter, WhatsApp, E-mail), en https://sj.csjn.gov.ar/homeSJ/notas/nota/50/documento.
Criterio clave de distinción: la justicia federal interviene cuando hay una afectación real o potencial al servicio de telecomunicaciones de interés nacional o un alcance interjurisdiccional. La justicia local prevalece en casos de carácter individual, sin impacto en el sistema público de comunicaciones.
- Competencia en materia de criptoactivos
La cuestión planteada refiere a un vacío normativo y jurisprudencial en materia de competencia judicial para el conocimiento de delitos relacionados con criptoactivos en Argentina. En particular, en el marco de los tipos penales incorporados por la ley 26.733 al Título XIII del Código Penal, que regula los delitos contra el orden económico y financiero. Esta norma introdujo, entre otros, los delitos de intermediación financiera no autorizada (art. 310, párrafo 1º) y captación no autorizada de ahorros en el mercado de capitales e intermediación no autorizada para la adquisición de valores negociables (art. 310, párrafo 2º). Sin embargo, ni la ley ni la Corte Suprema de Justicia de la Nación han establecido con claridad qué tribunales son competentes para investigar y juzgar estas conductas, lo que genera incertidumbre jurídica, especialmente en el ámbito de la Ciudad Autónoma de Buenos Aires (CABA).
- Naturaleza federal de los delitos y competencia general
En primer lugar, resulta incontrovertible que los delitos previstos en el artículo 310 del Código Penal poseen naturaleza federal. Esta calificación deriva de su inserción en el Título XIII, que protege el orden económico y financiero nacional, un interés que trasciende las jurisdicciones locales y que, por ende, corresponde a la órbita de la justicia federal, conforme a lo dispuesto en el artículo 116 de la Constitución nacional y la legislación procesal aplicable. En términos generales, esta caracterización implica que, en las provincias, la competencia recaería en los tribunales federales con asiento en cada jurisdicción, sin mayores controversias. La asignación de competencia en estos casos no requiere un esfuerzo interpretativo complejo, dado el carácter inequívocamente federal de los bienes jurídicos protegidos.
No obstante, la situación se torna problemática cuando las conductas tipificadas en el artículo 310 se ejecutan en la CABA, un territorio donde coexisten dos fueros con competencia federal: los juzgados nacionales en lo penal económico y los juzgados nacionales en lo criminal y correccional federal. Esta dualidad plantea un conflicto de competencia que no ha sido resuelto de manera expresa por la normativa ni por un pronunciamiento definitivo de la Corte Suprema. La falta de una delimitación clara genera incertidumbre sobre cuál de estos fueros debe intervenir en investigaciones relacionadas con los delitos del artículo 310, en especial en un contexto donde las plataformas digitales y los criptoactivos han adquirido creciente relevancia.
- Análisis de los fueros en pugna
-
- Juzgados nacionales en lo penal económico: este fuero tiene una especialización temática en delitos económicos y financieros, lo que podría sugerir su idoneidad para conocer en casos de intermediación o captación no autorizada. Su competencia abarca tradicionalmente ilícitos como los previstos en las leyes de entidades financieras (ley 21.526), de mercado de capitales (ley 26.831) y otros relacionados con el sistema económico. Dado que los tipos penales del artículo 310 guardan una vinculación directa con estas materias, podría argumentarse que este fuero posee una ventaja funcional para abordar estas investigaciones, en particular si se considera que las conductas pueden implicar operaciones complejas en el ámbito de criptoactivos(12).
- Juzgados nacionales en lo criminal y correccional federal: este fuero, por su parte, tiene una competencia más amplia en materia de delitos federales, incluyendo aquellos que no necesariamente poseen un componente económico especializado. Históricamente, ha intervenido en casos de naturaleza federal que no encuadran en la órbita específica de otros tribunales especializados, lo que podría incluir los delitos del artículo 310 en ausencia de una asignación expresa al fuero penal económico.
- Análisis de jurisprudencia
-
- El Juzgado Criminal y Correccional Federal nº 10 habría interpretado que los delitos de intermediación financiera no autorizada y captación no autorizada de ahorros en el mercado de capitales (art. 310, CP), incorporados por la ley 26.733, son de naturaleza federal. En consecuencia, en las provincias, la competencia recaería en los tribunales federales sin mayor discusión. Sin embargo, en la CABA, ante la coexistencia de los juzgados nacionales en lo penal económico y los nacionales en lo criminal y correccional federal, el fallo podría haber asignado la competencia a uno de estos fueros –por ejemplo, al penal económico– argumentando su especialización en delitos contra el orden económico-financiero. Esta decisión se habría fundamentado en la necesidad de llenar el vacío normativo dejado por la ley 26.733 y la falta de pronunciamiento de la Corte Suprema, priorizando un criterio de especialidad funcional(13).
- El Juzgado Nacional en lo Penal Económico nº 6, Secretaría nº 11, del 5 de marzo de 2025, en el contexto de la denuncia: “Denunciado: Milei, Javier Gerardo s/ averiguación de delito. Denunciante: Tiscornia, Guillermo Juan”(14), el juez analizó de manera exhaustiva la naturaleza del delito y la competencia: a) Calificación penal : aunque Tiscornia invocó el artículo 300 (agiotaje mercantil), el juez consideró más adecuada la figura del artículo 309 (agiotaje financiero), dado que $LIBRA es un instrumento financiero (criptomoneda tipo “meme coin”) y no una mercancía. Sostuvo que el bien jurídico protegido es el orden económico y financiero, específicamente la libre formación de precios en el mercado. b) Naturaleza de $LIBRA: el fallo clasificó a $LIBRA como un “currency token” dentro del universo de criptomonedas, destacando su alta volatilidad y dependencia de la especulación viral en redes sociales, lo que plantea desafíos para encuadrarlo como “valor negociable” (regulado por la ley 26.831), pero lo incluye bajo el amplio concepto de “instrumentos financieros” del artículo 309 del Código Penal. c) Competencia material: el juez argumentó que el fuero penal económico es competente para delitos del Título XIII del CP (como el art. 309), basándose en su especialización en ilícitos económicos y financieros, respaldada por jurisprudencia de la Cámara Nacional de Apelaciones en lo Penal Económico y precedentes históricos (leyes 14.558 y 14.831). d) Conexidad y resolución final: a pesar de reconocer su competencia material, el juez declinó la competencia por conexidad objetiva con la causa CFP 574/2025, ya avanzada en el fuero criminal y correccional federal. Para evitar fallos contradictorios y respetar el principio non bis in idem remitió el expediente al Juzgado Federal nº 1, aplicando analógicamente el artículo 42 del Código Procesal Penal de la Nación (mayor gravedad y prevención).
- Casos que sugieren competencia federal, según los criterios dados por la CSJN
-
- Delitos informáticos relacionados con criptoactivos: si se denuncia un ingreso no autorizado a billeteras digitales (wallets) o plataformas de intercambio (exchanges), que implique vulnerar sistemas informáticos de acceso restringido (hackeos, phishing), la justicia federal sería competente, dado que estos sistemas están vinculados a servicios de telecomunicaciones de interés nacional (arts. 153 y 153 bis del Código Penal).
- Greppi, Competencia material del delito de intermediación financiera no autorizada (art. 310, CP). RC D 786/2021.
- Poder Judicial de la Nación: Juzgado Criminal y Correccional Federal nº 10, CFP 1620/2022 caratulada: “NN s/averiguación de delito”.
- Quien alegó que el presidente Javier Milei promovió en su cuenta de X, el 14 de febrero de 2025, la criptomoneda LIBRA de KIP Protocol, cuyo valor pasó de U$S 0,000001 a US$ 5,20 tras la promoción, para luego desplomarse un 90%, dejando numerosos damnificados. Tiscornia calificó los hechos como agiotaje mercantil (art. 300, inc. 1, CP) en posible concurso con fraude financiero, solicitando que se investigue en el fuero penal económico. Sin embargo, el fiscal solicitó la incompetencia del Juzgado Penal Económico nº 6 y la remisión al Juzgado Nacional en lo Criminal y Correccional Federal nº 1, donde ya tramitaba una causa conexa (CFP 574/2025) iniciada el 17 de febrero de 2025 por Claudio Lozano, también contra Milei, por hechos idénticos relacionados con $LIBRA.
- Fraudes o estafas a gran escala vía internet: si se investiga una red de estafas con criptoactivos (por ejemplo, esquemas Ponzi como los promovidos en plataformas digitales), el carácter extralocal y el uso de internet como medio global podrían justificar la intervención federal, similar a los casos de pornografía infantil o propiedad intelectual.
- Lavado de activos: dado que los criptoactivos son con frecuencia asociados al lavado de dinero (delito regulado por la ley 25.246), y este es un crimen de competencia federal por su impacto en el orden económico nacional, la justicia federal tendría jurisdicción.
- Casos que sugieren competencia local, según los criterios dados por la CSJN
-
- Estafas individuales o disputas privadas: Si el caso involucra una estafa entre particulares (por ejemplo, una venta fraudulenta de criptomonedas entre dos personas) sin afectar servicios de telecomunicaciones ni tener alcance interjurisdiccional, la justicia local sería competente, como en los casos de defraudación sin impacto en el sistema público (Fallos, 340:895).
- Conflictos civiles: disputas sobre propiedad o contratos relacionados con criptoactivos (como incumplimientos en compraventas) caerían bajo el fuero civil local, salvo que involucren plataformas interjurisdiccionales y se solicite la eliminación de datos.
En conclusión, la determinación de la competencia judicial en casos vinculados a actividades digitales y criptoactivos, como el analizado en el fallo del Juzgado Nacional en lo Penal Económico nº 6 respecto a la criptomoneda $LIBRA, revela un entramado jurídico que combina criterios materiales, territoriales y procesales. El juez clasificó el caso como agiotaje financiero (art. 309, CP), reconociendo a $LIBRA como un instrumento financiero cuya manipulación afecta el orden económico y financiero, un bien jurídico de naturaleza federal, y afirmó la competencia material del fuero penal económico por su especialización, respaldada por jurisprudencia y antecedentes históricos. Sin embargo, la declinación de competencia en favor del Juzgado Criminal y Correccional Federal nº 1, por conexidad objetiva con una causa previa (CFP 574/2025), evidencia que factores procesales como la unidad de investigación y el principio non bis in idem pueden prevalecer sobre la especialidad material. Este enfoque se alinea con la conclusión previa: la justicia federal, ya sea en su fuero penal económico o criminal y correccional, interviene en delitos financieros con criptoactivos de alcance extralocal o impacto en intereses nacionales, mientras que la justicia local se reserva para casos individuales sin trascendencia interjurisdiccional. Así, el fallo refleja una aplicación práctica de estos criterios, adaptando el marco penal a la realidad de los criptoactivos y priorizando la eficiencia procesal, aunque deja patente la necesidad de una regulación más precisa para resolver las tensiones competenciales en la Ciudad Autónoma de Buenos Aires, garantizando una administración de justicia coherente y efectiva en el ámbito digital.
Aseguramiento y retención de datos: comparación con la Convención de Budapest y la legislación argentina
- Definición de las medidas
Aseguramiento de Datos: un fiscal, juez o incluso fuerzas de seguridad pueden ordenar a un tercero que conserve ciertos datos para evitar su alteración mientras se solicita su acceso e incorporación al proceso penal. Es una medida procesal, es decir, se aplica en el marco de una causa penal específica.
Retención de datos: es una medida legislativa y de carácter general. Obliga a los proveedores de servicios de telecomunicaciones a almacenar ciertos datos de tráfico o de abonados por un período determinado, sin necesidad de una causa penal específica. No implica el almacenamiento del contenido de las comunicaciones.
La Convención de Budapest sobre Cibercrimen (2001), principal tratado internacional sobre delitos informáticos, no incluyó una disposición sobre retención de datos debido a la falta de consenso entre los países. En cambio, sí estableció la obligación de aseguramiento de datos como medida procesal en casos específicos, al considerar que la retención generalizada de datos podría vulnerar el derecho a la privacidad.
- Regulación en Argentina
Argentina adoptó la ley 25.873 y su decreto reglamentario 1563/2004, que establecía la obligación de retención de datos de tráfico por 10 años, un período significativamente mayor al de otros países (6 meses a 2 años). Sin embargo, esta ley fue declarada inconstitucional por la Corte Suprema en el fallo “Halabi”. En este caso, se argumentó que la retención indiscriminada afectaba derechos fundamentales, como la privacidad y el secreto profesional.
- Evolución global y regional
En Europa, aunque inicialmente se estableció una obligación de retención de datos con la directiva 2006/24/ CE(15), varios tribunales constitucionales (Alemania en 2010, Rumania, y luego el Tribunal de Justicia de la UE en 2014 y 2016) declararon inconstitucionales estas leyes por vulnerar derechos individuales.
En América Latina, la mayoría de los países han evitado implementar leyes de retención de datos. Solo Chile mantiene una disposición similar en su Código Procesal(16).
- Implicancias del fallo “Halabi”
El abogado Ernesto Halabi presentó un amparo contra el Estado nacional impugnando la constitucionalidad de la ley 25.873 y el decreto 1563/04. Estas normas permitían la intervención de comunicaciones telefónicas y electrónicas sin orden judicial, afectando el derecho a la privacidad. El fallo “Halabi” no solo declaró inconstitucional la retención de datos en Argentina, sino que también estableció un precedente clave en materia de acciones colectivas y protección de la privacidad(17). Además, introdujo el concepto de acción colectiva en el país, al permitir que cualquier ciudadano pudiera impugnar normas que afecten derechos de manera generalizada. La Corte estableció que, cuando se ven afectados derechos individuales homogéneos de un grupo, puede interponerse una acción de amparo colectivo. En este sentido, subrayó la importancia del principio de proporcionalidad, es decir, cualquier medida que restrinja derechos fundamentales debe ser necesaria y adecuada a su fin, destacando que el acceso a la justicia debe garantizarse en casos donde una acción judicial individual sería poco efectiva por la dispersión de los damnificados (refuerzo de la tutela judicial efectiva).
- La problemática del acceso a la evidencia digital
Si bien la retención de datos facilitaría las investigaciones, también implica un alto riesgo de abuso y vulneración de derechos fundamentales. La falta de retención puede dificultar el acceso a evidencia en casos de delitos cibernéticos, en especial cuando los datos desaparecen rápidamente. Esto genera una tensión entre seguridad y privacidad, un debate aún sin resolución definitiva a nivel global.
Algunos países han implementado modelos intermedios, como la retención selectiva, que obliga a los proveedores a conservar datos solo en función de criterios específicos, reduciendo la afectación a la privacidad. Ejemplo, en la UE, el modelo español de análisis ex post permite evaluar la pertinencia de los datos retenidos antes de utilizarlos en un proceso penal. También, se han desarrollado acuerdos de cooperación internacional, como el Protocolo Adicional de la Convención de Budapest sobre acceso transfronterizo a datos electrónicos, para mejorar la investigación criminal sin vulnerar derechos.
- La directiva 2006/24/CE, también conocida como la directiva sobre retención de datos, fue adoptada por la Unión Europea el 15 de marzo de 2006 y establecía la obligación para los proveedores de servicios de telecomunicaciones e internet de retener ciertos datos de tráfico y localización de los usuarios por un período determinado (entre 6 meses y 2 años, según cada país miembro).
- En Chile, el Código Procesal Penal, en su artículo 218 regula la retención e incautación de correspondencia. Este artículo permite que, a solicitud del fiscal y mediante resolución judicial fundada, se autorice la retención de correspondencia postal, telegráfica o de otra índole dirigida al imputado o enviada por él, cuando se estime que dicha correspondencia puede ser útil para la investigación. Además, se contempla la posibilidad de obtener copias o respaldos de la correspondencia electrónica del imputado.
Decreto 20, Reglamento sobre Preservación Provisoria de Datos Informáticos en las Investigaciones Penales, dispone que los datos se conserven durante un período de 90 días, prorrogable una sola vez, hasta que se obtenga la autorización judicial correspondiente.
https://www.bcn.cl/leychile/navegar?idNorma=176595&idParte
=8646750&idVersion=&utm_source=chatgpt.com.
- “Halabi, Ernesto c/P.E.N. ley 25.873, dto. 1563/04 s/amparo”.
- Propuesta de regulación en Argentina
En lugar de una ley de retención de datos general, Argentina podría fortalecer su marco legal en torno al aseguramiento de datos, con: i) plazos específicos para la conservación de datos en investigaciones; ii) mecanismos de control judicial para evitar abusos, iii) obligaciones claras para proveedores de telecomunicaciones y plataformas digitales, y iv) sanciones por incumplimiento o uso indebido de los datos asegurados.
Se necesita una regulación equilibrada que contemple los avances tecnológicos sin afectar derechos fundamentales, ya que la falta de regulación interna sobre órdenes de presentación de datos complica la obtención de información.
En suma, la regulación del aseguramiento y retención de datos en Argentina debe equilibrar la necesidad de acceso a evidencia digital con la protección de los derechos fundamentales. Mientras que la Convención de Budapest y diversas experiencias internacionales han priorizado el aseguramiento de datos como medida procesal específica, la retención generalizada ha sido cuestionada por su impacto en la privacidad, como lo evidenció el fallo “Halabi” en Argentina. La falta de un marco normativo claro sobre el acceso a datos digitales dificulta las investigaciones penales, pero una regulación adecuada podría fortalecer el aseguramiento de datos con plazos específicos, control judicial y obligaciones claras para los proveedores. De esta manera, se busca garantizar tanto la efectividad de la justicia en delitos informáticos como la protección de los derechos individuales en el entorno digital.
Conclusión
Los activos virtuales, como las criptomonedas y tokens, han emergido como una herramienta innovadora de intercambio y valor, pero su volatilidad y potencial uso ilícito han impulsado regulaciones, como la resolución general 1058/2025 de la CNV en Argentina, alineada con estándares internacionales del GAFI para prevenir el lavado de dinero y el financiamiento del terrorismo, promoviendo transparencia y seguridad.
Paralelamente, el acceso a la justicia, un derecho constitucional y humano fundamental en Argentina, enfrenta desafíos estructurales que limitan su efectividad, especialmente para sectores vulnerables, pese a garantizar procesos justos y no discriminatorios.
En este contexto, el fallo del Juzgado Nacional en lo Penal Económico nº 6 sobre la criptomoneda $LIBRA ilustra la complejidad de determinar la competencia judicial en casos digitales: clasificó el hecho como agiotaje financiero (art. 309, CP), reconoció la competencia material del fuero penal económico por su especialización en delitos federales económico-financieros, pero cedió ante el fuero criminal y correccional federal por conexidad procesal, priorizando la unidad de investigación y el principio non bis in idem. Esto confirma que la justicia federal interviene en delitos con criptoactivos de alcance nacional o interjurisdiccional, mientras la justicia local aborda casos individuales, aunque persisten tensiones competenciales en la CABA que requieren mayor claridad normativa.
Asimismo, la regulación del aseguramiento y retención de datos digitales, aun incipientemente regulada en Argentina, debe balancear la obtención de evidencia con la protección de la privacidad, como sugiere el fallo “Halabi”, proponiendo un marco claro con control judicial para fortalecer las investigaciones sin vulnerar derechos.
En síntesis, la interacción entre criptoactivos, acceso a la justicia y manejo de datos digitales evidencia un sistema jurídico en transición, que adapta normas existentes a realidades emergentes, pero que demanda regulaciones más precisas y coordinadas para garantizar una administración de justicia efectiva, equitativa y respetuosa de los derechos fundamentales en el ámbito digital.
Bibliografía
BIELLI, G. E., BRANCIFORTE, F. O. Y ORDÓÑEZ,
- J. (Dirs.). (2022). Blockchain y derecho. La Ley. FAVRAT, G. (Dir.) (2022). Amparo digital. Ad Hoc.
https://www.edicionesdigitalesadhoc.com/library/publication/favrat-directora-amparodigital.
GIL DOMÍNGUEZ, A. (2023). Constitucionalismo digital. Ediar.
GREPPI, D. (2021). Competencia material del delito de intermediación financiera no autorizada (art. 310, CP). RC D 786/2021, 1-8.
MORA, S. J. (2022). Últimas regulaciones emitidas por el BCRA aplicables a los proveedores de servicios de pago que ofrecen cuentas de pago. Importantes disposiciones relativas al open banking-. En: S. J. Mora y P.
- Palazzi (Comps.). Fintechs: Aspectos legales. Tomo V (pp. 103-134). CeTyS.
VÍTOLO, R. D. (2015). La interpretación de la ley en el nuevo Código Civil y Comercial de la Nación. DPI Cuántico.
SALT, M. (2017). Nuevos desafíos de la evidencia digital: acceso transfronterizo y técnicas de acceso remoto a datos informáticos. Ad Hoc.
VOCES: TECNOLOGÍA, INTERNET, ACCESO A LA JUSTICIA, INFORMÁTICA, INTELIGENCIA ARTIFICIAL, DERECHOS Y GARANTÍAS CONSTITUCIONALES, PODER JUDICIAL, DERECHO, COMPARADO PROCESO JUDICIAL, ABOGADO
DEMANDA, PRUEBA, COMPETENCIA, RESOLUCIONES JUDICIALES, CORTE SUPREMA DE LA NACIÓN, DEFENSA EN JUICIO, EXPEDIENTE JUDICIAL, JUECES, SENTENCIA, PROCESO ORDINARIO, EJERCICIO PROFESIONAL, COMUNICACIONES ELECTRÓNICAS, NORMAS DE EMERGENCIA
T5-Small y su aplicación para QA en jurisprudencia de Estados Unidos de América
Análisis del fallo: “Brown v. Board of Education”
por Ing. Matías Abbona(*), Mag. Federico Gustavo López(**) y Ing. Matías Vitola(***)
Introducción
El presente trabajo tiene como finalidad mostrar las bondades y desventajas de la utilización de T5-Small – modelo de lenguaje de Google–, con su correspondiente fine-tuning y entrenamiento a los efectos de ser utilizado para responder preguntas de un documento jurídico en concreto(1).
En primer lugar, se realizará un análisis descriptivo de T5-Small. Luego, en segundo lugar, se estudiará qué tan bueno es el rendimiento de T5-Small frente a tres grandes LLM de acceso libre, como resultan ser Gemini, Chat GPT4o y DeepSeek.
Finalmente, se trazará con una mirada prospectiva los pasos a seguir en base a los distintos hallazgos que se lograron determinar en la investigación realizada por parte de este equipo; conformado por un abogado y dos ingenieros. Este trabajo representa el colofón de una actividad interdisciplinaria.
NOTA DE REDACCIÓN: Sobre el tema ver, además, los siguientes trabajos publicados en EL DERECHO: La obra de “software” está amparada en la ley de propiedad intelectual Nº 11.723, por INÉS B. LANGENAUER, ED, 176-415; El software, ¿obra protegida?, por MIGUEL ÁNGEL EMERY y MARCELO GARCÍA SELLART, ED, 176-241; Aplicación de los tratados y convenios internacionales a los derechos de propiedad intelectual. Marcas, fonogramas, software, por MIGUEL ÁNGEL EMERY, ED, 177-601; La patentabilidad del software llamado “Método de Negocio” (Business Method) en los Estados Unidos, por JORGE D. PÉREZ GRANDI, ED, 189-740; Contratos informáticos. Provisión de software. Obligación de resultado. Importancia de la etapa precontractual y del deber de información, por HUGO ALFREDO VANINETTI, ED, 229-452; Contratos de software y consultoría profesional en la República Argentina. Redacción, análisis e implicancias legales, por FEDERICO FRACHIA SABARÍS, ED, 261-570; Armando el rompecabezas: la propiedad industrial e intelectual en el nuevo Código Civil y Comercial, por MARCELO GARCÍA SELLART, ED, 264-539; Los derechos de propiedad intelectual en el marco de los ADPIC, por BERNAN YAMILE, Revista de Derecho Penal, Tomo 2018, 5; El uso de software abierto para el análisis de la evidencia digital, por PABLO A. PALAZZI y GUSTAVO PRESMAN, ED, 267-653; Aspectos legales del software en la Argentina, por LUCIANO TRIPPETTA, ED, 268-773; Software as a story (Protegible por derecho de autor), por MARTINA LUSKI, Derecho, Innovación & Desarrollo Sustentable, Número 3 Octubre 2021; OpenAI y el dictado de sentencias de ejecución fiscal: resultados de un pequeño diálogo con la inteligencia artificial ChatGPT, por ADOLFO A. IRIARTE YANICELLI, Derecho, Innovación & Desarrollo Sustentable, Número 11 Febrero 2023; Inteligencia artificial generativa: Desafíos éticos en el ejercicio profesional de los abogados, por MIGUEL JARA, Derecho, Innovación & Desarrollo Sustentable, Número 18 Abril 2024. Todos los artículos citados pueden consultarse en www.elderechodigital.com.ar.
(*) Ingeniero Industrial (Universidad Nacional de Cuyo), Gestión
de Producto y Proyectos en empresas como Accenture, Despegar y Google-Webhelp. Especialista en tecnología e innovación, con experiencia en Machine Learning, Generative AI y NLP. Liderazgo en transformación digital, logrando reducción de costos y mejora de eficiencia operativa. Docente universitario en metodologías ágiles y gestión de productos. matiasabbona@gmail.com.
(**) Abogado, Magíster en Magistratura y Derecho Judicial por la Universidad Austral —medalla de oro y premio mejor tesina—, Doctorando en Ciencias Jurídicas por UCA. Diplomado en Inteligencia Artificial por la Universidad Austral. Profesor por concurso de la materia Taller de Análisis de Jurisprudencia (UCA) y profesor invitado en Universidad Austral y UNPAZ. Auditor Líder de norma ISO 9001:2015. Defensor Ad Hoc en Ministerio Público de la provincia de Buenos Aires. f.g.l.paulini@gmail.com.
(***) Ingeniero Industrial (UTN), Diplomado en Inteligencia Artificial (Universidad Austral), con experiencia en análisis de datos, mejora de procesos y transformación digital. Actualmente investiga y desarrolla soluciones en IA aplicada a la optimización de procesos y business intelligence. Se desempeña como Analista de BI en INDEC y docente en programas ejecutivos de analítica de datos. matiasvitola93@gmail.com.
(1) Todo lo vertido en el presente trabajo no representa de modo alguno una postura institucional de aquellos lugares en donde los autores se desempeñan o desempeñaron laboralmente.
El uso de un modelo pre-entrenado tiene importantes ventajas ya que reduce los costos de computación, la huella de carbono, y permite utilizar modelos de última generación sin tener que entrenar uno desde cero(2). Es por ello que acudir a T5-Small resulta a priori una decisión acertada, como ya veremos.
T5-Small
El modelo que se encuentra bajo estudio resulta ser una de las versiones más pequeñas de la familia T5 (Text-toText Transfer Transformer), que ha sido desarrollado por Google.
T5-Small es un modelo que convierte todas las tareas de procesamiento de lenguaje natural (NLP) en tareas de “texto a texto”, siendo esta su característica distintiva.
Cabe destacar que este modelo tiene 60 millones de parámetros.
Los parámetros son aspectos del modelo que se ajustan durante el proceso de entrenamiento para ayudar a este a predecir con precisión la salida que debe otorgar(3). Cabe destacar que el rendimiento y la potencia predictiva del modelo dependen en gran medida de los valores de estos parámetros(4). Y es que modelos más complejos requieren necesariamente más parámetros(5).
La elección de esta herramienta –T5-Small– se basa en que un modelo con menor cantidad de parámetros resulta mucho más veloz y accesible para entrenar y requiere menor poder computacional.
En ese sentido, cabe mencionar que a la hora de utilizar nuestro modelo se acudió únicamente al GPU que ofrece Google Colab para trabajar en Python. Esta última afirmación merece tres definiciones. En primer lugar, un GPU es un componente hardware especializado en el procesamiento de gráficos y operaciones paralelas. En segundo lugar, Google Colab es un servicio en la nube gratuito que permita ejecutar notebooks. En tercer y último lugar, Python resulta ser el lenguaje de programación más popular en la actualidad. Uno de los motivos por los cuales este lenguaje goza de esta característica es por la facilidad que reviste para poder trabajar en él, a diferencia de otros lenguajes.
Como se mencionó, T5-Small consiste en tareas textotexto, donde la entrada y la salida siempre son cadenas de texto, y esta es la gran diferencia con los modelos estilo BERT, que solo pueden generar una etiqueta de clase o un fragmento de la entrada(6).
Los usos prácticos que se le puede dar a T5-Small son, entre otros, cualquier tarea de procesamiento de lenguaje natural (NLP), incluyendo traducción automática, resumen de documentos y tareas de clasificación (por ejemplo, análisis de sentimientos). Incluso podemos aplicar T5 a tareas de regresión entrenándolo para predecir la representación en cadena de un número(7).
En lo que interesa para este trabajo, se puede utilizar el modelo para responder preguntas (QA).
Fine-Tuning
Cuando se utiliza un modelo como con el que hemos trabajado, y se lo entrena con un dataset específico para una tarea, a esto se lo conoce como fine-tuning, una técnica de entrenamiento increíblemente poderosa(8).
-
- Ver https://huggingface.co/docs/transformers/v4.19.0/es/ training?utm_source=chatgpt.com (último acceso: 4-II-2024).
- Ver https://dataplatform.cloud.ibm.com/docs/content/wsj/wsc ommon/glossary-wx.html?context=wx&locale=es&utm_source=chatgpt. com (último acceso: 13-II-2025).
- Idem.
- SOSA ESCUDERO Walter, Viajar al futuro (y volver para contarlo) La ciencia detrás de los pronósticos, Editorial Siglo XXI, 1a edición, Ciudad Autónoma de Buenos Aires, p. 178.
- Ver https://huggingface.co/google-t5/t5-small#model-details (último acceso: 7-XII-2024).
- Ver https://huggingface.co/google-t5/t5-small#uses (último acceso: 7-XII-2024).
Podemos definir a esta actividad como “el proceso de adaptar un modelo previamente entrenado para tareas o casos de uso específicos. Se ha convertido en una técnica fundamental de deep learning, especialmente en el proceso de entrenamiento de modelos fundacionales utilizados para la IA generativa”(9).
Lo que debe tenerse en cuenta detrás del concepto del fine-tuning es que, esencialmente, es más fácil y barato perfeccionar las capacidades de un modelo base pre-entrenado –T5-Small– que ya ha adquirido amplios aprendizajes relevantes para la tarea en cuestión que entrenar un nuevo modelo desde cero para ese propósito específico(10). Y es que esto resulta especialmente cierto en el caso de los modelos de deep learning con millones o incluso miles de millones de parámetros, como los modelos de lenguaje de gran tamaño (LLM) que han cobrado protagonismo en el campo del procesamiento de lenguaje natural(11).
El gran valor que aporte el fine-tuning, y por lo cual es tan valorado, es que puede aprovechar el amplio conocimiento y la estabilidad obtenidos del entrenamiento previo en un conjunto masivo de datos y perfeccionar la comprensión del modelo de conceptos más detallados y específicos(12).
Frente a lo explicado hasta ahora, resulta oportuno comentar que se decidió trabajar con un fallo que resultase relevante históricamente en la jurisprudencia de los Estados Unidos de América.
El fallo escogido fue “Brown v. Board of Education”. Este trabajo no busca explicar el contenido de este hito en la historia jurídica del país del Norte, pero cabe aclarar que la elección de esta sentencia se debe a la lucha que representó contra la discriminación de las personas de color en las escuelas de aquella nación.
A los efectos de adaptar T5-Small al mundo jurídico para que pueda proporcionar respuestas a preguntas que se le realice respecto al histórico fallo “Brown v. Board of Education” se ha llevado a cabo el fine tuning del modelo(13).
Se le han brindado al modelo distintas preguntas –varios cientos en distintas oportunidades– con sus correspondientes respuestas respecto al fallo en cuestión, para que luego le resulte “familiar” el texto sobre el que se le iba a interrogar.
Solo a modo de ejemplo, en el marco del proceso de fine-tuning antes referenciado, algunas de las preguntas con sus correspondientes respuestas fueron las que seguidamente se consignarán en el mismo formato de código en que fueron utilizadas en Google Colab: 1) “{“question”: “What was the main issue in the Brown v. Board of Education case?”, “answer”: “The main issue in *Brown
- Board of Education* was the constitutionality of racial segregation in public schools, specifically whether the doctrine of ‘separate but equal’ established by *Plessy v. Ferguson* was consistent with the Equal Protection Clause of the 14th Amendment.”}, 2) “{“question”: “Who was the lead plaintiff in Brown v. Board of Education?”, “answer”: “The lead plaintiff in *Brown v. Board of Education* was Oliver Brown, a parent who sought to enroll his daughter, Linda Brown, in a public school that was closer to their home but was restricted due to racial segregation.”},”; y 3) “{“question”: “What was the Supreme Court’s decision in Brown v. Board of Education?”, “answer”: “In *Brown v. Board of Education*, the Supreme Court ruled unanimously that racial segregation in public schools violated the Equal Protection Clause of the 14th Amendment, effectively overturning the *Plessy
-
- Ver https://huggingface.co/docs/transformers/v4.19.0/es/ training?utm_source=chatgpt.com (último acceso: 4-II-2025).
- IBM, “¿Qué es el fine-tuning”, se puede consultar en https:// www.ibm.com/es-es/think/topics/fine-tuning?utm_source=chatgpt. com, último acceso: 13-II-2025.
- Idem.
- IBM, ¿Qué es el fine-tuning”, se puede consultar en https:// www.ibm.com/es-es/think/topics/fine-tuning?utm_source=chatgpt. com, último acceso: 13-II-2025.
- IBM, ¿Qué es el fine-tuning”, se puede consultar en https:// www.ibm.com/es-es/think/topics/fine-tuning?utm_source=chatgpt. com, último acceso: 13-II-2025.
- Se le proporcionó al modelo en una oportunidad 10 preguntas y respuestas relacionadas con el fallo de mención. Cabe destacar que se ha aumentado las cantidad de preguntas y respuestas a cientos para analizar si esto tenía efectos positivos en el fine-tuning. Lo que se halló es que los valores de Loss varían notablemente, pero los resultados a las preguntas que se le hacen al modelo modificado siguen siendo las mismas. Es decir, no se modifican en absoluto pese al cambio de estrategia en el modo de encarar el proceso de fine-tuning.
- Ferguson* decision and declaring ‘separate but equal’ unconstitutional.”}”(14).
Uno de los rendimientos del proceso de fine-tuning –de los muchos intentos que se llevaron a cabo– fue por ejemplo el siguiente:
“Epoch 1/6, Loss: 12.43264102935791 Epoch 2/6, Loss: 8.594088077545166 Epoch 3/6, Loss: 8.391762018203735 Epoch 4/6, Loss: 6.9165709018707275 Epoch 5/6, Loss: 6.184718132019043 Epoch 6/6, Loss: 3.8284988403320312”
“Epoch” (o época) representa una iteración completa a través de todo el conjunto de datos de entrenamiento (las preguntas y respuestas). En este caso, se está realizando el entrenamiento en 6 épocas. Y cada época es una pasada completa del modelo sobre los datos.
Por otro lado, “Loss” representa la “pérdida” que resulta ser una medida que indica cuán bien o mal está funcionando el modelo T5-Small. Resulta ser el valor que el modelo trata de minimizar durante el proceso de entrenamiento.
En ese sentido, un valor de pérdida bajo indica un modelo que está haciendo buenas predicciones, mientras que un valor alto sugiere exactamente lo contrario. En este caso, la pérdida se mide durante las épocas de entrenamiento, y se espera que disminuya con el tiempo a medida que el modelo mejora.
Frente a lo afirmado, resulta menester analizar estos valores en el entrenamiento realizado:
- “Epoch” 1/6, “Loss”: 12.43264102935791: En la primera época, el valor de la pérdida es 12.43, lo que indica que al principio el modelo no está haciendo buenas predicciones en absoluto
- “Epoch” 2/6, “Loss”: 8.594088077545166: En la segunda época, la pérdida ha disminuido a 8.59, lo que indica que el modelo ha comenzado a mejorar notablemente.
- “Epoch” 3/6, “Loss”: 8.391762018203735: La pérdida continúa disminuyendo a 8.39 en la tercera época, aunque el cambio es más pequeño que en la primera reducción. Lo que implica un obstáculo en el proceso.
- “Epoch” 4/6, “Loss”: 6.9165709018707275: En la cuarta época, la pérdida sigue bajando a 6.92, lo que indica que el modelo está aprendiendo y ajustándose mejor a los datos. Tuvo una disminución más considerable que en la época anterior, lo cual resulta positivo.
- “Epoch” 5/6, “Loss”: 6.184718132019043: La pérdida sigue cayendo a 6.18, lo que demuestra que el modelo sigue mejorando en el ajuste de sus predicciones. De todas formas la disminución en el valor de pérdida no es significativa. Y representa cierta alarma.
- “Epoch” 6/6, “Loss”: 3.8284988403320312: Al final de la sexta época, el valor de la pérdida se reduce aún más a 3.83, lo que indica que el modelo está mucho mejor ajustado a los datos. Implica una disminución altamente positiva para el modelo.
- Rendimiento de T5-Small en comparación con Gemini, Chat GPT-4o y DeepSeek
En primer lugar, debe destacarse que a la hora de solicitar respuestas a T5-Small, en ningún momento se especificó en las líneas de código cuántas debían ser la cantidad de palabras de los resultados arrojados.
Caso contrario fue lo realizado en Gemini, Chat GPT4o y DeepSeek donde se solicitó que la cantidad de palabras de cada una de las respuestas no fuera mayor a 15. Asimismo, se solicitó que las respuestas fueran siempre en el idioma inglés.
En segundo lugar, y atento al cuadro comparativo que se expone más abajo, cabe mencionar que se marcará con color verde aquellas respuestas que haya arrojado T5-Small que resulten mínimamente aceptables, pese a utilizar términos inapropiados o sus respuestas sean reiterativas, como ya se verá. De esta forma, aquellas respuestas que no se encuentren seleccionadas, significa que la devolución brindada por nuestro modelo entrenado ha sido realmente deficiente o directamente inaceptable(15).
-
- Cabe destacar que el resaltado en la presente transcripción no se encuentra en las líneas de código desarrolladas y solo existe en esta publicación a los efectos ilustrativos.
- Resulta relevante mencionar que toda la información consignada en el cuadro comparativo que se exhibe en el presente paper resultan ser transcripciones fidedignas de lo que ha arrojado cada modelo, no siendo alteradas por los autores. La información no resulta ser una opinión personal de ninguno de los participantes respecto al caso “Brown
- Board of Education” y solo se analiza la pertinencia de los resultados arrojados en términos de coherencia –con el caso– y semántica.
Estos fueron los resultados al consultar en los 4 modelos:
| Preguntas | Gemini | Chat GPT-4o | DeepSeek | T5-Small |
| “What is the date of the sentence?” | “May 17, 1954.” | “May 17, 1954.” | “The date of the Brown v. Board of Education decision was May 17, 1954” | “1952”(****) |
| “Who are the parties involved in the sentence?” | “Board of Education of Topeka, Kansas.” | “Brown and the Board of Education of Topeka.” | “The parties involved were Oliver Brown et al. (plaintiffs) and the Board of Education of Topeka (defendant)” | “minors of the Negro race(*****), through their legal representatives, seek the aid of the courts in obtaining admission to the public schools of their community on a nonsegregated basis” |
| “What is the subject matter of the sentence?” | “School segregation.” | “Racial segregation in public schools.” | “The subject matter was racial segregation in public schools and its constitutionality under the Equal Protection Clause” | “equality of treatment is accorded when the races are provided substantially equal facilities” |
| “What is the message of the sentence?” | “Separate is unequal.” | “Segregation in public education is unconstitutional under the Fourteenth Amendment.” | “The message is that racial segregation in public schools is unconstitutional and violates the Fourteenth Amendment” | “equality of treatment is accorded when the races are provided substantially equal facilities” |
| “What was the legal question the court needed to resolve?” | “Is segregation legal?” | “Whether racial segregation in public schools violates the Equal Protection Clause.” | “The legal question was whether racial segregation in public schools violated the Equal Protection Clause” | “their consideration together in this consolidated opinion” |
| “What constitutional provisions are discussed in the sentence?” | “14th Amendment.” | “The Fourteenth Amendment’s Equal Protection Clause.” | “The Fourteenth Amendment’s Equal Protection Clause is the constitutional provision discussed in the case” | “equality of treatment is accorded when the races are provided substantially equal facilities, even though these facilities be separate” |
| “What was the Supreme Court’s decision in this case?”, | “Segregation is unconstitutional.” | “The Court ruled that racial segregation in public schools is unconstitutional.” | “The Supreme Court unanimously ruled that racial segregation in public schools was unconstitutional”. | “that the plaintiffs be admitted to the white schools because of their superiority to the Negro schools” |
| “What were the key arguments presented by the plaintiffs?” | “Separate schools are unequal.” | “Segregation caused psychological harm and violated the Equal Protection Clause of the Fourteenth Amendment.” | “The plaintiffs argued that segregation harmed black children and violated the Fourteenth Amendment’s Equal Protection Clause” | “their superiority to the Negro schools” |
| “What were the key arguments presented by the defendants?” | “Segregation can be equal.” | “Segregation was lawful under “separate but equal” established by Plessy v.
Ferguson.” |
“The defendants argued that segregation was legal under “separate but equal” and provided equal facilities” | “the Supreme Court of Delaware adhered to that doctrine, but ordered that the plaintiffs be admitted to the white schools because of their superiority to the Negro schools” |
| “What is the impact of this sentence on public education?” | “Desegregation of schools.” | “It led to the desegregation of public schools across the United States.” | “The decision ended legal segregation in public schools, promoting integration and equal educational opportunities for all races” | “that the plaintiffs be admitted to the white schools because of their superiority to the Negro schools” |
| “What is the precedent set by this sentence?” | “Separate is unequal.” | “It overturned Plessy v. Ferguson and declared “separate but equal” unconstitutional in public education.” | “The precedent set is that racial segregation in public schools violates the Equal Protection Clause” | “the adoption of the Fourteenth Amendment in 1868” |
| “Who delivered the opinion of the court?” | “Chief Justice Earl Warren. | “Chief Justice Earl Warren delivered the opinion of the Court.” | “Chief Justice Earl Warren delivered the unanimous opinion of the court” | “Earl Warren Brown v. Board of Education of Topeka (1954) 1 MR. CHIEF JUSTICE WARREN” |
| “How did this case address the principle of ‘separate but equal’?” | “Declared ‘separate but equal’ unconstitutional.” | “It declared “separate but equal” unconstitutional in the context of public education.” | “The case overturned “separate but equal,” ruling that segregated schools are inherently unequal and unconstitutional”. | “equality of treatment is accorded when the races are provided substantially equal facilities, even though these facilities be separate” |
| “What role did the Fourteenth Amendment play in the decision?” | “Guaranteed equal protection.” | “The Fourteenth Amendment’s Equal Protection Clause was central to declaring segregation unconstitutional.” | “The Fourteenth Amendment’s Equal Protection Clause was central, ensuring equal protection under the law for all races” | “equal protection of the laws” |
| “What was the historical context of this case?” | “Post-Civil War racial segregation.” | “It challenged racial segregation following decades of “separate but equal” policies in public facilities.” | “The case arose during the Civil Rights Movement, challenging systemic racial segregation in the United States” | “a common legal question justifies their consideration together in this consolidated opinion” |
| “How has this case influenced subsequent civil rights litigation?” | “Inspired other civil rights cases.” | “It served as a foundation for challenging segregation and discrimination in various areas.” | “Inspired numerous significant cases in the history of civil rights.” | “a common legal question justifies their consideration together in this consolidated opinion” |
(****) En las reiteradas pruebas que se hicieron, siempre nuestro modelo arrojó el mismo resultado. Es decir, una fecha muy cercana a la que resultaba ser la correcta. Este ejemplo resulta especialmente importante ya que se hizo hincapié en la mejora de este resultado, siendo la respuesta arrojada que se exhibe la que mejor pudo brindar el modelo.
(*****) El modelo T5-Small arrojó el término “negro race” pero resulta ser una expresión totalmente inapropiada, el cual este equipo de trabajo desaprueba enfáticamente.
Aquí se exponen 16 consultas realizadas a los cuatro modelos que figuran arriba.
En el caso de T5-Small, de las 16 preguntas efectuadas, respondió de manera –al menos– aceptable es 10 oportunidades, representando una porcentaje de acierto del 0,625, es decir, un 62,5%.
Se puede graficar el rendimiento de los distintos modelos del siguiente modo, para que resulte más ilustrativo(16):
En el caso de que el lector opte por la segunda opción, se avizoran dos posibilidades. Ellas son la utilización de T5 base o T5 large, ambos modelos más “poderosos” que T5-Small.
Y es que esta última herramienta tiene 60 millones de parámetros. T5 base tiene 220 millones de parámetros. Y, finalmente, T5 large tiene 770 millones de parámetros.
El siguiente gráfico permitirá apreciar la diferencia en el tamaño de los modelos antes mencionados(19):
Resulta menester destacar que las respuestas arrojadas por nuestro modelo son las mismas que fueron arrojadas sin que T5 fuera sometido a fine-tuning. Es decir, aunque se estudió que esta actividad registró buenos resultados en términos de “loss”, esto no se tradujo en los resultados al llevar a cabo la tarea de “QA”.
Otro detalle a tener en cuenta es que para preguntas distintas arroja respuestas exactamente iguales, independientemente de que estas últimas sean –o no– correctas.
Por ejemplo, a las preguntas “What is the subject matter of the sentence? y “What is the message of the sentence?” la respuesta es: “equality of treatment is accorded when the races are provided substantially equal facilities”. Y esta respuesta es aceptable.
Lo mismo sucede cuando arroja una respuesta incorrecta. A las preguntas “What was the historical context of this case?” y “How has this case influenced subsequent civil rights litigation?”, la respuesta fue: “a common legal question justifies their consideration together in this consolidated opinion”.
Mención aparte merece lo preocupante que resulta que T5-Small utilice en distintas ocasiones el término “negro”, cuando sus competidores en ningún momento lo utilizan. Una pregunta obligada resulta ser: cuanto más potente resulta ser el lenguaje ¿existe menos oportunidades de que utilice términos discriminatorios? Sin lugar a dudas este interrogante merece una investigación aparte.
Podemos afirmar que T5 Small es un modelo de lenguaje menos poderoso que sus competidores referidos en el gráfico brindado más arriba. Sin embargo, las limitaciones del mismo resultan ser un valioso descubrimiento en esta investigación que se expone.
Y es que aprendemos de los límites del modelo en la medida en la que nos revelan la existencia de hasta dónde llega la capacidad actual de la herramienta que nos proporciona Google, así como en los horizontes de nuestra imaginación(17).
Estas limitaciones son verdaderas “joyas” en nuestra investigación que nos muestran el camino a seguir hacia un estado objetivo, donde podamos ver apropiadamente cuál es el próximo paso a dar(18).
¿Qué puntos salientes se pueden destacar sobre el T5Small sin una mirada necesariamente prospectiva? Se puede considerar que un 62,5% de “aciertos” –aunque no sean las respuestas más sobresalientes– resulta llamativo –positivamente– en la medida en que solamente se ha utilizado el GPU que proporciona Google Colab y que el modelo en sí, es el más “pobre” en términos computacionales de la familia T5.
Estrategia a futuro
Frente a todo lo expuesto, se puede afirmar que la continuación de este proyecto platea un desafío que a su vez constituye una encrucijada.
La pregunta clave es la siguiente: ¿debemos migrar a otro modelo de lenguaje o deberíamos permanecer dentro de los modelos de la familia T5?
- ROTHER, Mike, Toyota Kata, Profit Editorial con la colaboración de Instituto Lean Management, 1ª edición, 2017, España, p. 164.
- Idem, p. 164.
Uno de los obstáculos que encontrará el lector al buscar trabajar con T5-Base y T5-Large es que al ser modelo más demandantes, no le alcanzará el GPU que proporciona por ejemplo Google Colab para trabajar con el modelo. En consecuencia, se deberá acudir a un servicio en la nube para acudir a un GPU mucho más potente. En ese sentido, el servicio que brinda AWS luce como uno de los caminos idóneos para comenzar a trabajar con estos nuevos –y mejorados– modelos. La gran desventaja de esta alternativa es que implica una erogación de dinero, siendo que para entrenar el modelo T5 Small no hizo falta.
En conclusión, si existe posibilidad de inversión en el proyecto que uno emprenda, luce como la opción más adecuada migrar a un modelo mucho más demandante en términos computacionales.
Conclusiones
Se puede afirmar que utilizando la versión más “básica” de T5, por sobre otras ediciones como resultan ser T5-Base que tiene 220 millones parámetros o T5-Large que tiene 770 millones de parámetros, se puede emprender –de manera exploratoria– la tarea del análisis de un documento legal.
Se ha hallado que en un número para nada despreciable –teniendo en cuenta el bajo gasto computacional inherente– se puede obtener algunas respuestas semejantes a grandes LLMs como resultan ser Gemini, Chat GPT y DeepSeek. Es decir, la versión más modesta de T5 puede realizar tareas semejantes a la de los grandes modelos de lenguaje antes mencionados, independientemente de sus limitaciones.
En resumen, T5-Small es una versión más liviana y accesible del modelo T5 que sigue siendo –en buena medida– poderosa para tareas de NLP en escenarios de recursos limitados. Y es en ese sentido que la utilización y puesta en práctica de este modelo resulta una actividad valiosa para estudiar la posibilidad de escalar un proyecto de inteligencia artificial de análisis de textos legales a modelos más costosos en términos computacionales.
El primer gran hallazgo de este trabajo es, entonces, la evidencia que existe respecto a los resultados positivos que se obtiene con un modelo muy poco demandante, generando una gran expectativa por los resultados que se podrán obtener con otros modelos de su tipo. La lógica de su aplicación es la misma, pero los requerimientos variarán respecto a la ambición del proyecto y el nivel de eficacia y eficiencia que pretendamos. Y qué es lo que nos sea exigido también, por los requerimientos inherentes de la tarea emprendida.
El segundo hallazgo resulta ser que no se necesitó realizar inversión de dinero alguna, toda vez que el finetuning –las preguntas y respuestas con las que se “alimentó” a T5-Small– y ejecución del modelo se realizó en la versión gratuita de Google Colab. Y, cabe destacar, se prescindió de todo tipo de servicio en la nube. Es decir, no resulta necesaria una inversión de dinero para poder acceder a GPUs que permitieran que se pudiera trabajar con este modelo de la familia T5.
- Imagen generada con ChatGPT 4 Turbo, en fecha 12-II-2025.
El tercer y último hallazgo importante, y que resulta crucial para aquellos que emprendan cualquier proyecto con T5-Small, es que –al menos– con la experiencia que este equipo ha tenido al realizar fine-tuning, los resultados obtenidos luego de este procedimiento no varían respecto a la versión del modelo sin fine-tuning. El interrogante lógico que se abre es si llevar a cabo esta tarea en otro proyecto podría tener un impacto, aunque sea mínimo, o correrá la misma suerte que en la actividad que se exhibió en este trabajo.
Necesitamos a priori concluir que existen limitaciones inherentes al modelo T5-Small, en comparación con versiones más avanzadas como T5 Base o T5 Large, que conlleva que por más que se busque mejorar el rendimiento a través de fine-tuning, las respuestas seguirán siendo de la misma calidad. En el caso bajo estudio, las respuestas son exactamente idénticas.
A modo de colofón, y al advertir la posibilidad de recurrir a otros modelos de la familia T5 –computacionalmente mucho más costosos–, se puede afirmar que T5-Small resulta alentador para cualquier tipo de proyecto en donde el usuario tenga nulos o escasos recursos; y no resulte prioritario un nivel de eficacia y eficiencia altos.
Bibliografía
IBM; “¿Qué es el fine-tuning”, https://www.ibm.com/ es-es/think/topics/fine-tuning?utm_source=chatgpt.com, (último acceso: 13/02/2025).
Rother, Mike; Toyota Kata, Profit Editorial en colaboración con el Instituto Lean Management, 1ª edición, 2017, España.
Sosa Escudero, Walter; Viajar al futuro (y volver para contarlo) La ciencia detrás de los pronósticos, Editorial Siglo XXI, 1ª edición, Ciudad Autónoma de Buenos Aires. https://huggingface.co/docs/transformers/v4.19.0/
es/training?utm_source=chatgpt.com (último acceso: 04/02/2024).
https://dataplatform.cloud.ibm.com/docs/content/wsj/ wscommon/glossary-wx.html?context=wx&locale=es& utm_source=chatgpt.com (último acceso: 13/02/2025).
https://huggingface.co/google-t5/t5-small#model-details (último acceso: 07/12/2024).
https://huggingface.co/google-t5/t5-small#uses (último acceso: 07/12/2024).
https://huggingface.co/docs/transformers/v4.19.0/ es/training?utm_source=chatgpt.com (último acceso: 04/02/2025).
VOCES: INTELIGENCIA ARTIFICIAL, RESPONSABILIDAD CIVIL, DERECHOS DE AUTOR, INFORMÁTICA, TECNOLOGÍA, PROPIEDAD INTELECTUAL
DAÑOS Y PERJUICIOS, DAÑO MORAL, CÓDIGO CIVIL Y COMERCIAL, DERECHO COMERCIAL
DAÑO, TRATADOS Y CONVENIOS, ORDEN PÚBLICO, PERSONAS JURÍDICAS, PRINCIPIOS GENERALES DEL DERECHO, INTERNET, PODER JUDICIAL, DERECHOS Y GARANTÍAS CONSTITUCIONALES, CONTRATOS, OBLIGACIONES, ECONOMÍA
“Datos biométricos y privacidad: La corte chilena refuerza la protección de datos de NNA en la era digital”
Comentario fallo: Tercera Sala Corte Suprema de Chile, “Lagos Gerding c/ Woldcoin SpA s/ Acción Constitucional, 06/02/2025
Autoras :
Dra. Karina Vanesa Salierno
Dra. Susana Eloísa Mender Bini
SUMARIO: I.- Introducción; II.- Los hechos; III.- Marco normativo internacional e interno; IV.- Biometría; V.- Derechos en riesgo, VI.- Conclusiones; VII.- Bibliografía.-
I.- Introducción
Afirma Stefano Rodotá “Mientras que resulta reductivo y peligroso afirmar que “somos nuestros datos”, lo cierto es que nuestra vida es hoy un constante intercambio de informaciones, que vivimos en un flujo ininterrumpido de datos, de manera que construcción, identidad y reconocimiento de la persona dependen de modo inseparable de cómo se considere el conjunto de datos que la afectan”.
La protección de los datos personales siempre ha sido un tema de análisis y discusión en los ordenamientos jurídicos ya que en su abordaje se ponen en juego los derechos fundamentales de las personas. En la modernidad la preocupación se agudiza por el entrecruce de estos derechos y la tecnología dentro del ecosistema digital.
La evolución del estudio sobre la protección de los datos personales dio nacimiento al concepto de autodeterminación informativa como derecho fundamental de gobernanza de datos. En este sentido, cada persona tiene derecho a gobernar y a tener el dominio de sus datos personales.
El derecho a la protección de datos, remite a la ley, que, en la configuración del ecosistema digital, resulta insuficiente y no basta para protegerlos. Villey afirmaba que los derechos del hombre están cotizados como nunca en los tiempos actuales, y los datos son una herramienta de poder y control. En el llamado “capitalismo de vigilancia” se debe trabajar en el desarrollo de nuevos diseños tecnológicos donde el derecho a la protección de datos personales esté basado en la confianza entre las partes intervinientes en el tratamiento de datos, por ello resulta fundamental trabajar desde dos perspectivas, la preventiva y la reparadora a los efectos de proteger y reparar las relaciones de confianza. El Diccionario del Español Jurídico de la Real Academia Española define al derecho a la protección de datos personales como el “derecho fundamental de toda persona física que la faculta para disponer y controlar sus datos de carácter personal, pudiendo decidir cuáles proporcionar a terceros como así conocer quién posee esos datos y para qué, y oponerse a esa posesión o tratamiento” y el derecho a la autodeterminación informativa o libertad informática como el “derecho a controlar la información que de uno mismo tienen terceros” y el “derecho a conocer, acceder, rectificar y cancelar los datos personales contenidos en ficheros o archivos informáticos; se denomina también derecho a la protección de datos”.
El problema no es solo de la persona que busca protegerse de interferencias externas sino en no confiar exclusivamente la construcción de la identidad en otros que quieren organizar nuestros datos según sus propios fines, que tienen como fin mantener el control sobre nuestros datos, que en definitiva es el control sobre nuestro propio cuerpo. El reconocimiento de la protección de datos como derecho fundamental cumple según RODOTA “…con el objetivo de mantener la relación entre la persona y el cuerpo, ya no enclaustrado en los confines de la fisicidad y en el secreto de lo psíquico, sino realmente dislocado, entregado a los infinitos bancos de datos que dicen al mundo quiénes somos”.
Este desdoblamiento que se configura en los datos digitalizados pone en crisis también el derecho a la identidad. Por ello, la soberanía sobre el cuerpo y la identidad se concreta en el derecho a acceder a nuestros datos.
Ciertas combinaciones de datos personales, como los datos biométricos, pueden identificar a un niño de forma determinante. Las prácticas digitales, como el procesamiento automatizado de datos, la elaboración de perfiles, la selección de comportamientos, la verificación obligatoria de la identidad, el filtrado de información y la vigilancia masiva, se están convirtiendo en procedimientos de rutina y se están naturalizando.
Estas prácticas pueden dar lugar a una injerencia arbitraria o ilegal en el derecho de los niños, niñas y adolescentes a la privacidad y pueden también tener consecuencias adversas para estos, cuyo efecto podría continuar en etapas posteriores de su vida.
La injerencia en la vida privada de un niño, niña o adolescente solo es admisible si no es arbitraria o ilegal. Por tanto, toda injerencia de este tipo debe estar prevista por la ley, tener una finalidad legítima, respetar el principio de minimización de los datos, ser proporcionada, estar concebida, argumentada y justificada en el principio del interés superior del niño y no debe entrar en conflicto con las disposiciones, los fines y los objetivos de la Convención de los Derechos del Niño (CDN) y las normas que se han dictado en consecuencia.
II.- Los hechos
El abogado Rodrigo Lagos Gerding interpuso un recurso constitucional de protección en representación de su hija F.A.L.V., de 17 años de edad, contra la empresa Worldcoin a través del cual impugnó el almacenamiento y tratamiento de los datos personales de la menor que fundamentó en que la recolección y almacenamiento no consentido de datos biométricos (específicamente, el escaneo de su iris) afectan sus derechos constitucionales.
Argumentó que este procedimiento fue realizado sin información previa adecuada ni su consentimiento válido, lo que resulta ilegal y arbitrario y vulnera sus garantías constitucionales consagradas en el artículo 19 N° 1, 4 y 24 de la Constitución Política de la República de Chile.
Asimismo, remarcó que ante la falta de consentimiento informado de la menor, la conducta de la empresa Worldcoin Spa fue deshonesta, por no advertir los peligros que esto conlleva, situación que vulnera gravemente el derecho a la privacidad de su representada, su integridad física y psíquica y su derecho a la propiedad, pues la acción realizada por la recurrida ha tenido por finalidad obtener, de forma arbitraria, información que es carácter personalísimo de ella, siendo dicha venta asimilable a aquellas transacciones de bienes incomerciables e inalienables, poniendo en riesgo sus garantías constitucionales.
Por su parte, la defensa de la empresa indicó que los datos fueron eliminados y respaldó su afirmación con un documento emitido por Tools for Humanity Corporation que afirma que se que eliminó de la base de datos de Word App todos los datos personales vinculados a la “billetera digital” del código ID entregado a la citada menor. Sin embargo, el recurrente cuestionó su validez en virtud de que el documento no cumplía con los estándares legales ni de certificación exigidos por la legislación chilena. En el caso, el documento extranjero que pretende hacer valer la demandada, se presentó formato digital sin firma digital ni cadena de legalización eficaz (cita los arts 1699, 1700 y 1706 del Código Civil, arts. 345 y 345 (bis) del Código de Procedimiento Civil, Ley Nº 20.711 que implementa la Convención de la Apostilla).
Los argumentos principales del recurrente se basaron en que el escaneo del iris de la menor se hizo sin consentimiento informado; la recolección de datos biométricos de NNA es particularmente sensible y debe cumplir con protecciones reforzadas; la eliminación de los datos no fue demostrada de manera legal y verificable y en definitiva todo el proceso de extracción de datos biométricos vulneró derechos constitucionales protegidos. Por su parte, la empresa demandada, aseguró que los datos fueron eliminados voluntariamente a través de la presentación de un certificado elaborado por Tools for humanity, para demostrar la supuesta eliminación de los datos y en consecuencia desconoció la posible violación a los derechos constitucionales de la menor.
El tribunal rechazó inicialmente la acción constitucional, considerando que la empresa había eliminado los datos de la menor y respaldado su acción con un certificado. Finalmente la Tercera Sala de la Corte Suprema revocó la sentencia y acogió el recurso de protección, señalando que:
“…No se acreditó de manera legal y fidedigna la eliminación de los datos biométricos. si bien se acompañó en autos un documento de fecha 13 de mayo de 2024, emitido por Tools for Humanity Corporation, en el que se afirma haber eliminado de la base de datos aquellos de la menor referida en autos, sin embargo,sin embargo, dicha documentación no resulta suficiente a estos efectos, toda vez que tratándose de almacenamientos de datos virtuales su borrado y eliminación debe ser demostrado mediante la norma ISO 27001 Information security, cybersecurity and privacy protection puesto que es la certificación internacional y nacional idónea para la gestión de los datos, no resultando apto un certificado unilateral de la misma parte recurrida puesto que no da garantía de que lo declarado efectivamente haya acontecido …”.
En definitiva, se concluyó que la demandada vulneró el derecho a la privacidad y protección de datos personales de la menor, ya que el supuesto consentimiento no fue válido debido a la falta de información clara sobre las implicancias de la recolección de datos biométricos y señaló “ .. . las conductas denunciadas en autos, en las circunstancias anotadas, vulneran las garantías constitucionales contenidas en los numerales 1 y 4 del artículo 19 de la Constitución Política de la República, que se refieren a la integridad física y psíquica y de derecho a la privacidad, en los términos expuestos en el presente fallo en los considerandos precedentes, al recopilar y almacenar los datos biométricos de la menor de edad indicados, vulnerando el derecho a la privacidad de estos, el que no puede ceder frente a un presunto consentimiento de la joven, puesto que dicha manifestación de voluntad requiere ser verificada y acreditada con especial celo y rigurosidad …”
Por ello, ordenó a WorldCoin eliminar de manera efectiva y verificable todos los datos biométricos de la menor F.A.L.V (registro, almacenamiento y tratamiento de las bases de datos en Worldcoin y en World App), presentando documentación fidedigna ante la Corte de Apelaciones en un plazo de 30 días que dé garantías de la efectiva eliminación.
III.- Marco legislativo y derechos en riesgo
III.I.- Marco legislativo internacional
Los niños integran un grupo que ha merecido el mayor interés de la comunidad internacional. En la primera mitad del siglo XXI la niñez comenzó a vislumbrarse como una preocupación en algunos convenios de la Organización Internacional del Trabajo (OIT), en la creación del Instituto Americano del Niño (1927) durante el transcurso de la Segunda Conferencia Panamericana del Niño, en el surgimiento a partir de 1946 de “United Nations International Chlidren´s Emergency Fund” (UNICEF) en el marco de la Organización de las Naciones Unidas (ONU), y en redacción de diversos instrumentos internacionales específicamente dedicados a la niñez (la Carta de la Casa Blanca de 1930, la Carta de la infancia en tiempos de guerra de 1942, la Carta de la infancia para el mundo de posguerra de 1942, la declaración de oportunidades reconocidas al niño por el Congreso Panamericano de la Infancia de 1942, la Declaración de Caracas sobre la Salud del Niño).
En el camino del reconocimiento de derechos, la Convención sobre los derechos del Niño (CDN) significó un hito histórico para el tratamiento jurídico de la infancia y la adolescencia, que inaugura una nueva relación entre el derecho y los niños, denominada por la doctrina como el modelo o paradigma de la “protección integral de derechos”. La “doctrina de la protección integral de derechos” de modo abstracto y genérico abarca todas las dimensiones de la vida y del desarrollo de los niños, promoviendo la unificación de propósitos y acciones entre desarrollo socioeconómico y protección jurídica de la infancia. La doctrina de la protección integral de derechos ha tenido una influencia importante en Latinoamérica. Como ejemplo cabe mencionar el “Estatuto del Niño y Adolescentes” Brasil (1990); el “Código de la Niñez y la Adolescencia” de Honduras (1996); el “Código del Niño” en Uruguay (2004); La Ley 26.061 de Protección Integral de los Derechos de los Niños, Niñas y Adolescentes” de Argentina de 2005, entre otras.
Los derechos humanos de niñas, niños y adolescentes buscar derribar los estereotipos culturales de la objetivación de la infancia que caracterizaron el orden jurídico vigente durante la mayor parte del siglo XIX y XX y ese es el sentido principal de la CDN que basa su estructura en el interés superior del niño, la autonomía progresiva y el derecho del niño a ser oído.
Este conjunto de derechos reconocidos por el derecho internacional constituyen un plus de protección de la infancia. Dentro de los derechos reconocidos por la CDN, el derecho a la privacidad ocupa un lugar predominante, ya que se trata de una herramienta jurídica que posibilita la concreción de otros derechos y en particular, el desarrollo de la personalidad del niño en un ámbito de seguridad y confianza. El advenimiento de la sociedad digital y el avance de las tecnologías modificaron el entorno de confianza de los niños, niñas y adolescentes hacia lugares impensados en la época de CDN por ello, sus principios y garantías deben ser aplicados a la luz de las nuevas situaciones que ponen en riesgo la satisfacción plena de los derechos de la infancia y la adolescencia.
Así, la Observación General 25 elaborada por el Comité de los derechos del Niño, relativa a los derechos de los niños en el entorno digital establece que la privacidad es vital para la autonomía, la dignidad y la seguridad de los niños y para el ejercicio de sus derechos. En este sentido, las amenazas a la privacidad de los niños pueden provenir de la reunión y el procesamiento de datos por instituciones públicas, empresas y otras organizaciones, así como de actividades delictivas como el robo de la identidad. Por ello, ante la solicitud del consentimiento del niño para el procesamiento de sus datos, los Estados partes tienen la obligación de cerciorarse de que el niño o, según su edad y grado de madurez suficiente, sus progenitores, tutores o referentes afectivos, presten su consentimiento informado, libre y previo al procesamiento de esos datos.
Cuando el propio consentimiento del niño se considere insuficiente y se requiera el consentimiento de los padres para procesar los datos personales del niño, los Estados partes deben exigir que las organizaciones que procesan esos datos verifiquen que el consentimiento es informado, consecuente y dado por el padre o cuidador del niño. Asimismo, agrega:
“(…) 72. Los Estados partes deben garantizar que los niños y sus padres o cuidadores puedan acceder fácilmente a los datos almacenados, rectificar los que sean inexactos u obsoletos y eliminar los datos almacenados de forma ilegal o innecesaria por autoridades públicas, particulares u otras entidades, con sujeción a limitaciones razonables y legales. Deben garantizar asimismo el derecho de los niños a retirar su consentimiento y a oponerse al procesamiento de datos personales cuando la persona encargada de procesarlos no demuestre que existen motivos legítimos e imperiosos para ello. Además, deben proporcionar información a los niños, padres y cuidadores sobre estas cuestiones, en un lenguaje adaptado a los niños y en formatos accesibles … 75. Toda vigilancia digital de los niños, junto con cualquier procesamiento automatizado de datos personales conexo, debe respetar el derecho del niño a la privacidad y no debe realizarse de forma rutinaria, indiscriminada o sin el conocimiento del niño o, en el caso de niños de corta edad, de sus padres o cuidadores; tampoco debe efectuarse dicha vigilancia en entornos comerciales, educativos y asistenciales sin que exista el derecho a oponerse a ella, y siempre debe tenerse en cuenta el medio disponible menos intrusivo para la privacidad que permita cumplir el propósito deseado …”
III.II.- Marco legislativo interno
El art. 19 de la Constitución Política de la República de Chile establece los derechos constitucionales básicos de los individuos de la Nación, y en particular reconoce en su apartado 1 el derecho a la integridad física y psíquica “…El desarrollo científico y tecnológico estará al servicio de las personas y se llevará a cabo con respeto a la vida y a la integridad física y psíquica. La ley regulará los requisitos, condiciones y restricciones para su utilización en las personas, debiendo resguardar especialmente la actividad cerebral, así como la información proveniente de ella..”; el derecho a la privacidad y protección de datos personales en el apartado número 4 “El respeto y protección a la vida privada y a la honra de la persona y su familia, y asimismo, la protección de sus datos personales. El tratamiento y protección de estos datos se efectuará en la forma y condiciones que determine la ley”; y finalmente el derecho a la propiedad en el número 24 “El derecho de propiedad en sus diversas especies sobre toda clase de bienes corporales o incorporales…”.
Ley 21.430 sobre garantías y protección integral de los derechos de la niñez y la adolescencia, consagra en el art. 33 el derecho a la vida y a la protección de datos personales y expresamente establece que:
“ … los niños, niñas y adolescentes tienen derecho a la protección de sus datos personales, así como a impedir su tratamiento o cesión, según lo establecido en la legislación vigente. Cuando el tratamiento esté referido a datos de niños, niñas y adolescentes, la información dirigida a ellos deberá expresarse en un lenguaje que les sea fácilmente comprensible. Los funcionarios públicos, las organizaciones de la sociedad civil que se relacionen con la niñez y su personal deberán guardar reserva y confidencialidad sobre los datos personales de los niños, niñas y adolescentes a los que tengan acceso, a menos que su divulgación resulte indispensable para la protección de sus derechos y siempre que se tomen los resguardos necesarios para evitar un daño mayor”.
Por su parte, la ley 19.628 de protección de datos personales define a los datos sensibles en el art 2 como “… aquellos datos personales que se refieren a las características físicas o morales de las personas o a hechos o circunstancias de su vida privada o intimidad, tales como los hábitos personales, el origen racial, las ideologías y opiniones políticas, las creencias o convicciones religiosas, los estados de salud físicos o psíquicos y la vida sexual …” y en el art. 4 establece el requisito del consentimiento previo e informado del titular del dato para la autorización de su tratamiento.
Este consentimiento informado que protege el derecho fundamental a la autodeterminación informativa es un requisito que luce insuficiente frente a la dinámica que merece el tratamiento de los datos en la actualidad, en donde a partir de la evolución de las tecnologías de la información y comunicación y del incremento exponencial de la capacidad de procesamiento, se generan cantidades masivas de datos, metadatos y más datos resultantes de la mixtura de aquellos como resultado del proceso de data mining y del perfilamiento del marketing digital.
La protección jurídica de la autodeterminación informativa debe ser proporcional al avance tecnológico, cuando mayor sea la capacidad de procesamiento y perfilamiento, mayor deberá ser la tutela jurídica sino seremos víctimas de sesgo, control y manipulación constante.
IV.- Biometría y Wolrdcoin
Desde antaño, para acceder a información, recursos, etc, se han usado métodos para resguardarlos y permitir solo el acceso a ello a agentes autorizados (ej. una habitación cuenta con llave). En el mundo digital sucede de forma similar, pudiendo destacar tres métodos esenciales: a) lo que yo sé (password); b) lo que yo tengo (token) y; c) lo que yo soy (datos biométricos).
En este último grupo, cae la tecnología empleada por Worldcoin, y es por ello que, a raíz de la recolección de los datos biométricos de iris, por parte de esta empresa, surge la necesidad de realizar un abordaje analítico sobre los sistemas biométricos.
Para ello, corresponde realizar un primer acercamiento desde una perspectiva etimológica, en el que encontramos que Biometría es un término compuesto, cuyas raíces son de origen griego, por un lado “bío∫” (vida) y por otro “μέτρον” (medida).
Ahora bien, los sistemas biométricos no se reducen a meros medidores de rasgos o características fisiológicas y/o conductuales, lo que dificulta tener una única definición o conceptualización de estos. Por cuanto, los sistemas biométricos comparten las siguientes características: métodos automatizados,identifican o verifican, hacen uso de características biológicas/fisiológicas o conductuales de los individuos.
En el contexto tecnológico, la automatización es una característica clave con la que cuentan los sistemas biométricos, en comparación con otros sistemas de identificación.
Sin embargo, si bien arribar a una definición única de sistemas biométricos resulta complejo, una de las más completas es la que nos brinda Ravindra Das, al conceptualizarlo como:
“…el uso de la tecnología informática para extraer características únicas de un individuo, ya sean rasgos físicos o conductuales, a los fines de verificar y/o identificar positivamente la identidad de un individuo, de forma que pueda acceder a ciertos recursos.”
En autor hace un uso amplio de la terminología “acceso a recursos”, dado que ello abarca tanto un acceso físico (eg. una habitación o cuarto) o uno inmaterial (eg. archivos informáticos, datos personales, metadata, etc). Dichos recursos dependerán del objetivo ulterior por el cual se emplea estos sistemas en base a las necesidades de quien hace uso de dichas tecnologías.
En el caso de Worldcoin, los recursos a los que se accede, resultan ser la cuenta/cartera electrónica donde se resguardan las cryptocoins de la empresa; mediante la lectura de Iris.
Según su fundador, Sam Altman, el objetivo de dicho procedimiento pretende que se brinde una muestra de humanidad, todo ello bajo el eslogan de “no queremos saber quién eres, sino que eres”; ello a los fines de impedir que cuentas bots accedan a la criptocoin.
Una de las primeras investigaciones sobre el modelo de negocio de WorldCoin fue el MIT Technology Review, que reprochaba que la empresa, a los fines de colectar sus primeros individuos de testeo, se ubicaba en países donde la situación económica resultaba desfavorable o inestable, de escasos recursos o en situaciones críticas. Promocionaron su crypto sosteniendo que por medio de la misma facilitaban un acceso justo y parejo al mundo de la cripto-economía.
No obstante, se pudo observar otro objetivo en su agenda, obtener datos biométricos buscando crear con ello una de las bases de datos biométricos del iris más extensas que se tenga conocimiento, pero así también hay, uso posterior de esos datos y su potencial eliminación se encuentra en duda.
Para el 08 de agosto de 2023, cuando la AAIP emitía un comunicado oficial en el que informaba sobre la recolección que estaba realizando Worldcoin de datos biométricos (lectura de iris) en distintos puntos del país, el número de Orbs era inferior a 30. No obstante, en la actualidad Argentina cuenta con unos 50 puntos de recolección.
Pese haber realizado un cuestionario de preguntas a la empresa, a los fines de cerciorarse si realmente estaban implementando políticas compatibles con la Ley de Protección de Datos Personales, ninguna respuesta fue dada a conocer públicamente, quedando solo una supuesta colaboración para adaptar el modelo de negocio a la legislación local.
Dicho cuestionario requería información relativa al tipo de datos personales recolectados, si se encontraban asegurados los principios de licitud; de finalidad y calidad de los datos; de exactitud; de minimización; de información; de seguridad y de confidencialidad. En cuanto al consentimiento, si el mismo es obtenido bajo las condiciones de que sea libre, expreso, informado y revocable. También aborda las políticas de transferencias de datos por fuera de las fronteras del país y cesiones a terceros, entre otros temas abordados por la AAIP.
Lo más actual, respecto al seguimiento que la AAIP venía haciendo de WorldCoin, data del 11 de enero de 2024, por medio de la publicación de un comunicado en el cual se destaca el pedido de la agencia hacia WorldCoin en registrar en el país la base de datos, que a más de un año no se habría materializado.
IV.I.- Consentimiento informado en la recolección de datos biométricos.
Uno de los principales slogan de la empresa es permitir que cualquier persona (no importa su situación económica) acceda al mercado financiero, puntualmente al de las cryptocoins. Ahora bien, ello es a costa de la entrega de datos biométricos del Iris de las personas. Pero para edulcorar este proceso, lo realiza mediante la compensación económica, al brindar la crypto WorldCoin de la empresa (dependiendo de la disponibilidad). Es decir, que dependiendo de esta “disponibilidad”, algunos iris son más cotizados que otros.
Otra peculiaridad de este sistema radica en que el uso de Iris para reconocimiento/autenticación, implica la creación de un sistema muy robusto. Ello así, por cuanto esta característica es casi inalterable en el tiempo (salvo alguna enfermedad ocular o malformación degenerativa del globo) y por otro lado es imposible de copiar. Ello implica, que solo el usuario genuino puede acceder al sistema.
No obstante, cabe destacar que para la obtención de este rasgo biométrico, se requiere de un alto grado de cooperación por parte del usuario al que se le colecta la data. Ello marca una diferencia en relación a otras características como pueden ser el rostro o las huellas digitales.
Conforme surge del sitio web de WorldCoin, ellos aseguraban que los datos biométricos eran colectados por el Orb, pero guardados únicamente en el dispositivo del usuario (aparato celular). Sin embargo, se han reportado casos de estafadores que estarían adquiriendo los scan del Iris en el mercado negro. Ello denota, que el almacenamiento de dichos datos no queda reservado a los dispositivos personales de los usuarios.
IV.II.- Responsabilidad de empresas tecnológicas en el manejo de datos biométricos.
Desde hace ya algunos años, se exige a las empresas desarrolladoras de sistemas biométricos, que los mismos sean security by designe y privacy by designe, ello implica que cae la responsabilidad a las empresas desarrolladoras de estos sistemas que, por un lado sean robustos a los ataques de spoofing y, que por otro, brinden las protecciones suficientes respecto a la data que colectan (protección de las bases de datos principalmente).
A ello también se suma, qué en los procesos de evaluación de desempeño del sistema, las tasas de falsos positivos (FAR) y falsos negativos (FRR) se reduzca el porcentaje. Ello así, por cuanto los sistemas biométricos por naturaleza del accionar del usuario, jamás podrán ser 100% precisos. Un ejemplo de ello es el desbloqueo digital del celular, para lo cual nos piden colocar el dedo desbloqueador en diversas posiciones. La captura de dichas huellas, crean plantillas biométricas (extracción del rasgo binarizado) y las mismas son comparadas con la nueva muestra de huella (la cual será totalmente distinta a las que sirvieron para crear las plantillas guardadas en la base de datos del dispositivo móvil).
Otra cuestión a tener en cuenta es que, el que vendría a ocupar el rol de fabricante/productor del Orb y todo su sistema computacional es Tools for Humanity, empresa fundada por los mismos personajes de WorldCoin (Blania y Altman). Es decir, que los mismos que proveen la cryptocoin son los mismos que desarrollaron tanto el hardware y software del sistema biométrico de recolección. Por lo tanto, resulta incompatible con los principios de transparencia, independencia y buena gobernanza corporativa que una empresa ejerza sus funciones bajo la supervisión o control de otra entidad cuyos socios o accionistas sean sustancialmente idénticos, ya que esto pone en riesgo la objetividad y eficacia real del control interno y externo necesario para garantizar prácticas empresariales éticas y responsables.
Asimismo, dentro de los componentes principales del Orb en cuanto a procesamiento, se encuentran las placas Nvidia Jetson Xavier serie NX, las cuales fueron desarrolladas para poder ejecutar redes neuronales (un tipo de IA) de forma paralela y soportando sensores de alta resolución, como los que emplea el Orb.
Teniendo en consideración que Altman, además de ser uno de los CEO de WolrdCoin, también es conocido por ser CEO de OpenAI, la empresa madre del conocido ChatGPT (en todas sus versiones), lleva a pensar si esta recolección masiva, tiene otro objetivo tras bambalinas, como podría ser el entrenamiento de una inteligencia artificial tanto de reconocimiento -biométrica- o de generación de imágenes u otro tipo -GPT-.
El uso de los datos biométricos para entrenar una IA (por ejemplo, reconocimiento facial, voz, huellas digitales, patrones de iris, etc.) debe realizarse bajo estrictas condiciones éticas, legales y técnicas. Fundamentalmente, los datos deben ser recolectados con consentimiento informado y explícito de los usuarios, deberán aplicarse técnicas objetivas y robustas para anonimizar y proteger los datos personales y medidas estrictas para prevenir fugas o accesos no autorizados.
Se suma a ello, la investigación realizada por la Bavaria Data Protection Authority for the Private Sector respecto a WorldCoin y su compliance con la RGDP.Conforme las conclusiones arribadas por la investigación realizada, el sistema de identificación de Worldcoin conlleva varios riesgos respecto a la protección de datos de un gran número de usuarios. Asimismo, se está realizando una fuerte campaña para que los usuarios que proporcionaron sus datos biométricos de iris, puedan exigir su efectiva eliminación.
V.- Derechos en riesgo
Del análisis del caso, de los argumentos esgrimidos por las partes y del marco internacional y nacional aplicable podemos identificar la tensión existente entre los derechos de los niños, niñas y adolescentes y su interacción con el ecosistema digital. En general, el ecosistema digital representa para los NNA un ambiente en donde pueden satisfacer necesidades de educación, entretenimiento y socialización. Asimismo, es importante destacar los beneficios del acceso a la ciencia y al desarrollo tecnológico como medio de potenciar sus capacidades cognitivas.
Toda herramienta tecnológica debe cumplir con determinados estándares internacionales y nacionales relacionados con la seguridad en el tratamiento, almacenamiento y gestión de los datos personales de las personas involucradas. Cuando nos referimos a NNA, el principio del interés superior del niño, es la base sobre la cual se plantea el cuestionamiento del accionar de la demandada.
En este punto, la satisfacción del interés superior del niño, se encuentra íntimamente asociada al derecho del niño a ser oído y que su opinión sea escuchada y tenida en cuenta en cada uno de los asuntos que concierne a sus derechos fundamentales, ya que una visión adulto céntrica puede nublar los objetivos de protección especial que persigue el principio del interés superior del niño. Para ello, el niño o el adolescente debe contar con información completa y veraz que le permita ejercer su derecho de autodeterminación en base a su autonomía progresiva.
En el campo de la tecnología, la necesaria alfabetización digital de la infancia y la adolescencia se impone como deber para garantizar el derecho a la autodeterminación informativa, a la verdad, la protección de los datos personales, el cuidado de su propio cuerpo y de su imagen, el derecho a la privacidad, a la ciberseguridad, el derecho a elegir y no ser perfilados, y en definitiva el derecho a la identidad.
Cuando el niño o adolescente no esté preparado para afrontar los riesgos y amenazas que representa la sociedad digital, por su fragilidad, vulnerabilidad o su edad, será la familia, la escuela y/o el estado, los actores obligados a ponderar el efectivo ejercicio de sus derechos fundamentales en el ecosistema digital, teniendo como horizonte claro el interés superior del niño.
En el caso, quedó claro que la demandada obtuvo el escaneo del iris de la menor y en consecuencia el almacenamiento de sus datos personales en infracción del artículo 33 de la Ley N°21.430 que establece que “…cuando el tratamiento esté referido a datos de niños, niñas y adolescentes, la información dirigida a ellos deberá expresarse en un lenguaje que les sea fácilmente comprensible…”. En el caso no se le proporcionó información mínima y accesible para advertir los riesgos de la entrega de sus datos biométricos, ni impedir el uso de sus datos personales, por lo que no estaba en condiciones de entender la envergadura de aquello a lo que estaba accediendo.
VI.- Conclusiones
La sociedad digital y las nuevas características que se desarrollan en la interacción de la persona humana con la tecnología, demanda un haz de derechos que garanticen la forma de subordinación de la tecnología al individuo, preserven su dignidad y se proyecten sobre la totalidad de los ámbitos en que actúa en sociedad. Los nuevos derechos digitales son el corolario de la evolución protagonizada por la sociedad contemporánea durante las últimas décadas.
La recopilación de datos biométricos de la menor se realizó de manera ilegal y arbitraria, sin cumplir con los requisitos de consentimiento informado. La eliminación de los datos no fue suficientemente acreditada, y por lo tanto, persiste la vulneración de derechos.
El uso no autorizado o excesivo puede vulnerar derechos fundamentales de privacidad. Las IA entrenadas con datos biométricos podrían generar o reproducir sesgos basados en raza, género, edad o condiciones físicas, profundizando discriminaciones sociales.
La exposición o filtración de datos biométricos incrementa el riesgo de usurpación de identidad, dado que estos datos son irreemplazables. Los datos biométricos almacenados podrían ser objeto de ataques informáticos, comprometiendo la seguridad personal de los usuarios. Asimismo, los datos biométricos recolectados para un propósito específico podrían ser empleados para fines no consentidos, violando principios éticos y legales.
Los usuarios podrían perder el control sobre cómo y dónde son usados sus datos biométricos, afectando su autonomía digital y su capacidad de otorgar consentimiento informado. Al ser datos biométricos imposibles de modificar, cualquier vulneración o mal uso implica consecuencias permanentes e irreversibles para las personas afectadas.
Se estableció un precedente importante en la protección de datos de NNA, reforzando la exigencia de consentimiento informado y estándares de seguridad en el manejo de datos biométricos. Finalmente, se ordenó la eliminación definitiva y comprobable de los datos de la menor y se estableció la necesidad de que las empresas cumplan con normativas internacionales en la eliminación de información digital.
Este fallo refuerza el marco de protección de datos personales de niños, niñas y adolescentes en Chile, asegurando que empresas de tecnología respeten el consentimiento informado y las regulaciones sobre datos sensibles.
VII.- Bibliografía.-
1. El presente artículo se inscribe dentro del Programa IUS de Investigación Jurídica Aplicada de la Pontificia Universidad Católica Argentina (UCA) que dirige el profesor doctor Jorge Nicolás Lafferriere, concretamente en el Programa IUS titulado: “El derecho civil patrimonial frente al emergente alta tecnología. Desafíos e interpretación jurídico/patrimonial frente al avance tecnológico, la innovación permanente y el desarrollo sustentable”, que dirigen los Dres. Emiliano Carlos Lamanna Guiñazú y Matilde Pérez junto a un grupo de destacados juristas que los acompañan.
2. “Lagos Gerding c/ Woldcoin SpA s/ Acción Constitucional, 06/02/2025, : https://www.doe.cl/alerta/08012025/202501083002
3. Abogada y notaria. Doctoranda en ciencias jurídicas, magister en derecho de familia, infancia y adolescencia por la Universidad de Barcelona. Posgraduada en derecho de niños, niñas y adolescentes por la Universidad de Salamanca, en familia, infancia y adolescencia por la UBA, en derecho e inteligencia artificial por el IALAB-UBA y en el Sistema universal y europeo de protección de los derechos humanos por la Fundación Rene Cassin. Secretaria General del Consejo Académico de la UNA. Miembro honorario del Instituto Guatemalteco de Derecho Notarial. Coordinadora del Área Académica de Grooming Argentina y Coordinadora del Comité de Formación Académica y Capacitaciones de Grooming Latam. Profesora de la UNA, docente e investigadora, autora de libros y artículos de doctrina, ponente y expositora.
4. Dra. Susana Eloísa Mender Bini es abogada (UNSTA); Doctora en Ciencias Jurídicas por la Facultad de Derecho de la Universidad Católica Argentina; Master en Propiedad Intelectual e E-law (UCC, Irlanda), especialista en Sistemas Biométricos y Privacidad (FernUni Schweiz , Suiza), miembro del grupo Argentino de Bioestadística y de la International Biometric Society, estudiante de Ing. en IA (UP).
5. Stefano RODOTA, El derecho a tener derechos, Editorial Trota, Madrid, 2014.
6. Michel Villey, El derecho y los derechos del hombre, Madrid, Marcial Pons, 2.014,
7. Shoshana Zuboff, La era del capitalismo de vigilancia, la lucha por un futuro humano frente a las nuevas fronteras del poder, Paidos, 2020. En esta obra la autora trabaja sobre la amenaza que se cierne sobre nosotros no ya de un Estado «Gran Hermano» totalitario de Orwell en 1984, sino la de una arquitectura digital omnipresente: un «Gran Otro» que opera en función de los intereses del capital de la vigilancia. El exhaustivo y turbador análisis de Zuboff pone al descubierto las amenazas a las que se enfrenta la sociedad del siglo XXI: una «colmena» controlada y totalmente interconectada que nos seduce con la promesa de lograr certezas absolutas a cambio del máximo lucro posible para sus promotores, y todo a costa de la democracia, la libertad y nuestro futuro como seres humanos.
8.https://dpej.rae.es/lema/derecho-de-protecci%C3%B3n-de-datos-personales
9. RODOTA, Stéfano, El derecho a tener derechos, Editorial Trotta, Madrid, 2014, p. 151.
10. https://worldcoin.org/es-es/world-app
11. https://www.toolsforhumanity.com/orb
12. https://www.une.org/encuentra-tu-norma/busca-tu-norma/iso?c=082875
13. Beloff Mary, Presentación del libro Derecho, infancia y familia, Barcelona, Gedisa, 2000, pág. 11.
14. https://www.ohchr.org/es/documents/general-comments-and-recommendations/general-comment-no-25-2021-childrens-rights-relation
15. https://www.bcn.cl/leychile/navegar?idNorma=242302
16. https://www.bcn.cl/leychile/navegar?idNorma=1173643
17. https://www.bcn.cl/leychile/navegar?idNorma=141599
18. Kinds, Els J., Privacy and Data protection Issues of Biometric Applications: A Comparative Legal Analysis, Leuven-Belgium, Springer, 2013, pág. 19.
19. Woodward, John D.; Watkins Webb, Katharine; Newton, Elaine M.; Bradley, Melissa A.; Rubenson, David; Army Biometric Applications: Identifying and Addressing Sociocultural Concerns; RAND Corporation, Santa Monica, CA; Arlington, VA; Pittsburgh, PA, 2001, pág. 67. Ver también Wayman, James; Jain, Anil; Maltoni, Davide, Maio, Dario; Biometric Systems: Technology, Design and Performance Evaluation, London, Springer, 2005, pág. 01
20. Das, Ravindra; Biometric Technology: Authentication, Biocryptography and Cloud-Based Architecute; CRC Press, 2015, pág. 6; “…the use of computer science technology to extract the unique features of an individual, whether it be physical or behavioral traits, in order to positively verify and/or identify the identity of an individual, so that they may gain access to certain resources”.
21. Das, Ravindra; Biometric Technology: Authentication, Biocryptography and Cloud-Based Architecute; CRC Press, 2015, pág. 6.
22. Guo, Eileen; Renaldi, Adi; “Deception, exploited workers, and cash handouts: How Wolrdcoin recruited its first half a millon test users”, MIT technology Review, 2022, https://www.technologyreview.com/2022/04/06/1048981/worldcoin-cryptocurrency-biometrics-web3/ (fecha de acceso 25/03/24).
23. Worldcoin, «find orb”, https://worldcoin.org/find-orb
24. AAIP, “La AAIP investiga el tratamiento de datos personales de Worldcoin en Argentina”, 8/8/2023, https://www.argentina.gob.ar/noticias/la-aaip-investiga-el-tratamiento-de-datos-personales-de-worldcoin-en-argentina
25. La Nación, “La respuesta de Worldcoin tras las denuncias recibidas y cómo planea seguir operando en la Argentina”, 09/08/23, https://www.lanacion.com.ar/economia/negocios/la-respuesta-de-worldcoin-tras-las-denuncias-recibidas-y-como-planea-seguir-operando-en-la-argentina-nid09082023/ (fecha de acceso. 27/11/23).
26. Preguntas https://www.argentina.gob.ar/sites/default/files/2023/08/fundacion_worldcoin.pdf
27. AAIP, “Avanza la investigación de la AAIP sobre WorldCoin y el uso de datos personales”, 11/01/2024, https://www.argentina.gob.ar/noticias/avanza-la-investigacion-de-la-aaip-sobre-worldcoin-y-el-uso-de-datos-personales (fecha última de acceso: 22/05/24)
28. https://www.argentina.gob.ar/aaip/datospersonales/reclama
29. Borak, Masha; “WorldCoin may have a biometric data black market problem”, biometricupdate.com, 22/05/2023, http//www.biometricupdate.com/202305/Worldcoin-may-have-a-biometric-data-black-market-problem (fecha de acceso: 25/03/2025)
30. Spoofing es un término empleado para denominar a los ataques que sufre el sensor (scan, cámara, etc.) que captura el rasgo biométrico, a los fines de poder ingresar al sistema, pretendiendo ser el usuario legítimo.
31. TFH, https://www.toolsforhumanity.com/
32. Nvidia, “Nvidia Jetson Xavier: Nvidia Jetson Xavier NX Series”, https://www.nvidia.com/en-us/autonomous-machines/embedded-systems/jetson-xavier-series/ (fecha de acceso: 26/03/2024)
33. Bavaria Data Protection Authority for the Private Sector, http://www.edpb.europa.eu/system/files/2025-02/decision1594_0.pdf (fecha de acceso:27/03/2025)
34. McConvey, Joel; “World does not comply with GDPR, says German regulator”, BiometricUpdate, 19/12/2024, https://www.biometricupdate.com/202412/world-does-not-comply-with-gdpr-says-german-regulator, (fecha de acceso: 27/03/2025)
35. Rallo Lombarte, A. (2020). Una nueva generación de derechos digitales. Revista de Estudios Políticos. 187, 101-135. doi: https://doi.org/10.18042/cepc/rep.187.04
AAIP, “La AAIP investiga el tratamiento de datos personales de Worldcoin en Argentina”, 8/8/2023, https://www.argentina.gob.ar/noticias/la-aaip-investiga-el-tratamiento-de-datos-personales-de-worldcoin-en-argentina
AAIP; “Preguntas”, https://www.argentina.gob.ar/sites/default/files/2023/08/fundacion_worldcoin.pdf
AAIP, “Avanza la investigación de la AAIP sobre WorldCoin y el uso de datos personales”, 11/01/2024, https://www.argentina.gob.ar/noticias/avanza-la-investigacion-de-la-aaip-sobre-worldcoin-y-el-uso-de-datos-personales (fecha última de acceso: 22/05/24)
Bavaria Data Protection Authority for the Private Sector, http://www.edpb.europa.eu/system/files/2025-02/decision1594_0.pdf (fecha de acceso:27/03/2025)
Beloff Mary, Presentación del libro Derecho, infancia y familia, Barcelona, Gedisa, 2000, pág. 11.
Borak, Masha; “WorldCoin may have a biometric data black market problem”, biometricupdate.com, 22/05/2023, http//www.biometricupdate.com/202305/Worldcoin-may-have-a-biometric-data-black-market-problem (fecha de acceso: 25/03/2025)
Das, Ravindra; Biometric Technology: Authentication, Biocryptography and Cloud-Based Architecute; CRC Press, 2015
Guo, Eileen; Renaldi, Adi; “Deception, exploited workers, and cash handouts: How Wolrdcoin recruited its first half a millon test users”, MIT technology Review, 2022, https://www.technologyreview.com/2022/04/06/1048981/worldcoin-cryptocurrency-biometrics-web3/ (fecha de acceso 25/03/24).
Kinds, Els J., Privacy and Data protection Issues of Biometric Applications: A Comparative Legal Analysis, Leuven-Belgium, Springer, 2013.
La Nación, “La respuesta de Worldcoin tras las denuncias recibidas y cómo planea seguir operando en la Argentina”, 09/08/23, https://www.lanacion.com.ar/economia/negocios/la-respuesta-de-worldcoin-tras-las-denuncias-recibidas-y-como-planea-seguir-operando-en-la-argentina-nid09082023/ (fecha de acceso. 27/11/23).
McConvey, Joel; “World does not comply with GDPR, says German regulator”, BiometricUpdate, 19/12/2024, https://www.biometricupdate.com/202412/world-does-not-comply-with-gdpr-says-german-regulator, (fecha de acceso: 27/03/2025)
Michel Villey, El derecho y los derechos del hombre, Madrid, Marcial Pons, 2.014,
Nvidia, “Nvidia Jetson Xavier: Nvidia Jetson Xavier NX Series”, https://www.nvidia.com/en-us/autonomous-machines/embedded-systems/jetson-xavier-series/
Shoshana Zuboff; La era del capitalismo de vigilancia, la lucha por un futuro humano frente a las nuevas fronteras del poder, Paidos, 2020.
Stefano RODOTA, El derecho a tener derechos, Editorial Trota, Madrid, 2014.
https://dpej.rae.es/lema/derecho-de-protecci%C3%B3n-de-datos-personales
Rallo Lombarte, A. (2020). Una nueva generación de derechos digitales. Revista de Estudios Políticos. 187, 101-135. doi: https://doi.org/10.18042/cepc/rep.187.04
RODOTA, Stéfano, El derecho a tener derechos, Editorial Trotta, Madrid, 2014, p. 151.
TFH, https://www.toolsforhumanity.com/
Woodward, John D.; Watkins Webb, Katharine; Newton, Elaine M.; Bradley, Melissa A.; Rubenson, David; Army Biometric Applications: Identifying and Addressing Sociocultural Concerns; RAND Corporation, Santa Monica, CA; Arlington, VA; Pittsburgh, PA, 2001, pág. 67. Ver también Wayman, James; Jain, Anil; Maltoni, Davide, Maio, Dario; Biometric Systems: Technology, Design and Performance Evaluation, London, Springer, 2005, pág. 01
Worldcoin, «find orb”, https://worldcoin.org/find-orb
https://www.argentina.gob.ar/aaip/datospersonales/reclama
https://worldcoin.org/es-es/world-app
https://www.toolsforhumanity.com/orb
https://www.une.org/encuentra-tu-norma/busca-tu-norma/iso?c=082875
https://www.bcn.cl/leychile/navegar?idNorma=242302
https://www.bcn.cl/leychile/navegar?idNorma=1173643
https://www.bcn.cl/leychile/navegar?idNorma=141599
VOCES: INTELIGENCIA ARTIFICIAL, PROPIEDAD INTELECTUAL, DERECHOS DE AUTOR, INFORMÁTICA, TECNOLOGÍA, DAÑOS Y PERJUICIOS
CÓDIGO CIVIL Y COMERCIAL, DERECHO COMERCIAL, DAÑO, TRATADOS Y CONVENIOS, RESPONSABILIDAD CIVIL, ORDEN PÚBLICO
PERSONAS JURÍDICAS, PRINCIPIOS GENERALES DEL DERECHO, INTERNET, PODER JUDICIAL, DERECHOS Y GARANTÍAS CONSTITUCIONALES, CONTRATOS, OBLIGACIONES, ECONOMÍA, PROTECCIÓN DE DATOS PERSONALES
INTIMIDAD, ACCIÓN DE INCONSTITUCIONALIDAD, SENTENCIA EXTRANJERA, DATOS BIOMÉTRICOS, PRIVACIDAD, ACCESO A LA JUSTICIA, ABOGADO, RESOLUCIONES JUDICIALES
CORTE SUPREMA DE LA NACIÓN, PROCESO ORDINARIO, EJERCICIO PROFESIONAL, CÓDIGO DE ÉTICA



