INFANCIAS VULNERABLES, INTELIGENCIA ARTIFICIAL Y RESPONSABILIDAD 4.0
Primeras aproximaciones
Por: Karina Vanesa Salierno
“En los albores del nuevo milenio enfrentamos un futuro en el que las respuestas ya no son ni serán las mismas porque, a decir verdad, nos han cambiado la mayoría de las preguntas; en la ruta del futuro, lo que viene no siempre se parece a lo que se ve en el espejo retrovisor, por lo que debemos aprender a convivir con la desproporción entre las preguntas inteligentes que somos capaces de formular, y las respuestas plausibles que somos capaces de dar”
-Arnaldo Momigliano
Introducción
A lo largo del último siglo, la inteligencia artificial (en adelante IA), la logrado desarrollar tecnologías que abren nuevos caminos y horizontes en nuestro sistema económico, social y cultural, y que actúa como un catalizador de la investigación y la innovación, haciendo de la generación, almacenamiento y procesamiento masivo de datos un sector económico independiente. Más allá del efecto transformador económico, la IA ha impactado en todos los sectores de la sociedad como telecomunicaciones, servicios financieros, distribución, energía, industria, medios de comunicación, administración, entre otros, pero especial análisis y profundización merecen, por su cuestionamiento ético y su impacto sobre los derechos humanos, los efectos que produce en los sectores sensibles y estratégicos de la sociedad tales como sanidad, educación, justicia y seguridad.
El proceso de digitalización y disrupción tecnológica debe ir acompañado de una fuerte protección de las desigualdades sociales, con el fin de eliminar las múltiples brechas que hoy persisten en la sociedad, identificando los grupos más vulnerables cuya situación se intensifica por el avance tecnológico. Así, se deben aumentar las competencias digitales de la población, en especial la de las personas en situación de exclusión social, caso contrario, la tecnología se transformará en otro mecanismo de poder y dominación social. Se debe impulsar el debate a nivel nacional e internacional sobre el desarrollo tecnológico de valores humanistas centrado en los objetivos sociales de cada proyecto o avance tecnológico, priorizando a las personas y creando redes de conocimiento y protección colaborativas. En este sentido, la IA representa un desafío para los Estados, ya que plantea desde el inicio un posicionamiento desigual de la sociedad frente a la tecnología. La IA tiene un enorme potencial, se puede usar para el bien, pero también se puede utilizar para crear grupos de influencia y manejo de otros grupos, en particular, y en lo que focalizaremos en este estudio, infancias que se presentan frente a la tecnología desprovistas de herramientas de protección por su escaso conocimiento de los vicios y riesgos tecnológicos. El avance de las tecnologías de la comunicación y la información y la IA, ha dado nacimiento a una nueva estructura de desigualdad social, característica de la era digital: la vulnerabilidad social frente al desarrollo tecnológico.
La pandemia mundial COVID-19 ha demostrado tanto lo vulnerables que somos, como lo interconectados que estamos, por ello, debemos asegurarnos de tener mayor resiliencia y mejor preparación. El éxito dependerá de las herramientas y de las redes de protección que formemos para garantizar el pleno goce de los derechos fundamentales. Para ello, es primordial crear una comunidad multidisciplinaria de investigadores que comprendan realmente tanto los beneficios de la tecnología para el desarrollo de una sociedad como la variedad de daños que derivan de los sistemas de IA y como combatirlos con éxito. El desarrollo de un músculo colectivo y resistente para la supervisión e identificación responsable de las discordancias y los sesgos, que procure la prevención del daño tecnológico es, sin lugar a duda, uno de los desafíos de esta nueva era. A veinte años de la masificación de internet, del enamoramiento ciego de la libertad de expresión, y del pretendido efecto democratizador de la digitalización, internet se presenta hoy como un desafío para la protección de los derechos humanos, porque enquista y amplifica nuevas formas de poder, control, vigilancia, influencia, sesgo, manipulación y pérdida de autogobierno. En este escenario es indispensable educar y educarse en la creación de una conciencia social de lo que significa el alfabetismo digital crítico que interactúe con las nuevas reglas del juego. Nuestros problemas son humanos, no podemos culpar a la tecnología y esperar a que nos salve de nosotros mismos, pero tampoco podemos especular con la autorregulación. La tecnología es agnóstica, no es buena ni mala, pero su creación es humana y su uso puede tener fines u objetivos que no propendan al bien común, que no tengan como objetivo fundamental el respeto y la defensa de los derechos humanos. El uso de la tecnología puede constituirse en un problema o en una posibilidad; puede alienar, cosificar, destruir, marginar o puede potenciar la superación, el progreso, el confort y el bienestar. Por ello, necesitamos usarla para el bien común y así equilibrar el impacto tremendo que está teniendo en manos privadas.
Derechos humanos y vulnerabilidad objetiva
La reforma constitucional de 1994, al otorgar jerarquía superior a los tratados de derechos humanos consagrados en el art. 75 inciso 22, robusteció la noción de persona en cuanto reconoce expresamente el derecho de todo ser humano a la vida, a la libertad y a la integridad de su persona (física, psíquica y moral) así como la protección de su honra, su reputación y su vida privada, y su salud. Se trata de “derechos y garantías que son inherentes al ser humano, que tiene derecho al reconocimiento de su dignidad”.
Las XIII Jornadas Nacionales de Derecho Civil (Buenos Aires, 1991) declararon en este sentido que “en el Derecho moderno, prospectivamente, la inviolabilidad de la persona irá reemplazando a la concepción de la inviolabilidad de patrimonio”; ello, porque “la sociedad contemporánea tiende a sustituir la lógica propietaria” por otra conectada “con la posición jurídica de la persona en el ámbito de la sociedad.” “De la inviolabilidad de la persona humana resulta la reparabilidad del daño como multifacética realidad existencial que no se reduce a lo meramente económico, sino que combina naturaleza y espíritu, animalidad y libertad implantada en la racionalidad, y tiene como eje, su proyecto vital, libremente elegido, según el llamado de su vocación”.
La persona humana es el centro del ordenamiento jurídico y el eje de protección de los Estados quienes basan el reconocimiento de los derechos humanos en la dignidad humana como factor determinante del respeto de la igualdad, la no discriminación, la tolerancia y la libertad. Los derechos civiles, económicos, sociales y culturales están profundamente conectados y constituyen una red multifuncional de garantía y justicia.
“El estudio de la vulnerabilidad social se ha desarrollado desde un enfoque multidisciplinar, lo que brinda la posibilidad de estudiar los grupos vulnerables desde diferentes perspectivas metodológicas, y a distintas escalas, apareciendo así numerosas líneas de investigación que se abordan desde este enfoque”. El vocablo “vulnerabilidad” expresa tanto la exposición al riesgo como la medida de la capacidad de cada persona para enfrentarlo a través de una respuesta inmediata. En una primera aproximación, podríamos decir que la vulnerabilidad es una condición humana frente a la cual, algunos tienen herramientas de reacción, recuperación y reconstrucción y otros no, porque presentan dificultades para alcanzar la resistencia frente a factores de riesgo, y no les basta con la libertad e igualdad declamada para todos, sino que son necesarias medidas extraordinarias de compensación del desequilibrio que sufren.
“Una persona se encuentra en situación de vulnerabilidad cuando, por una causa o por una conjunción de causas, no está en condiciones de igualdad real frente a otras, para ejercer con plenitud sus derechos”. La realidad nos muestra que existen distintos grupos en la sociedad que se encuentran alcanzados no sólo por una causa de exclusión, sino por muchas, que se presentan como capas que se superponen, que derivan de las relaciones sociales, históricas, económicas y culturales y que en definitiva operan como estructuras del poder.
Entonces, en este análisis utilizaremos el criterio de interseccionalidad para reflexionar sobre cómo la tecnología contribuye al desarrollo de una capa más de vulnerabilidad en ciertos grupos ya marginales y al nacimiento de una calidad objetiva o autónoma en grupos ajenos a este conflicto. Entonces diremos que hay grupos vulnerables, que, por sus condiciones, socioculturales, su origen étnico, su género, su edad, su discapacidad o enfermedad o bien, por una combinación de factores, se encuentran en mayor grado de exposición y desprotección frente al riesgo tecnológico porque viven una realidad con mayores impedimentos para el disfrute igualitario y pleno de sus derechos fundamentales en iguales condiciones con los demás. En definitiva, estos grupos presentan ineptitud para identificar el riesgo tecnológico y enfrentar para prevenir el daño, lo que supone una incapacidad de respuesta inmediata o inhabilidad subjetiva para adaptarse rápidamente.
Las personas pueden ser vulnerables por factores endógenos o por factores exógenos o por su combinación de dos o más causas que las hace aún más endebles y por ello, susceptibles de mayor protección. Son personas vulnerables por su condición física o personal: los niños por su fragilidad física y su inmadurez (física y jurídica) a la que se puede sumar su fragilidad social, si pertenecen a un grupo minoritario, detenido o migrante o en un conflicto armado; las mujeres cuya vulnerabilidad se incrementa si son niñas, o pertenecen a comunidades indígenas; las personas con capacidad restringida o discapacidad; los adultos mayores, los que pertenecen a minorías sexuales, y las pertenecientes a pueblos originarios o minorías raciales.
Pero también son vulnerables, independientemente de su pertenencia a uno o más de los grupos mencionado, todas aquellas personas que se relacionan con internet, ya que la percepción sensorial del mundo analógico se encuentra tamizada por una determinada realidad digital cuya característica principal es la masificación del procesamiento de datos de forma ilimitada cuyo objetivo económico se encuentra enmascarado detrás de la pretendida gratuidad del servicio. Así, se crean nuevos riesgos, nuevas formas de poder y en consecuencia, de satisfacción desigual de necesidades fundamentales y en definitiva, de exclusión y de marginación.
Desarrollo tecnológico, procesamiento de datos y vulnerabilidad objetiva.
El desarrollo tecnológico impulsa al pensamiento jurídico a edificar una teoría del derecho vinculada con la tecnología, pero comprometida con los derechos humanos. “Esta coyuntura reclama de los profesionales del derecho, una «conciencia tecnológica», término acuñado por Vittorio Frosini para apelar a una actitud reflexiva, crítica y responsable ante los nuevos problemas que, en las diversas esferas del acontecer social, suscita la tecnología, y ante los que ni el derecho, ni quienes lo aplican o lo estudian, pueden permanecer insensibles”. En palabras de Guido Alpa : “… El espacio cibernético y los sistemas de navegación dentro de él no parece diferir, salvo en la técnica y en la materia, de otros espacios a los que se ha dedicado el jurista, tales como el espacio marítimo, o el aéreo, o el espacial … ”. Sin embargo, las características específicas del objeto de estudio, su potencial masificación y expansión transfronteriza de intercambios económicos a nivel mundial, no permiten una reducción positiva y pueden llegar a ser cuna de una verdadera codificación digital o del denominado cyberlaw mundial, que es el que marcará el horizonte jurídico de Internet.
Es necesario, sin lugar a duda, un cambio en la elaboración y proyección normativa que sea más ágil y que acompañe el crecimiento exponencial de las actividades automatizadas que las nuevas tecnologías propician, como una verdadera red de contención, contrapesos y garantías frente a la situación de vulnerabilidad de los derechos humanos ante el avance del poder tecnológico. Este camino, debe ir acompañado de alfabetización digital para una sociedad ligada a la traducción digital-analógica, con el fin de unificar y hacer más comprensible tanto el vocabulario y el “léxico, como la propia semántica y sintaxis regulatorias de cuanto tiene que ver con la lógica algorítmica en que se basa la IA”.
Debemos romper con preconceptos que vinculan la regulación y el derecho como un freno al avance tecnológico e insistir en una mayor reflexión sobre la estocástica en clave epistemológica y de la ética como base de construcción de la “conciencia tecnológica”. Dentro de los objetivos de la estrategia nacional de IA de España se establece con la denominación de “IA inclusiva y sostenible”, la necesidad de potenciar la IA como “vector trasversal para afrontar los grandes desafíos de nuestra sociedad, específicamente para reducir la brecha de género, la brecha digital, apoyar la transición ecológica y la vertebración territorial”. Este objetivo está en línea con la Agenda 2030 adoptada por la Asamblea General de Naciones Unidas y con la recomendación de la organización para la Cooperación y el Desarrollo Económicos (OCDE), para que la acción pública integre las esferas económica, social y ambiental. En esta línea, incorpora la necesidad de que el diseño de estos sistemas sea robusto, seguro e imparcial, para avanzar hacia una IA fiable, explicativa, transparente e inclusiva que asegure el cumplimiento de los derechos fundamentales y de la regulación aplicable, así como el respeto de los principios y valores fundamentales, y tenga en cuenta las aspiraciones colectivas de la ciudadanía.
“Indudablemente, la actividad tecnológica impacta en el progreso de toda sociedad, pero su carácter comercial la proyecta hacia la satisfacción de intereses de determinados grupos, que utilizan la información recolectada para direccionar conductas humanas, lo cual degenera en un marcado consumismo que deja atrás las necesidades prioritarias de la mayoría de los seres humanos, una mayoría que queda marginada y sin posibilidades de acceso a todo aquello que se presenta como nuevo”. La creciente disponibilidad y diversidad de datos accesibles en línea es uno de los mayores impulsores de la IA. Es necesaria una gran cantidad de datos para nutrir a los softwares y darles autonomía.
Vivimos en una economía de datos que absorbe casi cualquier aspecto de la información personal, nombre, teléfono, dirección, historial de navegación, correos electrónicos, mensajes de voz, huella dactilar, reconocimiento facial, ubicación en tiempo real, etc. Estos datos conforman una unidad procesable que se transforma en un producto comercializables en los mercados emergentes de predicción y modificación del comportamiento humano. Las aplicaciones recolectan datos personales, religiosos, políticos, de ocio, de salud, datos de ayer, de hoy y de mañana, y tienen acceso a nuestra autocensura, conocen lo que se envía a la papelera, lo que nos gusta y disgusta, el tiempo que pasamos prestando atención, los libros que leemos, las películas que vemos, los intereses que tenemos, tiene acceso a nuestra identidad en sentido amplio, a nuestra geolocalización, nuestras comidas, y nuestras salidas. Como lo explica el profesor Cass Susntein, lo que le sucede al ser humano es una cuestión de inconsciente elección, es decir, elegimos no elegir, cuando aceptamos los servicios en línea de forma predeterminada, o los términos y condiciones de la suscripción de un servicio en línea; o permanecer geolocalizados constantemente, y cuando aceptamos compartir nuestra ubicación, etc., en definitiva, aceptamos no elegir. Comprender el valor de la libertad de elección, también es un desafío que nos plantea el desarrollo tecnológico.
La libertad de elegir y el valor que tiene la posibilidad de elegir, representa alejarnos de la comodidad de no pensar y seguir un instinto de aceptación. Nuestra capacidad para tomar decisiones es fundamental para la elección del plan de vida como sustento de nuestra libertad y es esencial para los valores políticos de las naciones que la protegen. “Al seguir nuestras opciones predeterminadas, nos ahorramos los costos de tomar decisiones activas”. Al establecer esas opciones, los gobiernos y las corporaciones dictan los resultados para cuando decidamos por defecto. Esta es una de las formas más importantes en las que afectan el cambio social, pero apenas estamos comenzando a comprender el poder y el impacto de las reglas predeterminadas.
“Cuando Google, Facebook y otros algoritmos se conviertan en oráculos omniscientes, bien podrían evolucionar para convertirse en representantes y finalmente en soberanos”. Inicialmente, el algoritmo se nos presenta como oráculo, pero el éxito de su evolución dependerá de cuanto pueda controlar nuestras decisiones. Estamos frente a una cultura de sobre exposición de datos sensibles, así cedemos parte de nuestra autonomía a un tercero, estamos frente al alumbramiento de un grupo homogéneo de vulnerables digitales que deciden no decidir frente a las elecciones predeterminadas que ofrece internet. “No hay duda que las redes sociales y los motores de búsqueda son un colector inagotable de datos de nuestra vida en línea”. “Y esto es solo el principio. Pronto los libros nos leerán mientras los leemos. Y mientras nosotros olvidamos rápidamente la mayor parte de los que leímos, Amazon nunca olvidará nada. Dichos datos le permitirán elegir libros para el lector con pasmosa precisión. También le permitirá saber con exactitud quienes somos, y cómo conectarnos y desconectarnos”. La privacidad de los datos parece cada vez más un bien escaso y la transferencia de la autoridad de los humanos a los algoritmos está sucediendo como una decisión consciente e inconsciente. La complejidad y extensión de los términos y condiciones de las suscripciones de servicios en línea tienen como consecuencia la aceptación tácita de todo el contenido. El mercado de la inteligencia artificial está creciendo exponencialmente, y las empresas requieren de este tipo de servicios porque le brindan el mayor campo de predicción de comportamiento humano. La identificación facial disponible en nuestros teléfonos celulares para el acceso al dispositivo o para configurar un perfil en un juego en línea, significa incorporar a la red datos biométricos que, sumados a nuestros movimientos en línea, configuran huellas digitales constantes de nuestras preferencias, gustos y disgustos. En este aspecto, por ejemplo, los teléfonos inteligentes tienen aproximadamente 14 sensores incluidos (accelerometer, gyroscope, magnetometer, proximity, ligth sensor, barometer, touch Sense, GPS, Wifi, Bluetooth, GSM Cell, Near Field, Camera front, Camera Back), que bajan y actualizan nuestra información de manera constante. De esta forma estamos siendo preseleccionados, etiquetados y colocados en un tipo de perfil de consumidor, el algoritmo aprende estrategias de márketing, basados en gustos personales que van delineando un perfil de consumo. La inteligencia artificial es un paraguas de algoritmos que incluye, biometría, reconocimiento facial, predicción de comportamientos e intervención en la toma de decisiones humanas.
En este proceso es necesario identificar el riesgo de discriminación y de parcialidad que representan estas herramientas que ponen en peligro la satisfacción plena de los derechos humanos fundamentales. Por ello, en todo desarrollo tecnológico tanto los Estados como los particulares deben enfocarse en el respeto de los derechos humanos, la no discriminación, la calidad, seguridad, transparencia en la inteligencia artificial y en el principio de autogobierno o autodeterminación informativa, en el consentimiento informado dinámico del usuario o consumidor y, en definitiva, en el uso de la tecnología bajo estrictos controles de seguridad informática. Es responsabilidad de los sectores privados desarrollar, diseñar e implementar, sistemas de algoritmos que deben ejercitar diligentemente el respeto de los derechos humanos.
Al decir de Corvalán citado por Granero, “… para que el desarrollo de la IA sea realmente compatible con un “modelo de derechos humanos”, es preciso impulsar una regulación que incorpore una serie de principios que en gran medida se vinculan con tres categorías: dignidad algorítmica, identidad algorítmica y vulnerabilidad algorítmica como una derivación de la denominada dignidad digital (que a su vez se integra por la identidad digital) de las personas humanas en el mundo digital. Se trata, en esencia, de hacer más robusto el sistema de protección a partir de incorporar al bloque de juridicidad una serie de principios generales tendientes a regularla …”.
“La economía de datos se basa en un modelo de negocio poco ético, sin ningún límite y que hemos dejado que prolifere a su gusto, sin consecuencias. Es tan difícil guardar de forma segura los datos y tan fácil usarlos mal que es muy ingenuo pensar que toda esa información siempre se usará para el bien. Stephen Hawking advirtió de que la inteligencia artificial (IA) podría significar el fin de la civilización. Pero, para muchos investigadores de inteligencia artificial, estos debates parecen estar a la deriva”. “La IA ya está evaluando a los candidatos para puestos de trabajo, diagnosticando enfermedades e identificando a sospechosos de delitos. Pero en vez de ayudar a que estas decisiones sean más eficaces o justas, a menudo perpetúa los sesgos de los humanos en cuyas opiniones se entrenó. Las amenazas se superponen, independientemente de si se trata de vigilancia predictiva y evaluación de riesgos a corto plazo, o de sistemas más avanzados y escalados a largo plazo”. Frente a este escenario, nos preguntamos ¿Cómo se diseña un sistema capaz de comprender y aplicar los valores de una sociedad? ¿Quién tiene la responsabilidad de establecer esos valores?.
La inclusión de la ética en la IA debe ser un fin prioritario de las empresas y de los Estados. Conforme lo expone Miguel Ángel Barrio, fruto de esta preocupación, el Parlamento Europeo realizó un informe sobre robótica en 2017 llamado Código Ético de Conducta y, recientemente (diciembre de 2018), ha publicado el primer borrador de la Guía Ética para el uso responsable de la Inteligencia Artificial. En este documento central para el desarrollo de la ética en la tecnología, “52 expertos han escudriñado y exprimido los rincones de la problemática, centrándose en el ser humano siempre bajo la luz de la defensa de los derechos fundamentales”.
Desarrollo tecnológico, vulnerabilidad subjetiva, IA e infancias vulnerables.
En principio, la brecha digital en materia de acceso a internet y al efectivo goce de los servicios que brinda la nueva tecnología, como también el acceso al software y al hardware, sigue siendo un problema de política pública. No cabe duda de que en la última década el acceso a internet y a los dispositivos se ha incrementado, pero no resulta suficiente. Los niños no tienen las mismas condiciones de acceso a internet en todos los lugares del mundo, lo que provoca entonces una brecha digital que impide que todos los niños satisfagan sus necesidades en línea de la misma forma y con las mismas herramientas.
Conforme los resultados de los informes técnicos del INDEC, en el cuarto trimestre de 2019, se registro que el 60,9% de los hogares urbanos tiene acceso a computadora y el 82,9%, a internet. Además, los datos muestran que, en la Argentina, 84 de cada 100 personas emplean teléfono celular y 80 de cada 100 utilizan internet. El uso de internet se extiende en la población urbana de los distintos aglomerados, ya que, en promedio, 80 de cada 100 personas utilizaron internet en los últimos 3 meses. Conforme el relevamiento de UNICEF sobre el estado mundial de la infancia 2017, “algunos niños que se conectan en línea por primera vez descubren un espacio digital en el que su idioma, su cultura y sus preocupaciones son notables por su ausencia”. Según datos de la Unión Internacional de Telecomunicaciones (UIT), la agencia de Naciones Unidas para la comunicación y las nuevas tecnologías, tan solo un 51% de la población mundial está conectado a internet: más del 85% en las regiones desarrolladas (Europa, Norteamérica), pero menos del 40% en regiones más pobres (como África). El avance de la tecnología en este sentido, ha transferido las categorías de inclusión y exclusión a otras dimensiones. Entre los objetivos de desarrollo sostenible (ODS) elaborados en el marco de la agenda 2030 de la ONU, se incluye en el Objetivo 9 de Industria, innovación e infraestructura: “Trabajar para reducir la brecha digital y garantizar el acceso igualitario a la información y el conocimiento que se transmite por las redes”. Las principales razones que explican la desigualdad en la conexión a Internet están relacionadas con la falta de recursos económicos: muchos países y regiones no disponen de una infraestructura de telecomunicaciones adecuada (especialmente en las zonas rurales). Sin embargo, también es importante invertir en la formación de personal cualificado que sepa gestionar esta infraestructura, hacer funcionar los equipos de nuevas tecnologías y, sobre todo, transmitir este conocimiento y habilidades tecnológicas a otras personas. “La falta de igualdad en el acceso a las TIC es una preocupación clave en materia de derechos humanos en muchos países del mundo”.
Estas desigualdades persistentes deben ser motivo de gran preocupación, para hacer frente a los inmensos desafíos del siglo XXI hace falta toda la ciencia y energía necesaria por lo que el mundo no puede privarse del potencial, la inteligencia y la creatividad de miles de personas.
La pandemia mundial ha impactado en factores ambientales, sociales y económicos. En especial, en la infancia y el cierre de los colegios produjo la transición a entornos de aprendizaje virtuales. Así, aumentó el tiempo que los niños pasan en internet y se transformó en lugar común para divertirse, socializar y estudiar. Esta situación fue terreno fértil para el cyberbullying, el grooming, el ciberacoso, el perfilamiento y el adoctrinamiento. Los niños, niñas y adolescentes representan el tercio de los usuarios online y son los más vulnerables frente a la tecnología, ya que, en etapa de desarrollo, la inteligencia artificial moldea la educación de los niños, a través del lenguaje (interacción con Alexa o con Siri) y los sistemas de recomendación de YouTube o TikTok, que terminan ofreciendo “una” visión del mundo. El paso del oráculo al soberano, como explica Harari, es aún más preocupante en la infancia, ya que las herramientas de reacción y resistencia, recién se están desarrollando en la personalidad de cada niño. Los niños podrían abandonar sus propios juicios psicológicos o decisiones importantes y confiar en la decisión tomada por la IA. Es por ello que UNICEF creó un conjunto de recomendaciones diseñadas para ayudar a los gobiernos y a las empresas a desarrollar políticas de IA que tengan en cuenta en especial las condiciones y necesidades de los niños, en donde se complementaron los documentos existentes en materia de desarrollo de la IA, la Convención de los Derechos del Niño y los tratados de derechos humanos, y los adaptó a la infancia. Asimismo, la Academia de Inteligencia Artificial de Pekín publicó en septiembre de 2020, un conjunto de principios de inteligencia artificial para niños, una año después que se presentarán los Principios sobre la IA de Pekín, en donde China empezó a preocuparse por la ética de la IA. En este documento se afirmó que el desarrollo de la IA en niños debe respetar los siguientes valores: dignidad, desarrollo evolutivo, confianza y prioridad. La investigación, desarrollo y uso de la IA debe priorizar las necesidades y los intereses particulares de los niños y una adecuada protección de sus derechos fundamentales.
La idea de que la conectividad digital transforma la educación abrió las puertas a nuevas posibilidades. Conforme el documento elaborado por UNICEF, “las empresas ponen a prueba y tratan de ampliar nuevos productos y servicios digitales en el sector educativo. Los niños consideran la conectividad digital como una parte enormemente positiva para sus vidas. Su entusiasmo, fascinación y motivación a la hora de conectarse es un reflejo del poder y el potencial claros que estas herramientas ofrecen, no solo para mejorar su vida cotidiana sino también para ampliar sus posibilidades de un futuro mejor”. Para los niños que viven con discapacidades, la conectividad puede significar un salto cualitativo y significar la diferencia entre la exclusión social y la igualdad de oportunidades. Para otros puede significar mantenerse en contacto con los miembros de su familia y mayores posibilidades de encontrar empleo y oportunidades educativas en un país extranjero. Las herramientas tecnológicas pueden equilibrar condiciones, pero también pueden intensificar riesgos, como es el caso de uso y abuso de datos personales, perfiles sexuales, delitos contra la dignidad e integridad sexual de los menores. “Internet es todas estas cosas, que reflejan y amplifican lo mejor y lo peor de la naturaleza humana. Es una herramienta que siempre se usará para hacer el bien y para hacer el mal. Nuestra labor consiste en mitigar los daños y ampliar las oportunidades que la tecnología digital hace posible … Al proteger a los niños contra lo peor que la tecnología digital puede ofrecerles, y al ampliar su acceso a lo mejor, podemos inclinar la balanza hacia una experiencia de mayor calidad.”
La decisión 276/1999CE, del Parlamento Europeo y del Consejo Europeo, del 25 de enero de 1999, aprobó un plan plurianual de acción comunitaria para propiciar la mayor seguridad en la utilización de Internet mediante la lucha contra contenidos ilícitos o nocivos para niños en las redes mundiales. Luego fue ampliada por la decisión 1151/2003/CE por la cual se amplió el plan por dos años y se incluyeron medidas destinadas a fomentar el intercambio de información transfronteriza. Por su parte, la directiva 2000/31/CE del 8 de junio de 2000, contempla algunos aspectos referidos a la protección de los menores y la dignidad humana. Finalmente, la recomendación 2006/952/CE de diciembre de 2006, recomendó adoptar las medidas necesarias para garantizar la protección de los menores y de la dignidad humana en el conjunto de los servicios audiovisuales y de información en línea, promoviendo acciones que permitan a los menores utilizar de forma responsable estos servicios, mediante una mejor sensibilización de los padres, maestros y formadores sobre el potencial de los servicios y los medios adecuados de protección. El programa de Estrategia Nacional de Inteligencia Artificial (ENIA) española parte de una posición favorable para abordar la IA como requisito necesario para abordar la integración de los activos económicos e industriales de los actuales desarrollos y plataformas estratégicas, pero para ello establece como necesidad la promoción y el desarrollo de capacidades digitales y el establecimiento de un marco ético normativo que refuerce la protección de los derechos individuales y colectivos, a efectos de garantizar la inclusión y el bienestar social. Asimismo, en el ámbito del derecho a la protección de datos, el nuevo Reglamento General de Protección de Datos Europeo 2016/679 ha establecido una regulación concreta para aquellos procedimientos que tomen decisiones basada únicamente en el dictamen emitido por una máquina. Entre sus objetivos fundamentales estableció: “Los niños merecen una protección específica de sus datos personales, ya que pueden ser menos conscientes de los riesgos, consecuencias, garantías y derechos concernientes al tratamiento de datos personales. Dicha protección específica debe aplicarse en particular, a la utilización de datos personales de niños con fines de mercadotecnia o elaboración de perfiles de personalidad o de usuario, y a la obtención de datos personales relativos a niños cuando se utilicen servicios ofrecidos directamente a un niño. El consentimiento del titular de la patria potestad o tutela no debe ser necesario en el contexto de los servicios preventivos o de asesoramiento ofrecidos directamente a los niños”. Asimismo, agrega: “El interesado debe tener derecho a no ser objeto de una decisión, que puede incluir una medida, que evalúe aspectos personales relativos a él, y que se base únicamente en el tratamiento automatizado y produzca efectos jurídicos en él o le afecte significativamente de modo similar, como la denegación automática de una solicitud de crédito en línea o los servicios de contratación en red en los que no medie intervención humana alguna. Este tipo de tratamiento incluye la elaboración de perfiles consistente en cualquier forma de tratamiento de los datos personales que evalúe aspectos personales relativos a una persona física, en particular para analizar o predecir aspectos relacionados con el rendimiento en el trabajo, la situación económica, la salud, las preferencias o intereses personales, la fiabilidad o el comportamiento, la situación o los movimientos del interesado, en la medida en que produzca efectos jurídicos en él o le afecte significativamente de modo similar. Sin embargo, se deben permitir las decisiones basadas en tal tratamiento, incluida la elaboración de perfiles, si lo autoriza expresamente el Derecho de la Unión o de los Estados miembros aplicable al responsable del tratamiento, incluso con fines de control y prevención del fraude y la evasión fiscal, realizada de conformidad con las reglamentaciones, normas y recomendaciones de las instituciones de la Unión o de los órganos de supervisión nacionales y para garantizar la seguridad y la fiabilidad de un servicio prestado por el responsable del tratamiento, o necesario para la conclusión o ejecución de un contrato entre el interesado y un responsable del tratamiento, o en los casos en los que el interesado haya dado su consentimiento explicito. En cualquier caso, dicho tratamiento debe estar sujeto a las garantías apropiadas, entre las que se deben incluir la información específica al interesado y el derecho a obtener intervención humana, a expresar su punto de vista, a recibir una explicación de la decisión tomada después de tal evaluación y a impugnar la decisión. Tal medida no debe afectar a un menor”.
Así vemos como el desarrollo de la IA debe hacerse en sintonía con la legislación y los principios constitucionales, respetando la equidad de acceso, la prevención contra la discriminación, como la satisfacción de los derechos fundamentales en el mundo digital. En este sentido, el diseño e implementación de los algoritmos debe conseguir el equilibrio entre la calidad y eficiencia con capacidad de identificación de sesgos discriminatorios. Los niños están desproporcionadamente afectados por los peligros en línea, incluida la pérdida de privacidad y la utilización de sus datos sensibles. “Tienen menos posibilidades de comprender los riesgos y es más probable que sean víctimas de los daños. Esta vulnerabilidad concreta arroja luz sobre el momento en que el riesgo se convierten un daño real para los niños”. Estos riesgos no son del todo nuevos, pero ahora, las redes sociales permiten una impunidad tecnológica derivada de la despersonalización en la comunicación y en la sustitución de las identidades digitales, que permite intensificar el daño en todo momento y en todo lugar.
Actividad riesgosa y responsabilidad 4.0
En el ámbito de la responsabilidad civil, los factores subjetivos y objetivos de la responsabilidad son la justificación jurídica para imputar la acusación de un daño a su responsable. El factor objetivo de atribución de responsabilidad que prescinde de la valoración de la conducta del agente siempre ha seguido un criterio restrictivo, por lo que, a falta de norma expresa, la culpa actúa como el factor residual aplicable. Históricamente los principios clásicos del liberalismo, con foco en la punición, evolucionaron hacia la reparación de todo daño injustamente sufrido (art. 1113 CC modificado por la Ley 17.711, BO 26/4/1968 y art. 1757 CCCN), en donde se incluye el daño derivado de toda actividad riesgosa. Los daños ocasionados por las actividades riesgosas generan el deber de reparar por la responsabilidad objetiva existente por el daño ocasionado (riego-provecho). En este sentido, el riesgo en el procesamiento de datos es inherente a la actividad, el que desarrolla la actividad posee certeza sobre peligros conocidos y desconocidos. La amenaza es permanente. “Por ello, la prevención tiene un sentido profundamente humanista, pero a la vez es económicamente eficiente, porque la evitación del daño no solo es valiosa desde la perspectiva ética, sino también desde el punto de vista macroeconómico”.
Conforme lo explica Lamanna Guiñazú , “… las XXVII Jornadas Nacionales de Derecho Civil (2019), celebradas en la provincia argentina de Santa Fe, depararon una sorpresa mayúscula, al incluir como actividades riesgosas (enumeración ejemplificativa, no taxativa, por lo que en el futuro se podrían incluir otras) a la utilización de algoritmos, las actividades cibernéticas, las plataformas digitales y los sistemas operados por inteligencia artificial (y ello votado por unanimidad). También se reconoció que los arts. 1757 y 1758 CCyC deben ser reconocidas como la normativa genérica a aplicar a este tipo de actividades riesgosas o peligrosas, lo que no obstaculiza la presencia de otra normativa experta, destinada a casos especiales, como las señaladas por el art. 40 de la Ley de Defensa del Consumidor, o la del propio art. 1767 CCyC …”.
De acuerdo con el informe 2017 elaborado por UNICEF, actualmente los investigadores clasifican los riesgos que aparecen en línea en tres categorías:
- Riesgos de contenido: Cuando un niño está expuesto a un contenido no deseado e inapropiado. Esto puede incluir imágenes sexuales, pornográficas y violentas; algunas formas de publicidad; material racista, discriminatorio o de odio; y sitios web que defienden conductas poco saludables o peligrosas, como autolesiones, suicidio y anorexia.
- Riesgos de contacto: Cuando un niño participa en una comunicación arriesgada, como por ejemplo con un adulto que busca contacto inapropiado o se dirige a un niño para fines sexuales, o con personas que intentan radicalizar a un niño o persuadirlo para que participe en conductas poco saludables o peligrosas.
- Riesgos de conducta: Cuando un niño se comporta de una manera que contribuye a que se produzca un contenido o contacto riesgoso. Esto puede incluir que los niños escriban o elaboren materiales odiosos sobre otros niños, inciten al racismo o publiquen o distribuyan imágenes sexuales, incluido el material que ellos mismos produjeron.
A esta clasificación elaborada por UNICEF, podemos adicionarle la categoría de “riesgo soberano”, es decir aquellas infancias que crecen moldeadas por los sesgos informáticos y las opciones predeterminadas de los algoritmos, frente a la paralización y falta de reacción de los progenitores, educadores y formadores. De oráculos a soberanos, estos algoritmos representan la esclavitud digital en la infancia. En este sentido, todos los niños tienen la potencialidad de sufrir daños derivados del uso de la tecnología. Por ello, se vuelve esencial “comprender por qué el riesgo se traduce en daño real para ciertos niños, … Nos abre los ojos a las vulnerabilidades subyacentes en la vida del niño que pueden ponerlo en mayor situación de riesgo. Al comprender y abordar estas vulnerabilidades, podemos proteger mejor a los niños tanto en línea como fuera de línea, y facilitar que disfruten de las oportunidades que surgen al estar conectados en un mundo digital”.
Como señala la Declaración conjunta sobre libertad de expresión e internet de 2011 que incluyó a la ONU y a la OEA, “El acceso a internet también es necesario para asegurar el respeto de otros derechos, como el derecho a la educación, la atención de la salud y del trabajo, derecho de reunión y asociación, y el derecho a elecciones libres”. Del otro lado, en el ecosistema digital se vulneran de manera masiva derechos y libertades, especialmente los de la personalidad. Internet es campo fértil de violación de un sinnúmero de derechos fundamentales. Datos personales, imagen, voz, intimidad, propiedad intelectual, derechos marcarios, derechos del consumidor, autodeterminación informativa, etc. El daño informático es incontenible, multiplicable, expansivo y sumamente invasivo. Es persistente e instantáneamente peligroso. La viralización que alimenta internet potencia el daño perpetuando la violencia y la discriminación.
La responsabilidad parental
En la infancia, el ejercicio de la responsabilidad parental como deber-derecho derivado de una paternidad responsable, exige un esfuerzo por la alfabetización digital de los adultos que lleve a una correcta educación de los niños, niñas y adolescentes sobre navegación en la red, uso del correo electrónico, uso de mensajería instantánea, uso de blogs, fotologs, páginas personales y redes sociales, uso de redes para compartir contenidos, redes P2P, juegos en red y uso de celulares. El colectivo de la niñez y la adolescencia presenta una gran vulnerabilidad digital al estar expuestos a graves riesgos tales como, la violación a la intimidad, el robo y la suplantación de la identidad, el abuso emocional y la violencia digital, la exposición a material inadecuado o engañoso, el acoso o cyberbullying. La identificación de estos riesgos digitales, requiere una actuación inmediata de los progenitores o del menor adolescente, que les permita pre constituir una prueba rápida y eficaz para defender sus derechos fundamentales. “El ciberacoso es una forma de violencia que no puede pasar desapercibida. Si no se actúa a tiempo puede dejar marcas emocionales que repercuten en la salud física y emocional, en las relaciones interpersonales, rendimiento escolar y que en casos extremos puede llevar a atentar contra la propia vida”. La ley 26.388 incorporó al Código Penal en delito de grooming. El art. 131 del Código Penal lo define como la acción deliberada de un adulto de contactar a una persona menor de edad, a través de medios electrónicos y cualquier otra tecnología de transmisión de datos, con el objeto de ganar su confianza y cometer un delito contra la integridad sexual de la misma. En estos casos, la Defensoría del Pueblo de la Ciudad Autónoma de Buenos Aires, en el Informe institucional del año 2019, recomienda no borrar ningún contenido del dispositivo que se haya recibido; ya que las conversaciones, las imágenes y los videos que fueron intercambiados con el acosador serán guardadas como prueba. Para ello se indica que: “(…) es necesario fotografiar o capturar la pantalla, y almacenar esta información en algún otro dispositivo. Asimismo, se sugiere no denunciar al perfil acosador en las redes sociales, ya que al bloquear al usuario se puede perder información necesaria para una eventual investigación. Además, porque el abusador puede crear un nuevo perfil y continuar realizando estas acciones”.
La Cámara de Mendoza, Sala B, tuvo oportunidad de expedirse el 24 de mayo de 2019, en el expediente “P.A.E. c/ Facebook Argentina SRL s/medida autosatisfactiva”, ordenando la (…) “ eliminación de las publicaciones en las que se hace uso de imágenes y del nombre de los menores S.E.P.o, NNRP P y MPM, en el perfil de esa red social denominado “JF”, I; como así también de las publicaciones en las que se hace uso de imágenes correspondientes a actuaciones judiciales donde se nombra a MPM en el perfil denominado “MMF”. Asimismo, ordenó a los perfiles de esa red social denominados “JF”, y “MMMFs”, abstenerse de habilitar el uso de enlaces, blogs, foros, grupos, sitios de fans o cualquier otro espacio web dentro de esa red social en los que se menoscabe o afecte de cualquier manera el nombre, imagen, intimidad y/o integridad de los menores en los términos de la presente (…).” La Cámara reitera la doctrina de la Corte Suprema de Justicia de la Nación en los casos María Belén Rodríguez y Carolina Giambutas en materia de responsabilidad de los proveedores de contenido en redes y buscadores de internet, en donde se cristaliza la tensión entre la libertad de expresión y el derecho al honor y la imagen y conforma la responsabilidad subjetiva de los motores de búsqueda. En este sentido la Corte expresó “(…) Nadie debiera estar sujeto a responsabilidad por un contenido en internet del que no sea su autor. Pero hay responsabilidad si toma conocimiento y no toma medidas. (…) En ausencia de una regulación legal específica, conviene sentar una regla que distinga nítidamente los casos en que el daño es manifiesto y grosero, a diferencia de otros en que es opinable, dudoso o exige un esclarecimiento. (art.16 Dec. Ley 7/2004 Portugal). Son manifiestas las ilicitudes respecto de contenidos dañosos, como pornografía infantil, datos que faciliten la comisión de delitos, apología del genocidio, racismo o discriminación, incitación a la violencia, al suicidio, desbaratamiento de investigaciones judiciales, contenidos que importen lesiones contumeliosas al honor, montaje de imágenes notoriamente falsos o que en forma clara e indiscutible, importen violaciones graves a la privacidad exhibiendo imágenes de actos que por su naturaleza deben ser privados, aunque no sean necesariamente de contenido sexual. La naturaleza ilícita de estos contenidos es palmaria y resulta directamente de consultar la página señalada en una comunicación fehaciente del damnificado, sin requerir ninguna otra valoración ni esclarecimiento (…) Por el contrario, en los casos en que el contenido dañoso, importe eventuales lesiones al honor, o de otra naturaleza, pero que exijan un esclarecimiento que deba debatirse o precisarse en sede judicial o administrativa para su efectiva determinación, cabe entender que no puede exigirse del “buscador” que supla la función de la autoridad competente ni menos aún la de los jueces. Por tales razones, en estos casos corresponde exigir la notificación judicial o administrativa competente, no bastando la simple comunicación del particular que se considere perjudicado y menos la de cualquier persona interesada (…)”.
Conclusiones preliminares.
“El último de los valores que el derecho realiza es la justicia en los individuos, la sensación y el convencimiento de que sus derechos han de ser respetados, y de que no ha de alterarse la estabilidad y permanencia de las situaciones jurídicas, constituyendo así un efecto del orden social y de la paz”.
El avance tecnológico significó, un cambio en las herramientas de desarrollo y elaboración, pero no de las relaciones intersubjetivas que deben mantenerse incólumes frente al desafío que plantea el entorno digital.
En esa utilización de los componentes tecnológicos, los operadores jurídicos tenemos el desafío de un pacto social, lo que denominamos “conciencia tecnológica”, es decir, del uso responsable de la tecnología a través de amplio conocimiento de las herramientas con las que contará y un profundo análisis de los presupuestos de fondo necesarios para ello.
Este nuevo contrato social exige la formulación de una legislación moderna y dinámica, la observancia de principios éticos sólidos, y la alfabetización digital que permita adquirir nuevas habilidades a los individuos que interactúan con seguridad en el nuevo entorno. En este desarrollo del conocimiento reflexivo y crítico deberá ponderar el efecto que produce en la sociedad, el uso de las tecnologías de la información y comunicación y el reconocimiento de la persona humana como un colectivo objetivamente vulnerable, constituyéndose en garante de los derechos humanos frente al desarrollo tecnológico.
Bibliografía, fallos y linkografía.
Alterini, Atilio A., Rumbos Actuales del Derechos Daños, LL, 2008-E, 1295.
Alpa Guido, y Bessone, M., I fatti illecitti, en Rescigno, P., “Trattato di Diritto Privato”, t.VI, Torino, 1985, p.1.
Fernández Sessarego, C., Nuevas tendencias en el Derecho de las Personas, Lima, 1990, p. 276;
Deslinde conceptual entre daño a la persona, daño al proyecto de vida y daño moral, en Espinoza Espinoza, J. (director), “Responsabilidad Civil. Nuevas tendencias, unificación y reforma. Veinte años después”, Lima, 2005, p- 107.
Salierno, Karina Vanesa, Vulnerables Digitales en “Derecho y Tecnología. Aplicaciones Notariales”, Ed. Ad Hoc, 2020.
Diego Sánchez-González y Carmen Egea-Jiménez, Enfoque de vulnerabilidad social para investigar las desventajas socio ambientales. Su aplicación en el estudio de los adultos mayores, http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-74252011000300006
http://hum.unne.edu.ar/revistas/geoweb/Geo2/contenid/vulner6.htm
Armella, Cristina N., Salierno, Karina V. y otros, El notario. Ciencia, técnica y arte al servicio de las personas más vulnerables. UINL, Primer Premio de Investigación Jurídica de la UINL sobre personas con discapacidad, personas mayores, inmigrantes, infancia, refugiados u otros grupos que se encuentran en situación de vulnerabilidad. FEN, 2019.
Corte IDH, OC-17/02, Corte IDH, Masacre de las Dos Erres vs. Guatemala;
Corte IDH, Rosendo Cantú et al. vs. México,
Corte IDH, Instituto de Reeducación del Menor vs. Paraguay;
Corte IDH, Bulacio vs. Argentina;
Corte IDH, Hermanos Gómez Paquiyauri vs. Perú;
Corte IDH, Masacre de Santo Domingo vs. Colombia;
Corte IDH, Masacre de las Dos Erres vs. Guatemala,
Corte IDH, Masacres de Ituango vs. Colombia,
Corte IDH, Rosendo Cantú vs. México,
Corte IDH, González et al. (Campo Algodonero) vs. México;
Corte IDH, Masacre de las Dos Erres vs. Guatemala;
Corte IDH, Gelman vs. Uruguay,
Corte IDH, Niñas Yean y Bosico vs. República Dominicana,
Corte IDH, Rosendo Cantú vs. México;
Corte IDH, Masacres de Rio Negro vs. Guatemala;
Corte IDH, Plan de Sánchez vs. Guatemala,
Corte IDH, González et al. (Campo Algodonero) vs. México,
Corte IDH, Rosendo Cantú́ vs. México;
Corte IDH, TiuTojin vs. Guatemala,
Corte IDH, Ximenes Lopes vs. Brasil,
Corte IDH, Furlán y familia vs. Argentina,
Corte IDH, Artavia Murillo (Fecundación in vitro) vs. Costa Rica.
Sentencia Poblete Vilches y familiares vs. Chile. 2018.
CIDH Atala Rifo. Vs. Chile. o Cantú vs. México.
Frosini, Vittorio, L’orizzonte giuridico dell’internet, en “Il diritto dell’informazione e dell’informatica” , año XVI, fasc. 2, 2000, pp. 271-280. Traducido del italiano por Juan F. Sánchez Barrilao. https://www.ugr.es/~redce/REDCE28/articulos/08_FROSINI.htm
https://www.redalyc.org/pdf/4418/441846104007.pdf
Sunstein, Cass. R., Choosing not to choose. Understandig the value of choise, Oxford University Press, New York, 2015.
Granero, Horacio, R., Inteligencia Artificial y Justicia Predictiva (¿puede la inteligencia artificial determinar si tengo razón o no en un juicio?, e “Inteligencia Artificial y Derecho, un reto social”, Ed. elDial.com, 2020.
Bostrom, Nick, Superintelligence: Paths, Dangers, Strategies, Oxford, Oxford University Press, 2014.
Harari, Yuval Noah, Homo Deus, breve historia del mañana, traducción de Joandomenec Ros, 14 ed. Penguin Random House Grupo Editorial, 2020.
Granero, Horacio R. Un futuro de participación entre humanos y algoritmos inteligentes, capítulo 15, en, “El Derecho de las TIC en Iberoamérica Obra Colectiva de la Federación Iberoamericana de Asociaciones de Derecho e Informática” página 1133.
Acceso y uso de tecnologías de la información y la comunicación. EPH. Principales indicadores del Módulo de acceso y uso de tecnologías de la información y la comunicación. Cuarto trimestre de 2019. https://www.indec.gob.ar/uploads/informesdeprensa/mautic_05_20A36AF16B31.pdf
https://www.baai.ac.cn/ai-for-children.html
Anthony Lake, Director Ejecutivo de UNICEF, estado mundial de la infancia 2017, Niños en un mundo digital. https://www.unicef.org/media/48611/file
https://www.boe.es/doue/2016/119/L00001-00088.pdf
Faliero, Johanna C. La protección de datos personales. Reestructuración teórica de las aristas tuitivas: Redefinición de “dato sensible”, tutela dinámica del derecho de autodeterminación informativa y abordaje jurídico de la fuga de información” Buenos Aires, Ad-Hoc, 2019.
Mishan, E. J, Falacias económicas populares, Trad. R. Pérez Pita, Buenos Aires, 1984, p. 93.
Lamanna Guiñazú, E. (2020). Reflexiones en torno a la responsabilidad civil en la revolución industrial 4.0. Desafíos de la normativa sobre prevención y reparación del daño en la Argentina digital 4.0”. Revista Perspectivas de las Ciencias Económicas y Jurídicas. Vol. 10, N° 2 (julio-diciembre). Santa Rosa: FCEyJ (UNLPam); EdUNLPam; pp. 87-124. ISSN 2250-4087, e-ISSN 2445-8566 DOI http://dx.doi.org/10.19137/perspectivas2020-v10n2a05
https://www.unicef.org/media/48611/file
https://www.bbc.com/mundo/noticias-internacional-37380350
Observatorio de Derechos en Internet del Centro de Protección de Datos Personales del Centro de Ciberseguridad del Gobierno de la Ciudad de Buenos Aires (BA-CSIRT). Marzo 2019. http://cpdp.defensoria.org.ar/wp-content/uploads/sites/5/2019/03/Violencia-contra-la-mujer-Cuadernillo.pdf
Mouchet, Carlos y Zorraquín Becú, Ricardo, Introducción al Derecho, Abeledo Perrot, Buenos Aires, 1959, p.74
Reyes Olmedo, Patricia., Algoritmocracia, elDial on line DC2943



