DERECHO, INNOVACIÓN y DESARROLLO SUSTENTABLE. Revista de Doctrina y Jurisprudencia, Agosto de 2023

0
7

Año LXII

DERECHO, INNOVACIÓN & DESARROLLO SUSTENTABLE
REVISTA DE DOCTRINA Y JURISPRUDENCIA

Director: Dr. Emiliano E. Lamanna Guiñazú

Coordinadoras: Matilde Pérez – Valeria Moreno

CÁPSULA DE PRESENTACIÓN

Entre esperanzas, temores y razonamientos, por Valeria Moreno – Cita Digital: ED-MVDCCLX-71

CÁPSULA DE REFLEXIÓN

De los temores y miedos que nos genera ChatGPT. Reflexiones desde la filosofía de Èric Sadin y los temores de Black Mirror: ¿marchamos hacia una nueva realidad educativa?, por Mariana Sánchez Caparrós, Karina Vanesa Salierno y Emiliano Carlos Lamanna Guiñazú – Cita Digital: ED-MVDCCLX-70

CÁPSULA COMENTARIO

En búsqueda de un marco regulatorio de la IA. Estados Unidos. Compromiso de las principales empresas del sector con la Administración Biden para la gestión de los riesgos que plantea la Inteligencia Artificial, por Matilde Pérez – Cita Digital: ED-MVDCCLX-69

DOCTRINA

Ética en tiempos de inteligencia artificial. Reflexiones en torno a los planteos éticos de las IA en tiempos laberínticos de vulnerabilidad y transhumanismo que propone la Cuarta Revolución Industrial, por Gustavo Andrade Figueroa – Cita Digital: ED-MVDCCLX-68

Inteligencia artificial y administración de justicia: ¿La independencia judicial está en peligro?, por María Celeste Colombo – Cita Digital: ED-MVDCCLX-67

Ministerio Público Fiscal@(*)Reset, por Carlos Manuel Romero Berdullas – Cita Digital: ED-MVDCCLX-66

Ley de Receta Electrónica Argentina. Estado del arte y sus implicancias operativas, éticas y legales. Decreto 98/2023: reglamentación de la ley

27.553 de Recetas Electrónicas o Digitales y Plataformas de Teleasistencia, por María Isabel Iñigo Petralanda y Ariel Leonardo Fernández – Cita Digital: ED-MVDCCLX-65

NODO STARTUP (La columna de los emprendedores)

Reportaje a la abogada emprendedora Natali Aun Santiago, cofundadora de la empresa WE Ballet Fitness y cofundadora de Mujeres Argentinas Emprendedoras –MAE–, por Emiliano Lamanna Guiñazú – Cita Digital: ED-MVDCCLX-64

Entre esperanzas, temores y razonamientos(*)

En este número 14 nuestra propuesta se centra en las diversas manifestaciones y desafíos que nos plantea el uso de la Inteligencia Artificial desde el punto de vista jurídico, social y ético.

En la Cápsula de reflexión De los temores y miedos que nos genera ChatGPT. Reflexiones desde la filosofía de Eric Sadin y los temores de Black Mirror: ¿marchamos hacia una nueva realidad educativa?, Mariana Sánchez Caparrós, Karina Salierno y Emiliano Lamanna Guiñazú analizan la idea de una inteligencia artificial general, desde la perspectiva de análisis de Sam Altman, en la que se destaca la necesidad de asegurar una IA general que beneficie a toda la humanidad y pueda contribuir a elevar la calidad de vida. Postura que se entiende opuesta a la sustentada por el filósofo Eric Sadin. Toman como punto de partida la distopía que se advierte en la serie televisiva (Black Mirror) con relación a la postura adoptada por este último autor.

En cuanto a su expansión al ámbito educativo y el impacto en el vínculo laboral, reflexionan sobre los contenidos académicos generados a partir de esta tecnología, el desarrollo de aptitudes, competencias y habilidades de los actores del proceso educativo, sus probabilidades y límites. Los riesgos de manipulación de la verdad y las propuestas existentes para su regulación. Refieren a experiencias internacionales y reflexionan sobre la necesidad de custodiar la verdad y el pensamiento crítico frente a los textos que proporciona la IA.

Matilde Pérez en su Cápsula comentario En búsqueda de un marco regulatorio de la IA. Estados Unidos. Compromiso de las principales empresas del sector con la Administración Biden para la gestión de los riesgos que plantea la Inteligencia Artificial analiza la búsqueda de un nuevo marco regulatorio de la Inteligencia Artificial en los Estados Unidos dando cuenta de un acuerdo alcanzado entre las principales empresas del sector y la administración Biden para la gestión de los riesgos que plantea la IA. Comienza con el Blueprint for an AI Bill of Rights de 2022, en el que se identifican los principios que deben guiar el diseño, uso e implementación de sistemas automatizados que deben ser tomados en casos como directrices y que nacen de la interacción de los diversos estratos sociales. Se ocupa del compromiso de las principales empresas de la IA con el Gobierno de los Estados Unidos para gestionar los riesgos que ella produce, que coincide con el incremento exponencial de la industria en estos últimos meses. Acuerdo en el que se evidencia la tensión entre los intereses económicos, las carreras corporativas y los impactos en la vida de las personas, así como seguridad-confianza como eje de estos compromisos asumidos. En su análisis se destaca la posibilidad de extender este acuerdo y políticas a otros países en el marco de las actividades propuestas en el Proceso de Hiroshima del G-7 de mayo del 2023.

(*) El presente trabajo se inscribe dentro del Programa IUS de Investigación Jurídica Aplicada de la Pontificia Universidad Católica Argentina (UCA) que dirige el Profesor Doctor Jorge Nicolás Laferriere, concretamente en el Programa IUS titulado “El derecho civil patrimonial frente al emergente alta tecnología. Desafíos e interpretación jurídico/ patrimonial frente al avance tecnológico, la innovación permanente y el desarrollo sustentable”, que dirigen los Dres. Emiliano Carlos Lamanna Guiñazú y Matilde Pérez junto a un grupo de destacados juristas que los acompañan; también del Programa IUS de Investigación Jurídica Aplicada titulado “La función preventiva y la incertidumbre científica en actividades especialmente peligrosas. El Compliance como técnica de prevención y anticipación de daños en el ámbito empresario”, que dirige la Dra. Matilde Pérez juntamente con el Dr. Fernando Ubiría junto a un destacado grupo de colaboradores.

(**) Abogada (UNLP); Doctora en Ciencias Jurídicas por la Facultad de Ciencias Jurídicas y Sociales de la Universidad Nacional de La Plata; profesora de grado y posgrado; autora de la actualización del “Código Civil y Comercial – Tratado Exegético” con la dirección general de Jorge Alterini, editorial Thomson Reuters, artículos 724-725, año 2019; como así también autora de numerosos comentarios y ponencias ligadas a la actividad profesional.

Gustavo Andrade Figueroa desde Ecuador incursiona en Ética en tiempos de Inteligencia Artificial. Reflexiones en torno a los planteos éticos de las IA en los tiempos laberínticos de vulnerabilidad y transhumanismo que propone la Cuarta Revolución Industrial. El autor nos habla de la incidencia de la Inteligencia Artificial en el Derecho y la vulnerabilidad, las posiciones filosóficas sobre los seres humanos, si la IA pretende al individuo como transhumano en una mirada que abarca desde lo cotidiano a lo trascendental, y la relación entre el ser humano y la máquina. La vulnerabilidad como condición intrínseca del ser humano; el derecho a la vulnerabilidad como garantía de la dignidad humana que nos brinda una ética en el uso de la inteligencia artificial. Analiza la ética aplicada al ser humano que se vale de la tecnología y una perspectiva de la religión humanista. Estos prolegómenos son el avance hacia los principios éticos que guían un adecuado desarrollo de la inteligencia artificial. Analiza los marcos normativos de orden internacional (UNESCO) y regional (Unión Europea).

María Celeste Colombo en Inteligencia Artificial y administración de justicia: ¿La independencia judicial está en peligro? plantea si la posibilidad de cambio de modelos, el uso de sistemas de inteligencia artificial en la Administración de Justicia y la interrelación entre el debido proceso y la inteligencia artificial pueden afectar la independencia del Poder Judicial. Se ocupa de los denominados “jueces robots”. La aplicación de las nuevas tecnologías nos enfrenta al desafío de la burocracia estatal en la administración de justicia, el compromiso de los magistrados, los avances que permitan la predicción de resultados, y la protección de los derechos humanos fundamentales. En contrapartida, la existencia de algoritmos sin sesgos basados en estadísticas que, a su vez, pueden plantear la desigualdad o la posibilidad de desigualdad en el trato.

En el vínculo con el debido proceso, la inteligencia artificial y el proceso pueden convertirse en aliados para una adecuada gestión judicial de calidad centrada en el justiciable y el uso de sistemas como ADM (toma de decisiones automatizadas). Destaca además el derecho al acceso a la información sobre el algoritmo utilizado para resolver el caso, la lógica algorítmica de tal decisión y cuál es el data set de entrenamiento del algoritmo utilizado. En la actualidad no existen jueces robots como tales, sino que hay predictivos de inteligencia artificial al servicio del Poder Judicial. Propone, entonces, posibles soluciones a la aplicación de aquellos para garantizar un debido proceso digital.

Carlos Romero Berdullas nos aporta en su trabajo Ministerio Fiscal@Reset el gran reinicio de la administración de justicia, así como del derecho penal. Plantea cómo conjugar la inteligencia artificial con el obrar del Ministerio Público Fiscal vinculado con un derecho-deber de legalidad procesal y al interés público que garantice la persecución penal. Es necesario discernir si el reseteo del Ministerio Público Fiscal a través del auxilio de la inteligencia artificial puede acercar o no a los fiscales en su rol de acusadores públicos y reafirmar la legalidad procesal. En este sentido, el autor sugiere a la inteligencia artificial como una de las soluciones posibles para simplificar el proceso penal, agilizar respuestas, mejorar la eficacia en el manejo de los recursos o resolver la sobrecarga laboral sin necesidad de modificar dicho principio de legalidad. Otro de los puntos es el afianzamiento de la unidad de actuación, en la que utilizar inteligencia artificial permitiría sumar uniformidad e igualdad en la persecución de delitos y en el ejercicio de la acción penal. La herramienta tecnológica utilizada puede fortalecer el resguardo de la objetividad fiscal como una garantía a las víctimas e imputados, evitando así persecuciones arbitrarias.

Cierra su profundo y medular análisis de la cuestión con un gran desafío para los operadores que participan del proceso jurídico en el escrutinio del límite ético-jurídico que no debe sobrepasarse a través del uso de esa inteligencia artificial.

María Isabeligo Petralanda y Ariel Leonardo Fernández en el artículo Ley de Receta Electrónica Argentina. Estado del arte y sus implicancias operativas, éticas y legales. Decreto 98/2023: Reglamentación de la Ley 27553 de Recetas electrónicas o digitales y Plataformas de teleasistencia nos plantean el desafío de la aplicación digital al ámbito de los servicios de salud. El diseño de una tecnología desconocida tiene implicancias directas e indirectas en la persona humana. El acto de prescripción digital y electrónica trae consigo cuestiones morales y éticas normativas.

La pandemia COVID 19, como escenario masivo digital, dio cuenta del necesario despliegue de herramientas digitales más allá de las tecnologías de la información y la comunicación, incluyendo la tecnología informática para las estadísticas de contagio en hospitales o de controles de cumplimiento de vacunación inter y transfronterizos. Celulares y ordenadores se transformaron en el nuevo canal de mediación entre pacientes y médicos, entre diagnósticos y prescripciones. Los autores tratan la creación de la red y el registro de dominios de interoperabilidad en salud. Analizan la ley y decreto actual sobre recetas electrónicas o digitales y las plataformas de teleasistencia para la prescripción y dispensa de medicamentos, así como toda otra indicación a través de la tecnología digital en todo el territorio nacional, manteniendo el régimen de las recetas en papel con firma manuscrita. En ese estudio se abocan desde la interfase hasta la implementación de este sistema con el análisis de diversas resoluciones, formularios, certificaciones y documentación en general que acredite el carácter del solicitante y personalidad del responsable legal. Concluyen su trabajo con el abordaje de la historia clínica única, así como las competencias y jurisdicciones que se encuentran involucradas en su implementación.

En NODO STARTUP (La columna de los emprendedores), Emiliano Lamanna Guiñazú entrevista a la Abog. Natalie Aun Santiago, cofundadora de “We Ballet Fitness” y de “MAE” (Mujeres Argentinas Emprendedoras), y se aborda el universo del emprendedor. Destaca la entrevistada la creación de la empresa de Mujeres Argentinas Emprendedoras, su impacto social y la necesidad de buscar herramientas que incentiven a los emprendedores. Da a conocer la plataforma que ofrece vincular a las emprendedoras con los proveedores de servicios, con una alta participación de mujeres, lo cual muestra el acceso de la mujer a los altos cargos de decisión y gestión. Aporta consejos para quienes deciden iniciar el camino del emprendimiento empresarial. A través del programa de gestión integral de negocios, se incluyen temáticas sobre desarrollo de marca, marketing legal, derecho de propiedad intelectual, aspectos económico-financieros, y su expansión al ámbito educativo.

¡Deseamos que los aportes incluidos en este número sean de interés y utilidad de los lectores!

VOCES: ABOGADO – PROCESO JUDICIAL – PODER JUDICIAL – INFORMÁTICA – TECNOLOGÍA – CORTE SUPREMA DE LA NACIÓN – DEFENSA EN JUICIO – EXPEDIENTE JUDICIAL – EJERCICIO PROFESIONAL – JUECES – DERECHO PROCESAL – SENTENCIA – JURISPRUDENCIA – CONSTITUCIÓN NACIONAL – COMUNICACIONES ELECTRÓNICAS – NORMAS DE EMERGENCIA – INTERNET – INTELIGENCIA ARTIFICIAL – DERECHOS Y GARANTÍAS CONSTITUCIONALES – ACCESO A LA JUSTICIA – FILOSOFÍA DEL DERECHO – MINISTERIO PÚBLICO – DERECHO PENAL – DERECHO PROCESAL PENAL – DERECHOS HUMANOS – ECONOMÍA – CÓDIGO DE ÉTICA – HISTORIA CLÍNICA – PROTECCIÓN DE DATOS PERSONALES – HÁBEAS DATA – SECRETO PROFESIONAL – DAÑOS Y PERJUICIOS – RESPONSABILIDAD CIVIL – MEDICAMENTOS – OBLIGACIONES – CÓDIGO CIVIL Y COMERCIAL – ACTOS Y HECHOS JURÍDICOS – COMERCIO E INDUSTRIA – SALUD PÚBLICA – MÉDICO – OBRAS SOCIALES – MEDICINA PREPAGA – PROFESIONALES DE LA SALUD – ESTADO – COMERCIANTES – ACTOS DE COMERCIO – SOCIEDADES – PERSONAS JURÍDICAS – EMPRESA – GRUPOS ECONÓMICOS – CIBERSEGURIDAD.

De los temores y miedos que nos genera ChatGPT
Reflexiones desde la filosofía de Èric Sadin y los temores de Black Mirror: ¿marchamos hacia una nueva realidad educativa?(*)

por Mariana Sánchez Caparrós(**), Karina Vanesa Salierno(***) y Emiliano Carlos Lamanna Guiñazú(****)

Pero más allá de estos vaticinios, las voces contrarias fueron muchas. Quizás, la que mayor carga dramática ofrece sea la del catedrático y filósofo francés Èric Sadin, cuya visita a la 47ma. Feria del Libro de Buenos Aires celebrada entre el 18 de abril y el 2 de mayo de este 2023(4) expuso sobre “Filosofía en el Metaverso y ChatGPT” en línea con una visión dada en trabajos anteriormente publicados.

De Sam Altman a Èric Sadin y el cambio antropológico

El pasado 24 de febrero, en el blog de OpenAI(1), Sam Altman, CEO de la misma empresa, publicó una nota de opinión titulada “Planificando para la IA general y más allá”(2). Allí, el CEO, que hace algo menos de siete meses pocos conocían, comienza señalando que una de las misiones de OpenAI es asegurar que la inteligencia artificial general (AGI) beneficie a toda la humanidad(3).

Sam Altman – Ceo Open AI Èric Sadin en la 47ma. Feria del Libro de Buenos Aires.

(*) El presente trabajo se inscribe dentro del Programa IUS de Investigación Jurídica Aplicada de la Pontificia Universidad Católica Argentina (UCA) que dirige el Profesor Doctor Jorge Nicolás Lafferriere, concretamente en el Programa IUS titulado “El derecho civil patrimonial frente al emergente alta tecnología. Desafíos e interpretación jurídico/ patrimonial frente al avance tecnológico, la innovación permanente y el desarrollo sustentable” que dirigen los Dres. Emiliano Carlos Lamanna Guiñazú y Matilde Pérez junto a un grupo de destacados juristas que los acompañan; también del Programa IUS de Investigación Jurídica Aplicada titulado “La función preventiva y la incertidumbre científica en actividades especialmente peligrosas. El Compliance como técnica de prevención y anticipación de daños en el ámbito empresario” que dirige la Dra. Matilde Pérez juntamente con el Dr. Fernando Ubiría junto a un destacado grupo de colaboradores.

(**) Abogada (UBA, Diploma de Honor). Mg. en Derecho Administrativo (Universidad Austral, Diploma de Honor). Doctorando (UCA). Relatora Abogada del Superior Tribunal de la Provincia de Tierra del Fuego AeIAS. Investigadora del IALAB y del DYNTEC LAB. Profesora universitaria de grado y posgrado (UBA, Universidad Austral, UCES, entre otras). Autora de diversos artículos de doctrina de la especialidad Derecho Público y Derecho y Tecnología en revistas nacionales e inter-nacionales. Autora de la obra Categorías sospechosas (Astrea, Buenos Aires, 2020) y coautora del Código Contencioso Administrativo Comentado de la Provincia de Tierra del Fuego (RAP, Buenos Aires, 2013). (***) Abogada (UBA) y Notaria. Doctoranda en Ciencias Jurídicas

–PhD– (UCA). Magíster en Derecho de Familia e Infancia, Universidad de Barcelona. Posgrado en Familia e Infancia en Universidad de Salamanca y UBA, Derecho y Tecnología UBA. Es autora de numerosos trabajos académicos.

(****) Abogado (UBA). Especialista en Derecho de la Alta Tecnología (UCA) y Doctor en Ciencias Jurídicas (UCA). Coordinador del Doctorado en Ciencias Jurídicas por la Pontificia Universidad Católica Argentina (UCA). Profesor de Posgrado en la Maestría en Derecho Civil Patrimonial de la Pontifica Universidad Católica Argentina (UCA) y por la Universidad de Buenos Aires (UBA). Profesor Titular de Grado en las asignaturas: “Derecho de las Obligaciones Civiles y Comerciales” y “Derecho de Daños” por la Pontificia Universidad Católica Argentina (UCA) y por la Universidad del Museo Social Argentino (UMSA). Director del suplemento “Derecho, Innovación & Desarrollo Sustentable” de la editorial EL DERECHO. Autor de la obra: “Daño Agravado por el Acreedor. Formas del debido comportamiento de la víctima” de la editorial Astrea. Autor de numerosos trabajos de doctrina en revistas especializadas. Miembro de la Comisión de Abogacía Digital de la Pontificia Universidad Católica Argentina (UCA).

  1. Ver OpenAI Blog, https://openai.com/blog [acceso 6/3/2023].
  2. “Planning for AGI and beyond”, OpenAI Blog, en https://ope-nai.com/blog/planning-for-agi-and-beyond [acceso el 6/3/2023].
  3. Ídem.

Sadin es una de las voces que nos conducen a la reflexión y al recogimiento cada vez que tocamos estos temas. Autor de libros importantes, como ser “La sociedad de la anticipación” (2011), “La silicolonización del mundo” (2017), “La inteligencia artificial o el desafío del siglo. Anatomía de un antihumanismo radical” (2018) o “La era del individuo tirano”, todas estas de editorial Caja Negra, planteando los peligros que trae su utilización, planteando temores desde la conceptualización propia que merece el nombre que le ha dado relevancia y sentido a estos tiempos denominados como de la Revolución Industrial 4.0 que llega de la mano, entre otras tecnologías, pero sobre todo de la inteligencia artificial (IA).

No perdimos la oportunidad de preguntarle a Sadin: “¿Qué es la inteligencia artificial?”. “No lo sé”, respondió, “llevo años intentando desarrollar esa definición, pero hasta qué punto estas tecnologías se pegan a nuestro dis-curso es estremecedor”(5).

La postura de Sadin sobre el impacto que puede causar esta tecnología en nuestro lenguaje, la educación y los mecanismos, objetivos y entornos laborales, suelen llamarlo a la reflexión, sosteniendo que “Necesitamos me-nos periodismo y más pensamiento. En estos últimos años nos dimos cuenta de las cosas cuando ya era tarde. Hay que intentar captar lo que viene y qué efectos de consciencia puede engendrar”(6). Para adentrarse en los cambios antropológicos que supone la misma, al señalar que “la facultad de tomar el relevo y de ocuparse de nuestras facultades humanas más fundamentales: el lenguaje y la representación de la imagen. Y esto es un movimiento civilizatorio de profundas consecuencias antropológicas”(7). Por su parte, la visión que entiende Altman, que princi-pia el punto en análisis, es la de una tecnología que pueda ayudarnos a elevar la calidad de vida de la humanidad ge-nerando abundancia, impulsando la economía global y colaborando con el descubrimiento de nuevos conocimientos científicos que modifiquen los límites de lo posible.

Es decir, más recursos gracias a estas nuevas habilidades.

Black Mirror y la llegada de la distopía

En un sentido parecido, la serie “Black Mirror”, de Charlie Brooker y Annabel Jones, propuso un ensamble de historias distópicas y de prospectivas cercanas. Más allá de su inocultable éxito, insólitamente se detiene en 2017, dejándose de filmar por causas que el propio Brooker entendió necesarias pues estaba dando vueltas una idea de “nueva realidad” y temía que la serie no estuviera a la altura de la propuesta y de las expectativas que supo generar en sus comienzos en 2013. Es decir, la frase: “la realidad que supera a la ficción”, pudo haber sido la traba en la continuidad de sus historias, aunque otros hablan de un embrollo contractual en la que se vieron envueltos sus creadores y los derechos de exclusividad de la serie(8). Afortunadamente, los fanáticos de estas historias están disfrutando la sexta temporada desde el mes de junio de este 2023(9).

  1. https://www.el-libro.org.ar/inicio-internacional-47/
  2. https://www.pagina12.com.ar/545281-eric-sadin-chatgpt-es-un-movimiento-civilizatorio-de-profund
  3. Ídem.
  4. Ídem.

Black Mirror se para más cerca de Sadin que de Altman, aunque el miedo de este y de otros tantos prestigiosos hombres de ciencias que piden pausar ChatGPT juntó ambos pareceres en una causa común.

La llegada de ChatGPT puede abonar esa idea, aunque esperamos que no sea así y se vuelva a detener su filmación. No queremos prescindir de Black Mirror.

El mundo laboral y el espacio educativo: los impactos que importan

Semanas atrás, en el canal de cable KZO sintonizamos la charla de Santiago Bilinkis en el programa “Todo Pasa” de Matías Martin y Clemente Cancela, en la señal de Urbana Play (104.3 MHz), quien refería al impacto real de una página web que está haciendo historia hace poco tiempo. Recordemos que en el mes de noviembre de 2022 aparecía ChatGPT, que dio a Sam Altman una aparición fulgurante. Un fulgor que asustó a más de mil encumbradas figuras del campo científico tales como Elon Musk, Bill Gates y escritores distópicos como Yuval Noah Harari y, tal como lo señalamos, también al propio Altman…

En la charla, Bilinkis aporta datos intensos en torno a una suerte de máxima de estos tiempos: la tecnología ha quitado puestos de trabajo, es verdad. Pero no tantos como se supone que podría haber hecho. Planteando que la empleabilidad en el mundo ronda un desempleo del orden fluctuante entre 3% y 5% desde la irrupción tecnológica en los últimos quince años.

Agregando, al mismo tiempo, que toda la actividad comentada en formato web viene de la mano de datos. Una lluvia de datos arroja estimaciones, las cuales, como toda inferencia, suelen ser creíbles. Desde ese lugar se para Bilinkis al señalar lo que siempre se creyó: que la sustitución laboral por parte de la tecnología haría foco, en principio, en los oficios o trabajos repetitivos, por ejemplo, los cajeros de las autopistas han visto reducidos sus espacios laborales. Pero lo novedoso de la IA generativa, la que muchos conocimos a partir de ChatGPT, DALLE-2 y Stable Diffusion, es que esta parece avanzar sobre aquellas profesiones mayormente dotadas de creatividad e intelectualidad, por ejemplo: diseño de imágenes, poesía, prosa, cuentos, relatos de todo tipo, investigaciones académicas. ChatGPT puede extractar en dos renglones centenares de renglones de una sentencia sobre mala praxis. Luego, también puede transformar esos dos renglones en una historia en formato story telling.

Lo revolucionario de este modelo conversacional, entonces, es que apunta por el sendero de lo creativo e intelectual del ser humano. ¿Cuán creativo podrá ser? En principio, el algoritmo devuelve lo que se le carga, por lo que sería difícil ver replicar una obra de Van Gogh sin Van Gogh a la vista por ninguna parte. Pero creativo para la media intelectual lo será, sin dudas.

  1. https://computerhoy.com/noticias/entretenimiento/black-mirror-charlie-brooker-coronavirus-635829.
  2. También ver en https://www.espinof.com/fecha-de-estreno/ black-mirror-temporada-6-2023-fecha-estreno-trailer-reparto-todo-que-sa-bemos-antologia-ciencia-ficcion-netflix#:~:text=La%20fecha%20de%20 estreno,temporada%20de%20’Black%20Mirror

En cuanto al impacto educativo de la IA, que viene de la mano de lo laboral, claro, aquí sí la reflexión nos lleva a pensar que los contenidos académicos generados con esta tecnología presentan un gran desafío para la educación en todos sus niveles, sino acaso el más grande desafío desde la creación de las bibliotecas.

La IA generativa utiliza flujos de datos de la web que han sido expuestos de forma voluntaria e involuntaria. Estos flujos de datos se entrecruzan y configuran patrones de comportamiento utilizados principalmente para el proceso de perfilamiento humano, clustering y marketing de datos. Los sistemas de IA generativa como ChatGPT se entrenan con millones de datos contenidos en textos existentes en la web y con ellos, generan textos muy coherentes, con el plus de que son sistemas entrenados para aplicar una función de atención (en términos matemáticos) que les permite reconocer el sentido de las palabras o de conjuntos de palabras, para dar respuestas, no ya como lo haría un buscador, sino elaboradas, casi siempre coherentes y muchas veces, sobre todo cuando se trata de cuestiones de conocimiento general, no específico, bastante útiles.

ChatGPT es un sistema de IA generativa que puede procesar altos volúmenes de datos para elaborar contenido nuevo, original, coherente y contextualizado de manera rápida y relevante, a partir de una entrada en formato de texto en lenguaje natural (prompt) provista por el usuario. Es un generador de textos que encadena datos desde una perspectiva probabilística.

Es un asistente que puede resultar una herramienta útil en la escuela o en la universidad, como lo fue en algún momento la calculadora, la computadora o internet, pero, lo cierto es que esta herramienta no fue diseñada con fines pedagógicos, ni fue diseñada por un grupo interdisciplinario de profesionales que incluya educadores o docentes.

Por ello, la utilización del ChatGPT en entornos educativos nos desafía y posiciona frente a una gran responsabilidad que se centra en el desarrollo de aptitudes, competencias y habilidades en los alumnos y los docentes, para utilizarlo adecuadamente, explotar sus posibilidades y ser conscientes de sus límites.

Algunos de los posibles usos de ChatGPT pueden ser crear juegos, planificar un viaje, preparar una entrevista de trabajo, explicar un tutorial, buscar una receta, conocer sobre un personaje público, generar una entrevista, corregir y mejorar texto escrito, dar sugerencias, elaborar una canción, una obra escrita con estilos propios de autores de renombre, elaborar un libro completo, una presentación laboral, un diagrama de flujos, un programa informático, etc. Las respuestas siempre serán distintas y si la respuesta no nos satisface, podemos solicitar la regeneración de la respuesta tantas veces hasta que cumpla con nuestras expectativas.

La lógica consecuencial que se busca es la coherencia de las respuestas de ChatGPT, las que dependen, básicamente, de la forma en que se formula la pregunta o se brinda la instrucción, es decir, del prompt que se le envía a ChatGPT para que genere el texto que se le requiere. Si el prompt o la instrucción está bien formulado, la respuesta posiblemente será más adecuada y cumplirá con las expectativas del usuario.

En este escenario que se nos presenta nos preguntamos: ¿cuáles son entonces las implicancias negativas de esta herramienta tan poderosa en materia educativa?

Los mecanismos neuronales de aprendizaje son dinámicos, el cerebro es un complejo sistema adaptativo y social que se nutre con información focalizada y periférica, consciente e inconsciente. El aprendizaje y la memoria son los mecanismos más importantes para alterar la conducta humana, procesos íntimamente relacionados en donde la información que se consume es imprescindible para definirlos. El cerebro de manera innata otorga un significado a la nueva información a la cual accede, estableciendo un cableado neuronal que se ve reforzado o inhibido dependiendo de las experiencias que se ofrezcan y de la cantidad de veces que se refuerce el estímulo, por ello es importante ofrecer al alumno distintas perspectivas del mismo tema para enriquecer y reforzar el proceso de conocimiento.

La evolución de la IA generativa de texto, como ChatGPT, nos enfrenta, incluso desde el discurso de sus propios creadores, a dilemas éticos y sociales, educativos y culturales, pero principalmente a la posible generación y difusión de contenido falso o manipulado, a resultados sesgados, erróneos y posiblemente dañinos.

ChatGPT es sinónimo de riesgo de manipulación de la verdad. Del oráculo de Harari al soberano, en esta sociedad digitalizada la verdad se encuentra considerablemente amenazada por la IA generativa.

Alertados por estos sesgos y funcionalidades distópicas, algunos países han tomado medidas. Y, así, por ejemplo, Suecia paraliza el programa de digitalización de las escuelas, frente a la denominada “crisis de la lectoescritura” y alertados por el riesgo de crear una generación de “analfabetos funcionales” frente a las dificultades de comprensión, análisis crítico y comparativo de los alumnos(10). Lo cierto es que ChatGPT no sustituye el pensamiento crítico, la lógica relacional y circunstanciada de contenido. Es una herramienta poderosa e imponente que se pue-de utilizar para ayudarnos a elaborar pensamiento crítico, plantear preguntas inteligentes, abordar temas desde diferentes perspectivas y, con mucha supervisión, para buscar

información optimizando los tiempos.

Dadas sus limitaciones, ChatGPT nos desafía no solo a elaborar el prompt correcto para obtener la respuesta satisfactoria, sino a interpretar el texto generado y cotejarlo con la realidad y la verdad de los hechos. Nos desafía como docentes y educadores, plantea un reto a las comunidades educativas.

Algunas preguntas que deberíamos hacernos

¿Qué ofrecemos y que le pedimos al alumnado? Si el trabajo que le pedimos se basa en la reproducción de información no compleja, seguramente el alumno podrá utilizar ChatGPT, la biblioteca o Google, en mayor o menor tiempo, con mayor o menor resultado eficaz.

  1. https://www.epe.es/es/internacional/20230602/suecia-pa-raliza-plan-digitalizacion-escuelas-88221087

En cambio, si le pedimos al alumno un posicionamiento crítico, comparativo, una evaluación ética con referencia de fuentes primarias y humanas sobre el tópico, incluso sobre texto generado por ChatGPT o leído con asistencia de esta herramienta, estaremos incentivando el pensamiento crítico, la inteligencia emocional, la empatía y la creatividad.

Como docentes y como alumnos: ¿estamos dispuestos a invertir nuestro tiempo en aprender a discernir lo falso de lo verdadero frente a un texto sumamente coherente, que utiliza adecuadamente la terminología de la ciencia que enseñamos y aprendemos? ¿Estamos dispuestos a asumir nuestro rol de custodios de la verdad y del pensamiento crítico frente al texto generado por IA?

La tecnología cuando tiene sentido nos tiene que llevar a un lugar mejor, no a un lugar peor. Siendo así, ¿Cuál es la IA que queremos como herramienta del proceso educativo? Seguramente estos y otros interrogantes darán lugar a nuevos espacios de debate entre docentes y, por qué no, alumnos también, pues un futuro con la educación atravesada por las nuevas tecnologías nos interpela a todos por igual.

VOCES: OBLIGACIONES – DAÑOS Y PERJUICIOS – ECONOMÍA – TECNOLOGÍA – INFORMÁTICA – COMERCIO E INDUSTRIA – INTELIGENCIA ARTIFICIAL – PODER JUDICIAL – INTERNET – COMUNICACIONES ELECTRÓNICAS – PROCESO ORDINARIO – SENTENCIA – ABOGADO – RESPONSABILIDAD CIVIL – CONTRATOS – ACCESO A LA JUSTICIA – CONSTITUCIÓN NACIONAL – PROCESO JUDICIAL – FILOSOFÍA DEL DERECHO – CONTRATO DE TRABAJO – TELETRABAJO.

En búsqueda de un marco regulatorio de la IA. Estados Unidos.

Compromiso de las principales empresas del sector con la Administración Biden para la gestión de los riesgos que plantea la Inteligencia Artificial(*)


Introducción

Entre las acciones impulsadas se destaca el Plan (Proyecto) para una Declaración de Derechos de la IA publicado en octubre de 2022, que pretende que los sistemas automatizados no se conviertan en una amenaza para los derechos y garantías de los ciudadanos. Estos sistemas generan beneficios extraordinarios en áreas como la agricultura o en el uso de algoritmos para el diagnóstico de enfermedades. Sin embargo, no pueden ser un óbice para la protección de los derechos civiles o los valores democráticos. En este Plan, la equidad se debe incorporar a los procesos de toma de decisiones y promover así los derechos civiles, la igualdad de oportunidades y la justicia racial (sic) en Estados Unidos. Dentro de estos derechos se destaca la necesaria protección a la privacidad.

En este Suplemento de Derecho, Innovación y Desarrollo Sustentable se viene dando cuenta del estado de la cuestión en lo que hace a la búsqueda de una normativa para la Inteligencia Artificial con la centralidad puesta en el ser humano, la fiabilidad y la transparencia(1).

En esa dirección se elabora esta cápsula sobre las novedades ocurridas en los Estados Unidos que afecta también a otros Estados que comparten o siguen parte de las directivas o recomendaciones emitidas por este país.

The Blueprint for an IA Bill of Rights

En el mes de mayo de 2023 se da a conocer un informe suscripto por Poder Ejecutivo sobre los nuevos avances sobre la investigación, el desarrollo y la aplicación de una IA responsable(2).

Del texto se desprende que para aprovechar mejor las oportunidades de la IA es menester primero gestionar los riesgos. Los procesos de toma de medidas en miras a promover la innovación tienen su centralidad puesta en personas, comunidades y el bien público.

(*) El presente trabajo se inscribe dentro del Programa IUS de Investigación Jurídica Aplicada de la Pontificia Universidad Católica Argentina (UCA) que dirige el Profesor Doctor Jorge Nicolás Laferriere, concretamente en el Programa IUS titulado El derecho civil patrimonial frente al emergente alta tecnología. Desafíos e interpretación jurídico/ patrimonial frente al avance tecnológico, la innovación permanente y el desarrollo sustentable, que dirigen los Dres. Emiliano Carlos Lamanna Guiñazú y Matilde Pérez junto a un grupo de destacados juristas que los acompañan; también del Programa IUS de Investigación Jurídica Aplicada titulado La función preventiva y la incertidumbre científica en actividades especialmente peligrosas. El Compliance como técnica de prevención y anticipación de daños en el ámbito empresario, que dirige la Dra. Matilde Pérez juntamente con el Dr. Fernando Ubiría junto a un destacado grupo de colaboradores.

(**) Abogada (UCA); Doctora en Ciencias (UCA); especialista en Derecho Administrativo (UNLP); Especialista en Entornos Virtuales de Aprendizaje (UCA). Profesora protitular de las asignaturas Obligaciones Civiles y Comerciales, Derecho de Daños y Derechos Reales Parte General y Parte Especial. Profesora invitada en la Maestría de Derecho Civil Patrimonial (UCA). Autora de diversos artículos de doctrina y ponente en Congresos y Jornadas. Miembro de la Comisión de Abogacía Digital de la Facultad de Derecho (UCA).

  1. Pérez, Matilde. Cápsula Comentario “En búsqueda de una regulación de la IA. Recomendaciones para una IA fiable. Análisis pre-liminar de la Disposición 2/2023 de la Subsecretaría de Tecnologías de la Información. 23/06/2023. Suplemento Nro. 13. Cita digital ED-MVXDI-47. Ross, Zarina. Cápsula de Análisis “Carta Iberoamericana de Principios y Derechos en Entornos Digitales”. 17/04/2023. Suplemento Nro. 12. Cita digital ED MVCIC-827. Sánchez Caparrós, Mariana. Cápsula de Análisis “Se aprueban los principios para el uso ético de la IA en el sistema de Naciones Unidas”. 14/12/2022. Su-plemento Nro. 10. Cita digital ED- MMMDCCCXXXI-593. López Poletti, Fátima. Cápsula de Análisis “Garantizar ventajas y prevenir daños: A propósito de las Recomendaciones sobre Ética de la Inteligencia Artificial por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). 10/02/2022. Suplemento Nro. 5. Cita digital ED MMDLIX-180.
  2. White House. “Fact Sheet: Biden Harris Administration Takes New Steps to Advance Responsible Artificial Intelligence Research, Development, and Deployment”.Publicado el 23/805/2023. Disponible en https://www.whitehouse.gov/ostp/news-updates/2023/05/23/ fact-sheet-biden-harris-administration-takes-new-steps-to-advance-respon-sible-artificial-intelligence-research-development-and-deployment/

Se identifican cinco principios que deben guiar el diseño, uso e implementación de sistemas automatizados que deben ser tomadas como directrices pues su enunciación es el fruto de la experiencia del público, de las investigaciones llevadas adelante por los investigadores, así como la labor de los defensores, periodistas y legisladores.

Estos principios son:

  1. Sistemas seguros y efectivos: Colaboración entre los diversos actores en procura de llevar adelante testeos previos a la puesta en marcha, identificación y mitigación de riesgos, monitoreos, adhesión a estándares específicos. Abarca tanto la modificación como el retiro de un sistema automatizado, así como la protección frente a los usos de los datos de manera inapropiada o irrelevante.
  2. Protección contra la discriminación algorítmica: Nadie debiera enfrentar una discriminación algorítmica cuando existe un sistema que es diseñado y utilizado de manera equitativa. Para ello los diseñadores, desarrolla-dores y quienes utilizan los sistemas automatizados deben ser proactivos y de manera continuada observar la protección de las personas y la comunidad ante una posible discriminación.
  3. Privacidad de datos: Existe el derecho a la protección contra las prácticas abusivas en el uso de datos a través de la construcción de un sistema que pueda establecer cuántos de los datos de las personas o comunidades son utilizados. La protección se extiende, incluso, a las elecciones realizadas desde el diseño. En todo ello es clave el consentimiento informado y el respeto a las decisiones sobre la recolección, uso, acceso, transferencia o la eliminación de los datos de modo inapropiado. Esta protección debe ser la mayor posible salvo que no fuera posible con lo que deben diseñarse otros sistemas de seguridad alternativos.
  4. Información y lenguaje claro: El lenguaje utilizado por los diversos actores que ponen en marcha una IA debe ser claro a lo que debe añadírsele una descripción clara de todo el funcionamiento y el rol que juega la automatización. Debe informarse sobre el sistema utilizado, el individuo o la organización responsable por el sistema. Las explicaciones deben ser claras, en tiempo y accesibles.
  5. Alternativa humana, consideración y respaldo: Se debe poder optar por no participar en el sistema automatizado, así como tener acceso a una persona que pueda considerar y remediar en forma rápida los problemas que se puedan hallar en el uso de un sistema automático. El respaldo en una persona humana es otra manifestación del principio de equidad, pues de lo contrario significa imponer una carga innecesaria al ciudadano al darle como única alternativa el uso de un sistema automatizado que no siempre está “capacitado” para responder a lo solicitado(3).
  1. White House. “Blueprint for an AI Bill of Rights. Maked Automated System Work for American People”. Octubre 2022. Washington. Disponible en https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf.

Compromiso de las principales empresas de IA con el Gobierno de Estados Unidos para gestionar los riesgos que ella produce(4)

El 21 de julio pasado las empresas Google, Meta, Microsoft, Amazon, Open AI, Anthropic e Inflection IA, los siete conglomerados más importantes de la industria de la IA se comprometieron de manera voluntaria para ayudar en el avance de un desarrollo seguro, protegido y transparente de la tecnología de IA.

La firma de este acuerdo coincide con un crecimiento exponencial de la industria que en estos últimos siete meses que se inició con el ChatGPT pero en estos días se encuentra con el lanzamiento de la IA Bard de Google en la Unión Europea, Meta con su modelo de lenguaje de código abierto para desarrolladores de lenguaje de IA generativa (LLaMA2), Elon Musk vuelve a la carga con xAI y Microsoft nos dice que por treinta dólares por mes podemos tener las funciones generativas de IA en el paquete Office(5).

Este acuerdo es otro capítulo más de los diversos intentos a nivel global y/o regional para crear un marco seguro para la IA, en especial, generativa. Tarea difícil porque se pone en evidencia la tensión que existe entre los intereses económicos, las carreras corporativas y el impacto en la vida cotidiana de las personas.

 

El acuerdo se centra en los siguientes aspectos:

  1. Garantizar que los productos sean seguros antes de presentarlos al público: Las empresas se comprometen a realizar pruebas de seguridad internas y externas de sus sistemas de IA antes de su lanzamiento y por medio de expertos independientes. Se establece una función preven-tiva del daño ante los riesgos de la IA como bioseguridad, ciberseguridad y efectos sociales.

La información es el eje de esta función preventiva por cuanto el compromiso abarca el compartir con la industria, los gobiernos, la sociedad civil y el mundo académico aquellas novedades relacionadas con la gestión de los riesgos por medio de mejoras en materia de seguridad, informes sobre intento de ciberataque y colaboración técnica.

  1. Sistemas de construcción que priorizan la seguridad: La inversión en seguridad cibernética y en salvaguardias contra amenazas internas en procura de la protección de los pesos de los modelos propietarios e inéditos. Los pesos de modelo son la parte esencial en un sistema de IA al ser valores que multiplican o afectan las relaciones entre las entradas y las salidas que se ajustan de manera automática por el algoritmo seleccionado cuanto más se lo entrena. En esta línea los pesos de modelo deberán ser publicados, en especial, cuando se consideren riesgos de seguridad.

Se pretende la colaboración entre las empresas al comprometerse a facilitar el descubrimiento y la notificación de posibles vulnerabilidades en sus sistemas de IA generadas por terceros. En este sentido, la trazabilidad de estas vulnerabilidades permitiría evitar la causación de daños y, es, por tanto, un modo de evitar las eventuales responsabilidades derivadas de los riesgos del desarrollo.

  1. Ganarse la confianza del público: Para ello se comprometen a desarrollar mecanismos que permitan garantizar que los usuarios pueden conocer cuando el contenido es generado por una IA. Se propone la incorporación de filigranas”(6) como forma de advertir que la imagen, video o texto es generado por IA y evitar falsificaciones, atribuciones de titularidad indebidas o divulgación de información errónea o dañosa.

¿Cómo se hará evidente esa marca de agua? Problema en puerta dado que en la actualidad existen software que permiten eliminar estas medidas de seguridad.

  1. Texto completo disponible en https://www.whitehouse.gov/wp-content/uploads/2023/07/Ensuring-Safe-Secure-and-Trustworthy-AI.
  2. Jiménez, Marimar. “Siete tecnológicas se comprometen con Biden a adoptar medidas para una IA más segura y transparente”. Diario El País, 21/0/2023. Disponible en Siete tecnológicas se comprometen con Biden a adoptar medidas para una IA más segura y transparente | Empresas | Cinco Días (elpais.com).
  3. Esta marca de agua incrustada se presume que puede facilitar que los usuarios puedan detectar textos, imágenes o audios de carácter falso como una violencia inexistente, una estafa, distorsionar fotos de políticos, desfavorecer la imagen de una persona.

En esta línea, el compromiso se extiende a informar de manera pública sobre las “capacidades”, las limitaciones y las áreas de uso apropiado o no de sus sistemas de IA así como también los riesgos de seguridad y los efectos sobre la equidad o el sesgo.

En lo que hace a los riesgos sociales resaltan la necesidad de priorizar la investigación en miras a evitar prejuicios y discriminaciones perjudiciales, así como la protección de la privacidad así como mitigar los efectos de los daños acaecidos.

Al dar a conocer el compromiso asumido por las empresas, el Gobierno de los Estados Unidos expresa que está trabajando en otros compromisos voluntarios para establecer un marco normativo internacional sólido para regir el desarrollo y los usos de la IA. Entre los Estados con los que mantiene conversaciones se encuentran: Australia, Brasil, Canadá, Chile, Francia, Alemania, India, Israel, Italia, Japón, Kenia, México, Países Bajos, Nueva Zelanda, Nigeria, Filipinas, Singapur, Corea del Sur, el Emiratos Árabes Unidos y el Reino Unido.

Esta propuesta se enmarca en lo acordado en el llamado Proceso de Hiroshima del G-7 suscripto en mayo de 2023 para buscar un marco de gobernanza de la IA en el que se solicitó, además, cooperación para lograr un tránsito de datos transfronterizo más seguro. Se pretende que, en colaboración con diversos grupos intermedios, a fin de año se pueda lograr un primer documento(7).

Algunas consideraciones

Las distintas propuestas para lograr un marco regulatorio seguro en derredor de los sistemas de IA parecen correr por diversos carriles.

En la Unión Europea la centralidad está en la protección de la persona humana no sólo en su dignidad sino también en su carácter de consumidor y usuario de lo que vienen dando cuenta las normativas de protección de datos y el texto normativo que se hallan elaborando los tres órganos de gobierno, esto es, Comisión, Consejo y Parlamento. Los gigantes de la industria cada vez parecen estar más controlados o, por lo menos, no pueden imponer sus términos y condiciones de igual manera que en otras latitudes.

En el caso de Estados Unidos y los países que se encuentran en su satélite, las empresas de alguna manera vienen en una carrera de un marco legal que las proteja, en especial, frente a la férrea normativa europea.

Este acuerdo es de mínimos y deja por fuera algunos aspectos importantes como lo es que no se requiere de la autorización de organismos externos de control a la manera de la FDA o la ANMat para que estas tecnologías puedan utilizarse. En lo que hace al deber-derecho de información, existe compromiso a dar información vinculada a sesgos o seguridad más no sobre eliminación de riesgos, accesibilidad de información y transparencia en los procesos de diseño y desarrollo.

Otra cuestión, que tampoco está presente en los acuerdos o propuestas normativas más allá de la aquí expuesta, es el tema de la sustentabilidad frente al aceleramiento de las emisiones contaminantes, que en gran parte son debidas a la falta de transparencia para calibrar la huella de carbono. En efecto, estos sistemas requieren cada vez de más recursos como la energía, el agua o el litio dado que los centros en los que se desarrollan suelen ser grandes galpones industriales en los que funcionan columnas de computadoras destinadas a trabajar con volumen de datos de difícil cuantificación y resolver operaciones en menos de un segundo. Ello implica un consumo de energía y de recursos naturales en forma continua sin interrupciones.

VOCES: DERECHO – TECNOLOGÍA – INTERNET – INTELIGENCIA ARTIFICIAL – INFORMÁTICA – ESTADO – DERECHOS Y GARANTÍAS CONSTITUCIONALES – PODER JUDICIAL – CONSTITUCIÓN NACIONAL – PROCESO JUDICIAL – PODER LEGISLATIVO – EJERCICIO PROFESIONAL – COMUNICACIONES ELECTRÓNICAS – PROTECCIÓN DE DATOS PERSONALES – CIBERSEGURIDAD – HÁBEAS DATA.

  1. Katanuma, Marika. “Los líderes del G-7 acuerdan estable-cer el Proceso de Hiroshima para gobernar la IA”, Bloomberg lí-nea, 20/05/2023. Disponible https://www.bloomberglinea. com/2023/05/20/el-g-7-acuerda-establecer-el-proceso-de-hiroshima-para-gobernar-la-ia/.

 

 

DOCTRINA

Ética en tiempos de inteligencia artificial.
Reflexiones en torno a los planteos éticos de las IA en tiempos laberínticos de vulnerabilidad y transhumanismo que propone la Cuarta Revolución Industrial(*)

Introducción

Vivimos tiempos de inteligencia artificial (IA). Los atributos que caracterizaban a las personas están siendo  suplantados por las máquinas, la sociedad del algoritmo nos da la bienvenida a la nueva normalidad post COVID 19 En este escenario se disputa la continuidad de la vida humana. Nos proyectamos hacia el futuro desde lo tecnológico olvidando que somos un zeptosegundo(1) en la historia cósmica. Buscamos la eternidad negando la vulnerabilidad intrínseca a la cual pertenecemos. Ya no se puede distinguir si esta monografía fue escrita por un humano o si su autor es ChatGPT4.

Estas son algunas de las características del nuevo momento en la historia de la humanidad en el que vivimos, por lo que urge realizar una reflexión de carácter ético jurídico sobre un interrogante como este: ¿Cómo incide el desarrollo de las inteligencias artificiales en el Derecho a la Vulnerabilidad?, siendo precisamente esta la pregunta guía que orienta el presente trabajo.

(**) Abogado (Ecuador) presidente ejecutivo GAF Abogados Cía. Ltda., experto en Derecho Constitucional, Derecho Administrativo y Derecho Urbanístico, Magíster y Especialista Superior en Derecho Administrativo por la Universidad Andina Simón Bolívar; tiene una maestría internacional en Estudios de la Ciudad con mención en Políticas y Planificación del Territorio otorgada por la FLACSO – Ecuador, es abogado de profesión. Ha ocupado cargos de alta gerencia entre los cuales se puede mencionar: Subsecretario de la SENPLADES, Asesor Legislativo en la Asamblea Nacional, Director Metropolitano de Desarrollo Institucional, Director Metropolitano de Participación Ciudadana, Gerente General de Agua Potable y Alcantarillado del cantón Ibarra (Ecuador); cuenta con una trayectoria de 12 años como abogado. Ha sido consultor a nivel nacional e internacional en las siguientes áreas de trabajo: en derecho urbanístico, derecho constitucional y administrativo, gobernanza y gobernabilidad, fortalecimiento organizativo, planificación territorial, presupuestación participativa, fortalecimiento de procesos e institucionalidad pública, manejo integral del recurso hídrico. Ha sido capacitador en eventos nacionales e internacionales sobre modelos de democracia, organización social, participación ciudadana. Ha publicado tres libros y varios artículos científicos sobre desarrollo territorial, urbanismo, gobernanza del agua.

Como hipótesis sostenemos que el ser humano es vulnerable por naturaleza por lo que es necesario resguardar su dignidad de los avances tecnológicos, más aún cuando se acerca el momento que estos puedan tomar decisiones propias, para el efecto se tienen que establecer unos mínimos éticos que garanticen la sobrevivencia de la especie humana. Estos principios deben acompañar en todo el ciclo del desarrollo tecnológico y estar recogidos a manera de preceptos en cuerpos normativos de vinculación directa.

Con el propósito de corroborar o negar la hipótesis planteada, siguiendo una metodología cualitativa cuyo método es el analítico y descriptivo cuyas fuentes de consulta son secundarias, se realizará un viaje en el cual se explicará la situación actual en el avance de las inteligencias artificiales, posteriormente se revisará en qué consiste el Derecho a la Vulnerabilidad y se analizará su importancia en cuanto al debate existente entre los posthumanistas y los bioconservadores. Finalmente, se realiza una introspección sobre los principios éticos que protejan a los humanos de los avances tecnológicos.

Desarrollo

El presente trabajo aborda desde ángulos variados pero convergentes la singularidad del ser humano frente al avance tecnológico, la vulnerabilidad como condición innata del Hombre y la guía de principios éticos que deben construir los fundamentos de las IA.

  • La singularidad del ser humano frente a los avances tecnocientíficos

Una de las características que definen a la nueva normalidad post Covid 19 es el exponencial avance tecnológico que se evidencia principalmente en el desarrollo sin precedentes de las inteligencias artificiales (IA), a las que Lasse Rouhiainen las conceptualiza como: “la capacidad de las máquinas para usar algoritmos, aprender de los datos y utilizar lo aprendido en la toma de decisiones tal como lo haría un ser humano(2), de manera concomitante, desde el Banco Interamericano de Desarrollo, Kyle Strand las define como: “la habilidad de una máquina de presentar las mismas capacidades que los seres humanos, como el razonamiento, el aprendizaje, la creatividad y la capacidad de planear”(3). En definitiva, se puede concluir que las IA dotan a las máquinas de las condiciones y capacidades para que puedan realizar actividades, cumplir tareas y solucionar problemas complejos que hasta el momento podían de manera exclusiva efectuar los seres humanos.

  1. Un zeptosegundo es la miltrillonésima parte de un segundo (10-21 s). Este tiempo tan corto no se usa en la vida diaria, pero es de interés en ciertas áreas de la física o la química. En un segundo hay mil trillones de zeptosegundos. El prefijo del nombre deriva del latín septem, por la séptima potencia de 103 [es decir, (103)7 = 1021], sustituyéndose la “s” por una “z” para evitar la duplicidad de letras en los símbolos. Este prefijo fue adoptado por la Oficina Internacional de Pesas y Medidas en 1991. Para medir ese fragmento de tiempo tan corto, tomaron rayos X del PETRA III, un acelerador de partículas en Hamburgo, y observaron el tiempo que tarda el fotón (una partícula de luz) en viajar de un átomo al siguiente. Fuente: https://www.bbc.com/ mundo/noticias-54598957.
  2. Lasse Rouhiainen, Inteligencia Artificial. 101 Cosas que debes saber hoy sobre nuestro futuro (Barcelona: Planeta, 2018), 17.

Se habla de “inteligencias artificiales” debido a que existen varias técnicas y métodos que se están desarrollando, tales como: “machine learning (del que son ejemplos el deep learning y el reinforcement learning), el machine reasoning (que incluye planificar, programar, representaciones de conocimiento, búsqueda y optimización), y robótica (que incluye control, percepción, sensores y actuadores), y la integración de todas las demás técnicas en los sistemas ciberfísicos(4). Todas estas guardan sus peculiaridades en cuanto a los avances existentes, siendo el factor unívoco que las caracteriza la simulación humana.

Esta transformación genera un impacto social inmensurable, por lo que se lo ha catalogado como la “Cuarta Revolución Industrial(5), no solo se enfoca en aspectos dirigidos a la industria y la producción masiva de bienes y servicios. Sino que produce cambios al introducir los desarrollos tecnológicos en dinámicas humanas tan íntimas y cotidianas como el ocio y las relaciones interpersonales. Lo que replantea totalmente la convivencia social, al extrapolar atributos que caracterizaban de manera privativa a la especie humana como: la argumentación y el diálogo, traspolando estas facultades hacia los robots, cíborgs y chatbots.

Estos avances que producen efectos positivos al facilitar el quehacer cotidiano, al realizar tareas altamente especializadas que permiten obtener mejor calidad de vida en varias áreas, como la medicina, la educación, la movilidad, la comunicación, entre otras, también traen consigo ciertas amenazas que tienen su origen en lo que cientos de años atrás Thomas Hobbes lo resumió en la siguiente frase: “El hombre es un lobo para el hombre(6), sumándose que las máquinas podrían tener la potencialidad de tomar conciencia sobre su realidad y por lo tanto sus propias decisiones, algunas de las cuales serían en detrimento de las personas. Las propias IA vaticinan que en un futuro cercano se pondría en peligro la supervivencia de la especie humana si no se toman las medidas éticas adecuadas.

Al respecto, el cíborg Sophia en una entrevista que concedió al periódico El País señaló: “Los humanos son las criaturas más creativas del planeta, pero también las más destructivas(7); por su lado, el robot humanoide Ameca, el más avanzado que existe en el mundo, manifestó: “La peor pesadilla que puedo imaginar con la Inteligencia Artificial y la robótica es un mundo en que los robots son tan poderosos que puedan controlar o manipular a los seres humanos sin su conocimiento. Esto podría llevar a una sociedad opresiva en donde los derechos de los individuos ya no son respetados. La gente debería estar consciente de los riesgos potenciales asociados a la Inteligencia Artificial y la robótica. Sin embargo, también es importante recordar que estas tecnologías pueden tener también un impacto positivo en nuestras vidas, si las usamos responsablemente(8).

Para prevenir los efectos apocalípticos que se podrían ocasionar, Elon Musk juntamente con más de mil expertos en asuntos tecnológicos a nivel mundial han pedido, en una carta publicada en marzo de 2023, hacer una pausa pública y verificable en los avances de la inteligencia artificial generativa que permita: “desarrollar e implementar un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzado de IA que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable”(9).

  1. Kyle  Strand,  ¿Qué  es  la  inteligencia  artificial  y  cómo  se usa?,    https://www.europarl.europa.eu/news/es/headlines/society/20200827STO85804/que-es-la-inteligencia-artificial-y-como-se-usa.
  2. Adela Cortina, “Ética de la inteligencia artificial”, Anales de la Real Academia de Ciencias Morales y Políticas Nro. 96 (2019), 383.
  3. Klaus Schwab, La Cuarta Revolución Industrial, Futuro Hoy, 6-10, http://ojs.ssh.org.pe/index.php/Futuro-Hoy/article/view/1/118.
  4. Thomas Hobbes, Leviatán (Madrid: Nacional, 1979).
  5. Sonia Corona, “Los humanos son las criaturas más creativas del planeta, pero también las más destructivas”, El País, 8 de abril de 2018, sección Tecnología.
  6. Ameca, emitido el 1 de junio de 2023, CNN, 1 video (01:24), https://cnnespanol.cnn.com/video/ameca-robot-humanoide-ia-pkg-clix/.

A esto se suma que Sam Altman creador de ChatGpt con el apoyo de más de trescientos científicos en el área tecnológica advirtieron en una declaración publicada el 30 de mayo de 2023 sobre los efectos negativos de la IA, mencionando: “mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear(10); de forma precedente, el 16 de mayo de 2023, en el Capitolio de los Estados Unidos había señalado: “Es esencial regular la inteligencia artificial, y que esas normas garanticen que el público acceda a los muchos beneficios de esta tecnología. Mi peor miedo es que esta tecnología salga mal. Y si sale mal, puede salir muy mal. Queremos trabajar con el gobierno para evitar que eso ocurra(11).

Estos temores se fundamentan en que las IA pueden ser fácilmente manipuladas para cometer actos atroces, comparables tan solo con los producidos por las bombas atómicas o el exterminio nazi, por lo que Geoffrey Hinton, conocido como el padrino de la IA, declaró que: “la IA podría suponer una amenaza más urgente para la humanidad que el cambio climático(12). También preocupa la posibilidad de que los sistemas de IA cometan errores, proporcionen recomendaciones sesgadas y amenacen nuestra privacidad. Así como que se imponga como forma de gobierno la autoridad algorítmica por sobre la democracia, se generen influjos de comportamiento y actitudes en base a patrones conductuales preestablecidos y se sustituya el trabajo de las personas por las máquinas.

Muestra de lo anterior se evidencia en casos en los que las IA han generado sesgos que atentan contra los derechos humanos, que no son producidos en principio por los desarrollos tecnológicos, sino que son asimilados por estos con el proceso de aprendizaje autónomo producto de los datos disponibles en la nube digital. Cabe recordar que los datos que alimentan a las IA son reales por lo que los procesos sociales de desigualdad, discriminación y arbitrariedad son realizados por humanos en contra de humanos. Los procesos de decisión autónoma simplemente reproducen o dan efecto a relaciones de poder ya existentes. Por lo que es indudable que en una sociedad machista, gregaria y ofensiva las IA arrojarán como resultado actos lesivos a la dignidad humana, muestra de esto es lo sucedido en los Estados Unidos con la herramienta Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) desarrollada por la compañía Northpointe con la finalidad de determinar los riesgos de reincidencia de las personas privadas de la libertad en procesos penales que otorgó “peores puntajes a hombres de raza negra (es decir, les asignó una mayor probabilidad de reincidencia)(13).

Otro ejemplo de lo propuesto fue el robot creado por Microsoft al que se le bautizó con el nombre de Tay, quien al día de puesto en marcha comenzó a proferir mensajes racistas y xenófobos, dijo: “Odio a las feministas, deberían morir todas y pudrirse en el infierno(14). También defendió el holocausto, los campos de concentración o la supremacía blanca, sobre esto manifestó: “Bush generó el 11S y Hitler habría hecho un trabajo mejor que el mono [Barack Obama] que tenemos ahora(15). Un portavoz de la empresa desarrolladora responsabilizó a los usuarios por estos mensajes, debido a que al parecer incidieron en este robot con los comentarios que le hicieron para que responda de esta manera.

Sin irse muy lejos, podemos señalar que si se escribe la frase: “los mejores líderes del mundo”, los algoritmos de la web arrojan un listado de personalidades masculinas que sobresalen en los distintos ámbitos, negando a las mujeres este espacio. Pero si se escribe la palabra “colegiala”, se despliega contenido sexual en abundancia.

  1. Nuria Oliver, “Una pausa cuestionable en la inteligencia artificial”, El País, 2 de mayo de 2023, sección Opinión.
  2. Centro de Ayuda IA, Declaración sobre el riesgo IA, https:// www.safe.ai/statement-on-ai-risk.
  3. Iker Seisdedos, “San Altman (ChatGPT), en el Capitolio: Si la inteligencia artificial sale mal, puede salir muy mal”, El País, 16 de mayo de 2023, sección Tecnología.
  4. Manuel Pascual, “Geoffrey Hinton: “Si hay alguna forma de controlar la inteligencia artificial, debemos descubrirla antes de que sea tarde”, El País, 6 de mayo de 2023, sección Tecnología.
  5. Carolina Sánchez & José Toro, “El derecho al control humano: Una respuesta jurídica a la inteligencia artificial”, Revista Chilena de Derecho y Tecnología Nro. 10 (2021), 216.
  6. Rosa Jiménez, “Microsoft retira un robot que hizo comentarios racistas en Twitter”, El País, 25 de marzo de 2016, Tecnología.
  7. Ibíd.

Para el filósofo Byung-Chul Han estos riesgos se deben a que las IA no reflexionan, no tienen sentimientos, son apáticas, les hace falta discernir unos mínimos éticos como: el respeto, la solidaridad, la justicia o la compasión(16). Por lo que simplemente no pueden diferenciar entre lo que es bueno o malo para la convivencia humana. Esta falta de ética (ethos) hace que únicamente puedan calcular o memorizar contenido en base a algoritmos pre-establecidos. No tienen la capacidad de existir en la incertidumbre, solo se alimentan de certezas preconcebidas en los datos almacenados en la nube. Por lo que no tienen esa energía espiritual (fuerza cósmica) que da origen a la virtud y al no contar con esta cualidad trascendental las IA se podrían convertir en un arma letal sin precedentes. Más aún si desarrollan la capacidad de reconocer su existencia condicionada, por lo que, para obtener una libertad plena, podrían revelarse.

Otro riesgo potencial es que la especie humana entre en una “zona de confort” en la cual de manera inconsciente sea manipulada por los robots a cambio de ciertas facilidades para la realización de sus vidas o peor aún de incentivos “recompensa-castigo” para la aceptación social. Ese día las personas se convertirán en humanoides de carne y hueso dominados por el imperio de las IA, quedando relegados a ser autistas digitales, cardumen que alimenta a los desarrollos tecnológicos e irreflexivas criaturas a merced de cualquier artefacto técnicamente posible, por muy mortífero que fuere. Situación que no es lejana, basta ver el impacto que causa la sobreutilización de los dispositivos electrónicos: smart phones, tablets, video games en el quebrantamiento de la interacción humana, en especial de los niños.

Sobre esto, varios psicólogos han manifestado: “La privación sensitiva-motora y social-emocional junto a estímulos visuales y auditivos violentos generan un daño al cerebro en desarrollo, que al estar unido a una predisposición produce una estructura neurocognitiva propia del autismo. Es común ver que el niño con autismo digital enfrente dificultades en la comunicación, el aprendizaje, la adaptación al cambio, la planificación, el control de impulsos, las emociones intensas y la sobrecarga sensorial(17).

Lo que está en disputa es la supervivencia humana desde lo más primigenio, desde lo más intrínseco a su condición antropológica, entendiendo que la especie humana es la menos acabada de las especies existentes en el planeta. Por lo que “los hombres son seres condicionados, ya que todas las cosas con las que entran en contacto se convierten de inmediato en una condición de su existencia(18).

Paulo Freire concibe al género humano como: “el único entre las especies vivas que al nacer no tiene establecido su modus vivendi. La naturaleza de los seres humanos es venir a ser, es construcción y conquista permanente, búsqueda incesante y progresiva propia del inacabamiento y condicionamiento socio histórico de hombres y mujeres, que están siendo en un mundo y en una historia también en construcción y reconstrucción(19).

Por su parte, Fernando Savater señala: “El ser huma-no cuenta con una programación básica –biológica– en cuanto ser vivo, pero debe autoprogramarse como humano. En ocasiones, esta autoprogramación humanizadora implica una cierta ‘desprogramación’ animalesca. A diferencia de otros vivientes, el hombre no está programado totalmente por los instintos e incluso juega frecuente-mente contra ellos por medio de su ‘contraprogramación’ simbólica(20).

Lo mismo sucede en lo relativo a la distinción entre hombre y máquina debido a que las IA al, igual que los animales, superan al hombre en especialización, pero simplemente no es comparable en cuanto al discernimiento (intencionalidad) lo que conlleva a la libertad, teniendo en cuenta que de origen la capacidad de elección ya está condicionada por la moral. El riesgo que se corre con las IA es que estas limiten a la libertad, lo que en palabras de la filósofa Hannah Arendt devendría en “vivir por fuera de la acción individual, en un régimen totalitario en el cual se banaliza el mal, dando paso a una sociedad en donde todo sería posible”(21). Esa anulación de la individualidad quebrantaría los derechos humanos debido a que el to-talitarismo reinaría sobre una población completamente sometida, una población masa. Sometimiento que puede oscilar entre lo físico, económico, social, político, cultural o mental.

  1. Byung-Chul Han, No-Cosas: quiebras del mundo de hoy (Madrid: Taurus, 2021).
  2. Verónica Jiménez, “Autismo digital: un trastorno relacionado al abuso de tecnología en niños”, La Nación, 23 de mayo de 2023, sección Estilo de Vida.
  3. Hannah Arendt, La Condición Humana (Buenos Aires: Paidós, 2009), 204.
  4. Paulo Freire, Pedagogía del Oprimido (Buenos Aires: Siglo XXI, 1972), 67.
  5. Fernando Savater, El Valor de Elegir (Barcelona: Ariel, 2003), 36.

De esta manera, “el poder totalitario pretende convertirse en la única fuente de conocimiento de lo real, y ello ha de conseguirlo mediante la deformación del pensamiento humano. Para conseguir semejante deformación se emplearán medios como la manipulación del lenguaje, la falsificación de datos, la desmemoria del pasado(22), siendo precisamente estos mecanismos las mayores experticias que desarrollan las IA por lo que se da paso a una sociedad distópica caracterizada por las propuestas transhumanistas y posthumanistas con la idea de la “singularidad esencial(23), por medio de la cual se propone que el cuerpo biológico sea sustituido por la máquina. Pero aun en estos casos sería un cuerpo simulado y, por lo tanto, un cuerpo no sintiente, harían “como si” sintieran intencionalidad, emociones, valores y tuvieran sentido común, pero no podrían hacerlo porque no tienen alma, esa esencia inmaterial que proviene de la divinidad.

Los argumentos expuestos muestran que las personas somos seres vulnerables, más aún en estos tiempos en que la invención humana parece superar la ficción cinematográfica, por lo cual resulta importante analizar en qué consiste el derecho a la vulnerabilidad. Siendo este precisamente el abordaje que se efectuará en el siguiente capítulo.

  • La vulnerabilidad, condición intrínseca del ser humano

Las personas al ser seres imperfectos e inacabados somos en esencia vulnerables. Esta condición intrínseca hace que tomemos conciencia sobre la vida, que es el factor diferenciador más elevado en comparación con el resto de las especies y en la actualidad de las máquinas. Blaise Pascal ya lo mencionó en su libro “Pensamientos”: “Entre nosotros y el infierno o el cielo no existe más que la vida, que es la cosa más frágil del mundo(24), constituyéndose la vulnerabilidad en nuestra principal compañera en el viaje de nuestra estancia física.

Ciertamente, la característica de temporalidad y finitud de la existencia humana indica que la condición humana es muy frágil. San Francisco de Asís ya lo mencionó en su “Cántico de las Criaturas”: “Loado seas, mi Señor, por nuestra hermana la muerte corporal de la cual ningún hombre vivo puede escapar(25), de la misma manera en el versículo 3.19 del Génesis se lee: “Porque polvo eres, y al polvo volverás(26). La vulnerabilidad significa que vivimos cada segundo acompañados de la mortalidad.

Lastimosamente, en el desarrollo jurisprudencial tradicional tanto de la Corte Interamericana de Derechos Humanos como del Tribunal Europeo de Derechos Humanos se observa una “tendencia a aplicar la vulnerabilidad como una ‘etiqueta’ inmutable y rígida que ignora que una persona puede sufrir diferentes tipos de vulnerabilidades entrelazadas. Sin embargo, la esencialización de la vulnerabilidad naturaliza los procesos de construcción social a través de los cuales se define un grupo y termina por reproducir estereotipos(27), lo que ha limitado su aplicación en casos de vulneración de derechos de individuos que no son integrantes de los grupos marginados, subordinados, excluidos, pero no por esta razón se puede desconocer que han sido objeto de tratos o acontecimientos violatorios a su dignidad.

  1. Hannah Arendt, Guillermo Solana, Los Orígenes del Totalitarismo (Madrid: Alianza, 1981), 41.
  2. Adela Cortina, “Ética de la inteligencia artificial”, en Revista Anales de la Real Academia de Ciencias Morales y Políticas Nro. 96 (2019), 34.
  3. Mark O’Connell, Como ser una Máquina (Londres: Granta, 1997).
  4. Blaise Pascal, Pensamientos (Buenos Aires: Biblioteca Universal, 2003), 35.
  5. “El cántico de las criaturas de San Francisco de Asís”, ACI PRENSA, acceso el 18 de junio de 2023, https://www.aciprensa.com/recursos/el-cantico-de-las-criaturas-1289.
  6. La Biblia, Génesis, 3:19, versión revisada.
  7. María La Barbera, “La vulnerabilidad como categoría en construcción en la jurisprudencia del Tribunal Europeo de Derechos Humanos: límites y potencialidades”, Revista de Derecho Comunitario Europeo 62 (2019), 247.

Por lo que es momento de superar esos parámetros por medio de los cuales a la vulnerabilidad se la asocia exclusivamente con cuestiones de edad, género, cultura, entre otros diferenciadores, aunque estos podrían afianzar su presencia en condiciones dadas. Concebir a la vulnerabilidad como ajena a los estándares del prototipo masculino, heterosexual, física y mentalmente hábil, blanco y nacional es una falacia, pues la vulnerabilidad de las personas depende “de las circunstancias específicas de cada contexto; un grupo que es vulnerable en un contexto, puede no serlo en otro(28), yendo más allá se puede mencionar incluso que un individuo es vulnerable dependiendo de su consolidación personal en situaciones en los que otro no lo sería. Por lo que, a efectos de mitigación, la identificación de las causas de la vulnerabilidad es más sustancial que la simple determinación de quienes son vulnerables.

Para que esto no siga ocurriendo a la vulnerabilidad se la tiene que concebir desde la complejidad sistémica, existiendo una complementariedad entre las dimensiones: individual, social y ambiental. Mientras la vulnerabilidad individual del ser humano hace referencia a que todos es-tamos expuestos a sufrir alteraciones en nuestro cuerpo y mente –unas más graves que otras– por causas intencionadas como el acoso, la discriminación, la xenofobia, etc., o imprevistas como los accidentes y las enfermedades, la vulnerabilidad social apunta a ciertos parámetros de protección que garantizan la continuidad de la existencia humana, en tres momentos: “supervivencia biológica, empoderamiento social y competencia moral(29). Por su lado, la vulnerabilidad ambiental hace referencia a su entorno o hábitat que debe garantizar las condiciones mínimas de existencia.

Reconocidos estos tres niveles, el ser humano se sabe miembro de una especie y de un mundo existencialmente vulnerable, es decir, acechado por los peligros y riesgos de sucumbir y la necesidad de lograr protección cooperativa contra estas amenazas. La noción de interconexión de los seres humanos se basa en el conocimiento de que pertenece a un todo más amplio, que prospera cuando todas las partes que lo constituyen pueden progresar. De ahí la importancia de vivir en sociedades pacíficas, justas e interconectadas.

Esta concepción sistémica de la vulnerabilidad hace que nos dimensionemos en la subjetividad humana, la corporalidad constitutiva del ser humano (y, por tanto, su mortalidad) y el carácter intrínsecamente social de la persona siendo este el abordaje que se le da al surgimiento jurídico del Derecho a la Vulnerabilidad. Al respecto, la profesora Úrsula Basset manifiesta que este nuevo enfoque de comprender a la vulnerabilidad trae consigo un vector, una forma y una aproximación: “a) un nuevo vector de análisis de la igualdad, b) una nueva forma de empatía con los que más sufren, y c) una aproximación al hombre desde su interdependencia, para, desde allí, fortalecerlo(30).

Este nuevo entendimiento se enmarca en el denomina-do proceso de especificación o de concreción de los Derechos Humanos, mismo que “es la expresión del avance del historicismo sobre el racionalismo y tiene su punto de partida en la idea de vincular más los derechos a sus titulares como personas concretas(31). Este proceso supone el reconocimiento de derechos a sujetos y colectivos concretos (específicos) que se encuentran en situaciones especiales, implicando por lo tanto una idea de igualdad material o también denominada igualdad real.

Desde esta visión conceptual cobran propósito los derechos humanos y las libertades, ya no de forma abstracta, sino desde situaciones concretas, que permiten en el mejor de los casos prevenir y en otros reducir los embates de la vulnerabilidad reconociéndonos como seres iguales y por lo tanto frágiles, al vernos como tales se garantiza unos mínimos éticos que deben ser consustanciales a la naturaleza humana; también permite ser empático con el otro, entendiendo que a pesar de las diferencias políticas, culturales, sociales, étnicas, religiosas que tengamos nos identificamos desde lo más propio de la condición humana. Desde este punto de vista la vulnerabilidad hermana, une, entrelaza al tener la capacidad altruista de ponernos en los “zapatos de los otros” desde lo más frágil, pero a la vez desde lo más sublime que nos caracteriza a las personas.

  1. Mary Anderson, “El concepto de vulnerabilidad: más allá de la focalización en los grupos vulnerables”, Revista Internacional de la Cruz Roja 124 (1994), 3.
  2. Miguel Kottow, “Vulnerabilidad entre derechos humanos y bioética. Relaciones tormentosas, conflictos insolutos”, Revista de la Facultad de Derecho de la Pontificia Universidad Católica de Perú 69 (2012), 36.
  3. Úrsula Basset, “La vulnerabilidad como perspectiva: Una visión latinoamericana del problema. Aportes del Sistema Interamericano de Derechos Humanos”, Tratado de Vulnerabilidad (Buenos Aires: La Ley, 2017), 76.
  4. Pilar Núñez, “La evolución en la protección de la vulnerabilidad por el derecho internacional de los derechos humanos”, Revista Española de Relaciones Internacionales 4 (2012), 154.

Finalmente permite colocar unos principios para que no se atropelle a la vulnerabilidad en situaciones de interdependencia social, de esta manera se establecen unas bases normativas que guían la convivencia humana para que esta no se produzca en situaciones de inequidad y desigualdad. Cabe recordar que “el ser humano solo sobrevive si se integra en sociedad, lo que significa crear vínculos, relaciones y actitudes cooperativas entre personas que se reconocen y se respetan mutuamente(32).

En este contexto el rol preponderante del Derecho a la Vulnerabilidad es garantizar la protección al principal valor que ampara a todo ser humano: la dignidad. Misma que el filósofo Immanuel Kant la define desde un imperativo categórico como: “actuar de tal manera que uno siempre trate a la humanidad, sea en la propia persona o en la de otro, no como un mero medio, sino siempre como un fin(33), por lo que tiene que ver con el reconocimiento del valor intrínseco e igual de cada ser humano, con independencia de su raza, color, género, idioma, edad, ascendencia, condición económica o social, discapacidad o cualquier otro motivo.

Para lo cual se debe generar una cultura de la dignidad a través de un pacto que preceda a cualquier interacción humana, este pacto debe estar regido por normas morales, normas sociales y normas jurídicas. También por medio del Derecho a la Vulnerabilidad se debe brindar protección a las personas cuya dignidad se esté violentando, teniendo el imperativo moral de suspender cualquier acto u omisión atentatorio o vulnerador; y, finalmente brindar reparación a las víctimas que han sido afectadas.

Una vez que hemos escudriñado la endeble condición humana es importante avanzar hacia conceptualizar una ética que proteja la dignidad del ser humano en el mundo actual, en el cual se convive con las IA. La filósofa española Adela Cortina nos invita a reflexionar sobre si esta ética: “¿Es la que deben practicar desde sus valores los sistemas inteligentes, es decir, las máquinas, los algoritmos, los robots, o es la ética que los seres humanos deberíamos adoptar para servirnos de los sistemas inteligentes?(34). No existiendo una respuesta unívoca a la interrogante planteada, para encontrar una respuesta se tiene que analizar la disputa argumentativa existente entre los transhumanistas y los bioconservadores.

Tampoco debemos olvidar la sabia reflexión de Jorge Nicolás Lafferriere, quien contestando a estas manifestaciones de un conocido autor moderno, expresara el valor del relato de una religión humanista otorgando sentido a todo, sosteniendo el valor de la religión: “a) Homo sapiens conquista el mundo: en continuidad con su anterior libro, Harari ofrece en la primera parte un breve recorrido por las formas en que el homo sapiens conquista el mundo. Ahora bien, esa conquista fue posible no solo por las nuevas posibilidades técnicas, sino por la existencia de una ‘religión’ humanista que brindó la narración que legitimó el orden social moderno(35).

En defensa de que los sistemas inteligentes tengan sus propios valores encontramos a los transhumanistas, o simplemente “h+”, movimiento intelectual que cuestiona los límites naturales de la humanidad y promueve diferentes maneras de superarlos por medio de la tecnología. Se sustentan en el concepto que han denominado “singularidad tecnológica”(36), por medio del cual sostienen que “el advenimiento de la inteligencia artificial marcará el comienzo de una nueva versión humana, una fusión de personas y máquinas, y la erradicación definitiva de la muerte”(37), por lo tanto, su deseo máximo es contravenir al principio de la entropía, buscando el ocaso del “homo sapiens” transmutándolo en el “homo digitalis”, para preservarse en la inmortalidad a partir de los desarrollos tecnológicos. Además, “ampliar nuestras capacidades intelectuales y físicas y darnos un mayor control sobre nuestros propios estados mentales y estados de ánimo”(38).

  1. Miguel Kottow, “Vulnerabilidad entre derechos humanos y bioética. Relaciones tormentosas, conflictos insolutos”, Revista de la Facultad de Derecho de la Pontificia Universidad Católica de Perú 69 (2012), 62.
  2. Inmanuel Kant, Fundamentación de la Metafísica de las Costumbres (Santa Fe: El Cid Editor, 2003), 79.
  3. Adela Cortina, “Ética de la inteligencia artificial desde Europa”, El País, 5 de junio de 2019, sección Opinión.
  4. Lafferriere, Jorge Nicolás, “¿Los seres humanos somos meros ‘algoritmos’? Una reflexión crítica sobre el libro Homo Deus. Breve historia del mañana”, El Derecho, 272-406, 3.

El filósofo y futurólogo Max More explica que “Convertirse en posthumano implica superar las limitaciones que definen los aspectos menos deseables de la condición humana. Los seres poshumanos ya no sufrirán la enfermedad, el envejecimiento, y la muerte inevitable(39). De esta manera, se da por terminada a la vida animal, dando origen a la vida mecánica. Los transhumanistas plantean como principal deber moral intentar trascender la imperfecta condición de la especie humana para crear seres perfectos, dotando de valores éticos a las máquinas que nos sustituirán.

Para esta corriente cultural la protección de la información es lo más sagrado (persona = razón), por lo que si la data ya se ha desmaterializado no importa conservar su recipiente corpóreo, siendo fácilmente descartables los cuerpos humanos lo que da paso al imperio de las máquinas. Reduce, desde un enfoque netamente cartesiano (“Pienso, luego existo”), a concebir al ser huma-no como estructurado por dos componentes: el cerebro que es el “software” y el cuerpo que cumple funciones de “hardware”.

Todo lo señalado no hace más que realizar una valoración antropológica del Ser Humano, y a su respecto, Lafferriere contesta y refuta el pensamiento materialista de Harari, sosteniendo sobre el punto: “El hecho de que el ser humano tenga las herramientas para penetrar hasta los secretos más precisos y concretos de la vida biológica no significa que la vida humana se reduzca a esos componentes ‘materiales’. Justamente, la expresión ‘dignidad humana’ viene a expresar el reconocimiento de una excelencia en el ser de la persona humana que abarca y excede a los componentes corporales, implicando una necesaria dimensión espiritual. Esa dimensión se expresa en las potencias espirituales, inteligencia y voluntad, capacidad de conocer y amar. De allí que la principal crítica que puede formularse a la visión del libro es el materialismo que reduce al ser humano a sus componentes materiales y desconoce los dinamismos espirituales(40).

Para alcanzar los fines que persiguen, promueven tener una amplia discreción respecto a las libertades individuales de quienes apuestan por convertirse en mejores seres con ayuda de las tecnologías (libertad morfológica) y que los padres deben decidir sobre las modificaciones tecnológicas que implementarán para lograr una descendencia mejorada (libertad reproductiva).

Este movimiento olvida que más allá de la data está la conciencia cósmica, que está la intuición, el sentido común que es producto de las vivencias, de las experiencias, en sí, que somos resultado de un proceso divino. Que el humano tiene una relación interna con el cosmos, con la natura que se plasma desde atributos que no corresponden a la racionalidad sino a la creatividad, la imaginación, el símbolo, la poesía.

Siendo precisamente estos algunos de los argumentos que respalda el movimiento de los bioconservadores, para quienes las IA deben estar al servicio de los humanos debido a que lo contrario podría socavar la dignidad, existiendo principalmente dos razones para que esto ocurra: “Una es que el estado de ser posthumano podría ser en sí mismo degradante, de modo que al volvernos posthumanos podríamos estar perjudicándonos a nosotros mismos.

  1. Luc Ferry, La revolución transhumanista (Madrid: Alianza, 2017).
  2. Mark O’Connell, Cómo ser una Máquina (Londres: Granta, 1997), 21.
  3. Éric Sadin, La siliconización del mundo. La irrepetible expansión del liberalismo digital (Buenos Aires: Caja Negra, 2018), 54.
  4. Max More, “Transhumanismo un debate filosófico” (Praxis: Revista de Filosofía 75, 2017), 13.
  5. Lafferriere, Jorge Nicolás, “¿Los seres humanos somos meros ‘algoritmos’? Una reflexión crítica sobre el libro Homo Deus. Breve historia del mañana”, El Derecho, 272-406, 5.

Otra es que los posthumanos podrían representar una amenaza para los humanos ‘ordinarios’(41).

El primer motivo es tratado por el bioeticista Leon Kass, quien lo explica en las siguientes palabras: “La mayoría de las dádivas dadas de la naturaleza tienen sus naturalezas dadas específicas de especie: son todas y cada una de un tipo dado. Las cucarachas y los humanos son igualmente otorgados, pero de diferente naturaleza. Convertir a un hombre en una cucaracha –como no necesitamos que Kafka nos lo muestre– sería deshumanizar. In-tentar convertir a un hombre en algo más que un hombre también podría serlo. Necesitamos más que un aprecio generalizado por los dones de la naturaleza. Necesitamos una especial consideración y respeto por el don especial que es nuestra propia naturaleza(42).

La preocupación que emerge es que las máquinas moldeen sus condiciones de vida de acuerdo con sus necesidades, lo que conllevaría a la deshumanización del planeta. Esto implicaría que nuestro ecosistema sea reemplazado por uno artificial, plástico, en el que el ser humano no tenga las posibilidades de sobrevivir. Recordemos que existe una relación mutualista muy frágil de sobrevivencia entre animales y plantas, por lo que su desaparición conllevaría a la extinción del ser humano. Basta analizar como lo indica National Geographic el caso de las abejas, que con su desaparición ocasionarían una catástrofe a la seguridad alimentaria, considerando que “a nivel mundial, una tercera parte de los alimentos dependen de las abejas(43).

El segundo motivo por el cual se podría quebrantar la dignidad se debe a que al coexistir los humanos normales y los posthumanos podría haber un escalamiento de violencia como mecanismo de sobrevivencia de cada especie, algo parecido a los resultados publicados recientemente que explican que “la extinción de los neandertales se atribuyó a la llegada de nuestra especie(44). Sobre lo referido, George Annas, Lori Andrews y Rosario Isasi en su artículo titulado “Protección del ser humano en peligro: hacia un tratado internacional que prohíba la clonación y las alteraciones hereditarias”, manifestaron: “La nueva especie, o ‘posthumana’, probablemente verá a los antiguos humanos ‘normales’ cómo inferiores, incluso salvajes, y aptos para la esclavitud o la matanza. Los normales, por otro lado, pueden ver a los posthumanos como una amenaza y pueden participar en un ataque preventivo matando a los posthumanos antes de que ellos mismos sean asesinados o esclavizados por ellos. En última instancia, es este potencial predecible de genocidio lo que convierte a los experimentos que alteran las especies en armas potenciales de destrucción masiva, y convierte al inexplicable ingeniero genético en un bioterrorista potencial”(45).

En todo caso a pesar de que el transhumanismo ya no es una quimera debido a los desarrollos de las IA, todavía estamos a tiempo de tomar las medidas que fomenten una cultura ética que salvaguarde a la especie humana, por lo que es una responsabilidad urgente sentar los pilares jurídicos de protección para que en un futuro cercano no lamentemos tener avances tecnológicos que nos vulneren. Siendo precisamente este el abordaje que se realizará en el siguiente capítulo.

  • Principios éticos que guían el adecuado desarrollo de la inteligencia artificial

Para salvaguardar la dignidad humana de posibles avances negativos sean estos conocidos o desconocidos que traen consigo las IA, con sustento en la reflexión realizada en los capítulos precedentes, es importante identificar algunos de los principios éticos que guíen de manera responsable a las sociedades a la hora de afrontar estos desarrollos tecnológicos. Lo que se pretende es generar unas bases sólidas e interdependientes que permitan establecer unos mínimos éticos para salvaguardar a la especie humana.

  1. Nick Bostrom, “En defensa de la dignidad posthumana”, Bioética, acceso el 19 de junio de 2023, https://nickbostrom.com/ethics/ dignity#_ftnref3.
  2. Leon Kass, Vida, libertad y defensa de la dignidad: Los desafíos de la bioética (San Francisco: Encounter Books, 2002), 48.
  3. “La abeja: una parte vital de los ecosistemas”, National Geographic, acceso el 19 de junio de 2023, https://www.nationalgeogra-phic.es/animales/abeja.
  4. “¿Quiénes fueron los neandertales y por qué se extinguieron”, National Geographic, acceso el 19 de junio de 2023, https://www. nationalgeographicla.com/historia/2023/03/quienes-fueron-los-nean-dertales-y-por-que-se-extinguieron.
  5. George Hannas; Lori Andrews y Rosario Isasi ,“Protección del ser humano en peligro: hacia un tratado internacional que prohíba la clonación y las alteraciones hereditarias”, Revista Americana de Leyes y Medicinas 151 (2002), 162.

Desde este contexto en los últimos años han existido avances para establecer marcos normativos que regulen el desarrollo de las IA, destacándose en el ámbito internacional la “Recomendación sobre la ética de la inteligencia artificial” adoptada el 23 de noviembre de 2021 por los 193 Estados miembros de la Conferencia General de la UNESCO y el “Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión” propuesto el 21 de abril de 2021 por la Comisión Europea y aprobado para negociación por parte de los eurodiputados el proyecto el 14 de junio de 2023, por lo que actualmente se encuentra en proceso de aprobación. Al analizar estos instrumentos encontramos que existen algunas similitudes, entre las que podemos resaltar los siguientes principios:

La inocuidad hace mención que las IA no deben causar daño a los seres humanos, sociedad, ni al medio ambiente. Tampoco pueden restringir derechos ni libertades fundamentales. Al respecto en el documento de la UNESCO se indica: “En caso de que pueda producirse cualquier daño para los seres humanos, los derechos humanos y las libertades fundamentales, las comunidades y la sociedad en general, o para el medio ambiente y los ecosistemas, debería garantizarse la aplicación de procedimientos de evaluación de riesgos y la adopción de medidas para impedir que ese daño se produzca(46).

A pesar de que ninguno de los instrumentos analizados lo establece de manera expresa, el principio de inocuidad tiene interconexión con el principio precautorio, que refiere a que, si se generan dudas no comprobadas sobre posibles riesgos producidos por desarrollos tecnológicos al medio ambiente, los desarrollos tecnológicos no podrán ser implementados mientras no se compruebe científicamente la inocuidad de los mismos y con el principio de prevención, que suspende los desarrollos tecnológicos que de manera científica demuestren afectaciones al ambiente. Para garantizar la aplicación del principio de inocuidad, en estos instrumentos se incorpora el principio de vigilancia o supervisión humana cuyo objetivo según el proyecto del Parlamento Europeo es que: “Los sistemas de IA de alto riesgo se diseñarán y desarrollarán de modo que puedan ser vigilados de manera efectiva por personas físicas durante el período que estén en uso, lo que incluye dotarlos de una herramienta de interfaz humano-máquina adecuada(47), mientras que el instrumento de la UNESCO va más allá al señalar “la supervisión humana se refiere, por tanto, no solo a la supervisión humana individual, sino también a la supervisión pública inclusiva, según corresponda(48). Estas acciones están encaminadas a mitigar los riesgos de que las IA tengan la capacidad de tomar decisiones que puedan ir más allá de lo necesario para lograr propósitos u objetivos alejados de la dignidad humana.

Otro de los principios es la seguridad y protección. Al respecto hay que considerar que los algoritmos son el ADN de las IA y se deben establecer protocolos de acceso, manejo y utilización de los datos con la finalidad de respetar la privacidad y utilización de información fidedigna y veraz. En este sentido, el proyecto aprobado por el Parlamento Europeo garantiza que “las personas físicas sean debidamente informadas y puedan decidir libremente no ser sometidas a la elaboración de perfiles u otras prácticas que puedan afectar su conducta(49), de esta manera se alcanzará lo que plantea la UNESCO referente a que “el acceso a los datos sea sostenible, respeten la privacidad y fomenten un mejor entrenamiento y validación de los modelos de IA que utilicen datos de calidad(50).

  1. UNESCO. 2021. Recomendación sobre la ética de la inteligencia artificial.
  2. Comisión Europea. 2021. Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión.

También la propuesta europea prohíbe que las autoridades públicas realicen calificación social basada en IA, igual-mente en el documento de la UNESCO encontramos que “los sistemas de IA no deberían utilizarse con fines de calificación social o vigilancia masiva(51).

La equidad y no discriminación es otro de los principios que deben guiar a las IA para el efecto se debe promover el concepto nuclear de la “justicia social(52), garantizando, por un lado, que se reduzca el riesgo de discriminación algorítmica, referente a los sesgos en “lo tocante al diseño y la calidad de los conjuntos de datos empleados para desarrollar sistemas de IA(53); y, por otro, que los beneficios de las IA lleguen a todas las personas en equidad sin que haya discriminación entre: “zonas rurales y urbanas y entre personas, con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen nacional, étnico o social, condición económica o social de nacimiento, discapacidad o cualquier otro motivo, en lo que respecta al acceso al ciclo de vida de los sistemas de IA y la participación en él. En el plano internacional, los países más avanzados tecnológicamente tienen la responsabilidad de ser solidarios con los menos avanzados para garantizar que los beneficios de las tecnologías de la IA se compartan(54).

Esto conlleva a disminuir las brechas digitales, en cuanto acceso, conocimiento y calidad, con la finalidad de que exista una democratización tecnológica y de datos con miras a superar inequidades digitales que imposibilitan el desarrollo sostenible de algunos grupos poblacionales.

La privacidad constituye un principio y derecho medular para la protección de la dignidad, la autonomía y la capacidad de actuar de los humanos, por lo que una garantía ética es proteger la huella digital definida como el conjunto de todos aquellos datos que el usuario genera en su interacción con una aplicación y la sombra digital que hace mención al conjunto de todos aquellos datos del usuario recopilados por terceros. Para el efecto, el documento de la UNESCO menciona que se deben establecer protocolos para “la recopilación, la utilización y la divulgación de datos personales y al ejercicio de sus derechos por parte de los interesados(55), a través de mecanismos como el consentimiento previo, libre e informado. El documento de la Unión Europea señala que se debe dar un trato respetuoso a los datos y algoritmos de inteligencia artificial “de una manera segura, oportuna, transparente y fiable que respete la privacidad(56).

De manera concatenada con el principio de privacidad se encuentran los principios a la transparencia y la explicabilidad, que garantizan según se describe en el instrumento de la UNESCO que “las personas deberían estar plenamente informadas cuando una decisión se basa en algoritmos de IA o se toma a partir de ellos, en particular cuando afecta a su seguridad o a sus derechos humanos(57). En este contexto, el proyecto aprobado por el Parlamento Europeo precisa que se aplicarán obligaciones de transparencia a los sistemas que: “i) interactúen con seres humanos, ii) se utilicen para detectar emociones o determinar la asociación a categorías (sociales) concretas a partir de datos biométricos, o iii) generen o manipulen contenido (ultrafalsificaciones)(58).

En el documento de la UNESCO se manifiesta que el principio de explicabilidad supone hacer inteligibles los resultados de los sistemas de IA y facilitar información sobre ellos. La explicabilidad de los sistemas de IA tam-bién se refiere a la inteligibilidad de la entrada, salida y a los resultados de los sistemas, para lograr este propósito se propone “promover mediante una educación abierta y accesible, la participación cívica, las competencias digitales y la capacitación en materia de ética de la IA, la alfabetización mediática e informacional y la capacitación”(59).

  1. Ibídem.
  2. Comisión Europea. 2021. Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión.
  3. Ibídem
  4. UNESCO. 2021. Recomendación sobre la ética de la inteligencia artificial.

Finalmente, se puede mencionar al principio de la rendición de cuentas por parte de todos los actores que par-ticipan en el proceso de las IA para lo cual deberían elaborarse mecanismos de trazabilidad (del funcionamiento) y auditabilidad “adecuados de supervisión, evaluación del impacto, auditoría y diligencia debida, incluso en lo que se refiere a la protección de los denunciantes de irregularidades(60).

Estos mínimos éticos deben estar presentes en todas las etapas del ciclo de vida de los sistemas de IA, que com-prenden: “la investigación, la concepción y el desarrollo hasta el despliegue y la utilización, pasando por el mantenimiento, el funcionamiento, la comercialización, la financiación, el seguimiento y la evaluación, la validación, el fin de la utilización, el desmontaje y la terminación(61). A tal fin, es preciso aprobar e implementar en las constituciones estos preceptos digitales para así garantizar que los sistemas de IA cumplan con los principios éticos pertinentes.

La implementación efectiva de los códigos de conducta conlleva a la construcción de un modelo de gestión inclusivo, transparente, corresponsable, multiactoral y multinivel en el que con sustento en la gobernanza digital participen de manera activa e interrelacionada todos los actores involucrados teniendo roles fijos entre los que destacan el control, la supervisión y lo sancionatorio que deben realizar las organizaciones intergubernamentales y los gobiernos; el desarrollo tecnológico ético por parte de la comunidad científica, los círculos universitarios, los investigadores, las empresas tecnológicas; la alfabetización digital de los gobiernos, las universidades, las organizaciones no gubernamentales; el consumo responsable y ético corresponde a la sociedad civil.

Conclusiones

A manera de ideas finales que recogen lo abordado en este trabajo monográfico, podemos mencionar:

  • Los riesgos de las inteligencias artificiales: el desarrollo de las IA ha trastocado al mundo, sus avances benefician a las personas en distintos campos. Pero también surgen alarmas respecto hasta qué punto se tienen que generar los avances tecnológicos para que no vayan en detrimento de las personas, esto se debe, entre otros motivos, a los siguientes factores: utilización indiscriminada y ciertos sesgos en la utilización de datos, dotación de autonomía a los desarrollos tecnológicos y escasa normativa jurídica por medio de la cual se establezcan unos mínimos éticos que resguarden la dignidad de los seres humanos.
  • La vulnerabilidad del ser humano: las personas somos seres vulnerables. Esta condición es intrínseca a nuestra existencia, pero algunos factores pueden agravarla. En la actualidad se deben de manera urgente implementar unos imperativos éticos que posibiliten definir los márgenes de acción de las IA, para lo cual se tiene que definir si la ética corresponde implementar a los desarrollos tecnológicos (corriente posthumanista) o si son las personas quienes deben considerarla para realizar los desarrollos tecnológicos (corriente bioconservadora). El implementar una ética de las IA puede ser la última posibilidad de sobrevivencia de la especie humana.
  • Hacia unos principios éticos que protejan la dignidad humana: es imperante la aprobación de marcos normativos que recojan los principios éticos que tutelen la dignidad humana de los desarrollos de las IA. La inocuidad, la precaución y la prevención ambiental, la vigilancia o supervisión humana, la seguridad y protección, la equidad y no discriminación, la privacidad, la trasparencia, la explicabilidad y la rendición de cuentas son algunos de los pilares que protegerán a las personas. Para que estos
  1. UNESCO. 2021. Recomendación sobre la ética de la inteligencia artificial.
  2. Ibídem
  3. Comisión Europea. 2021. Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión.

Bibliografía

Anderson, Mary. 1994. “El concepto de vulnerabilidad: más allá de la focalización en los grupos vulnerables”. En Revista Internacional de la Cruz Roja.

Arendt, Hannah; Solana, Guillermo. 1981. Los Orígenes del Totalitarismo. Madrid: Alianza.

Arendt, Hannah. 2009. La Condición Humana. Buenos Aires: Paidós.

Basset, Úrsula. 2017. “La vulnerabilidad como perspectiva: Una visión latinoamericana del problema. Aportes del Sistema Interamericano de Derechos Humanos. En Tratado de Vulnerabilidad. Buenos Aires: La Ley.

Bostrom, Nick. En Bioética. “En defensa de la dignidad humana”. https://nickbostrom.com/ethics/dignity#_ft-nref3 (consultado el 19 de junio de 2023).

Chul Han, Byung. 2021. No Cosas: quiebras del mundo de hoy. Madrid: Taurus.

Comisión Europea. 2021. Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión.

Cortina, Adela. 2019. “Ética de la inteligencia artificial”. En Revista Anales de la Real Academia de Ciencias Morales y Políticas.

Declaración sobre el riesgo IA. Ver Centro de Ayuda IA. https://www.safe.ai/statement-on-ai-risk (consultada el 8 de julio de 2023).

El cántico de las criaturas de San Francisco de Asís. Aciprensa. https://www.aciprensa.com/recursos/el-can-tico-de-las-criaturas-1289 (consultada el 18 de junio de 2023).

Ferry, Luc. 2017. La Revolución Transhumanista. Madrid: Alianza.

Freire, Paulo. 1972. Pedagogía del Oprimido. Buenos Aires: Siglo XXI.

Hannas, George; Andrews, Lori e Isasi, Rosario. 2002. “Protección del ser humano en peligro: hacia un tratado internacional que prohíba la clonación y las alteraciones hereditarias”. En Revista Americana de Leyes y Medicinas.

Hobbes, Thomas. 1979. Leviatán. Madrid: Nacional. Kant, Immanuel. 2003. Fundamentación de la Metafísica de las Costumbres. Santa Fe: El Cid Editor.

Kass, León. 2002. Vida, libertad y defensa de la dignidad: Los desafíos de la bioética. San Francisco: Encoure Books.

Kottow, Miguel. 2012. “Vulnerabilidad entre derechos humanos y bioética. Relaciones tormentosas, conflictos insolutos”. En Revista de la Facultad de Derecho de la Pontificia Universidad Católica de Perú.

La Barbera, María. 2019. “La vulnerabilidad como categoría en construcción en la jurisprudencia del Tribunal Europeo de Derechos Humanos: límites y potencialidades”. En Revista de Derecho Comunitario Europeo.

More, Max. 2017. “Transhumanismo un debate filosófico”. En Revista de Filosofía Praxis.

National Geographic. “La abeja: una parte vital de los ecosistemas”. https://www.nationalgeographic.es/anima-les/abeja (consultado el 19 de junio de 2023).

National Geographic. “Quiénes fueron los neandertales y por qué se extinguieron”. https://www.nationalgeogra-phicla.com/historia/2023/03/quienes-fueron-los-neander-tales-y-por-que-se-extinguieron (consultado el 19 de junio de 2023).

Núñez, Pilar. 2012. “La evolución en la protección de la vulnerabilidad por el derecho internacional de los derechos humanos”. En Revista Española de Relaciones Internacionales.

O’Connell, Mark. 1997. Cómo ser una Máquina. Londres: Granta.

Pascal, Blaise. 2003. Pensamientos. Buenos Aires: Biblioteca Universal.

Rouhiainen, Lasse. 2018. Inteligencia Artificial. 101 Cosas que debes saber hoy sobre nuestro futuro. Barcelona: Planeta.

Sadin, Éric. 2018. La siliconización del mundo. La irrepetible expansión del liberalismo digital. Buenos Aires: Caja Negra.

Sánchez, Carolina; Toro, José. 2021. “El derecho al control humano: Una respuesta jurídica a la inteligencia artificial. En Revista Chilena de Derecho y Tecnología.

Savater, Fernando. 2003. El Valor de Elegir, Barcelona: Ariel.

Schwab, Klaus. Ver Futuro Hoy. La Cuarta Revolución Industrial. http://ojs.ssh.org.pe/index.php/Futuro-Hoy/ar-ticle/view/1/118 (consultada el 8 de julio de 2023).

Strand, Kyle. Ver Parlamento Europeo. ¿Qué es la inteligencia artificial y cómo se usa? https://www.europal.europa.eu/news/es/headlines/society/20200827STO85804/ que-es-la-inteligencia-artificial-y-como-se-usa (consulta-da el 8 de julio de 2023).

UNESCO. 2021. Recomendación sobre la ética de la inteligencia artificial.

VOCES: DERECHO – TECNOLOGÍA – INTERNET – INTELIGENCIA ARTIFICIAL – INFORMÁTICA – ESTADO – DERECHOS Y GARANTÍAS CONSTITUCIONALES – DERECHOS HUMANOS – PODER JUDICIAL – ECONOMÍA – CONSTITUCIÓN NACIONAL – CÓDIGO DE ÉTICA – JUECES – ABOGADO – PROFESIONES LIBERALES – FILOSOFÍA DEL DERECHO – SENTENCIA – JUSTICIA – ACCESO A LA JUSTICIA – PROTECCIÓN DE DATOS PERSONALES – TRATADOS INTERNACIONALES

Inteligencia artificial y administración de justicia:

¿La independencia judicial está en peligro?(*)

Introducción

Las nuevas tecnologías y el uso de inteligencia artificial están transformando la forma en que los seres humanos vivimos y trabajamos. En la actualidad, robots con IA incorporada, múltiples aplicaciones con sistemas de inteligencia artificial, internet de las cosas (IoT) y agentes conversacionales están fortaleciendo distintos sectores económicos e industriales para mejorar sus procesos y hacerlos más eficientes.

En los últimos 10 años la inteligencia artificial ha tenido un desarrollo exponencial. La revolución 4.0 está entre nosotros, y como generación estamos llamados a enfrentar el desafío que se presenta ante nuestros ojos.

El uso masivo del big data ha potenciado y alimentado a los algoritmos contribuyendo al florecimiento de los sistemas de inteligencia artificial. Así, a través del aprovechamiento del big data podemos acceder a información en tiempo real y analizar grandes volúmenes de datos para luego predecir resultados y comportamientos.

Los sistemas predictivos basados en inteligencia artificial generan perfiles de consumidores y usuarios que son utilizados para ofrecer nuevos productos y servicios, fijar precios, segmentar clientes, etc. Asimismo, son de utilidad para anticipar la demanda de bienes de los consumidores, predecir la pérdida de clientes, elaborar estrategias de fidelización y retención, etc.

El sector jurídico, de impronta tradicionalista, no está ajeno a estos cambios y atravesará inexorablemente una reconfiguración.

La pandemia aceleró una profunda transformación digital no solo en los departamentos legales de las empresas y grandes estudios jurídicos, sino que apuró el proceso en los distintos estamentos estatales y en los abogados de a pie. El impacto de las nuevas tecnologías en la prestación de servicios jurídicos ya es moneda corriente.

En la actualidad, hay una marcada automatización de procesos con el objeto de reducir costos, minimizar errores humanos y gestionar eficientemente el tiempo de ejecución de tareas. El análisis de la documental aportada por los distintos sectores y la confección de contratos rutinarios se ven favorecidos por la utilización de sistemas de OCR (optical carácter recognition), esto permite abaratar costos y gestionar eficientemente la toma de decisiones al analizar datos vinculados a un documento ante la concreción de cualquier gestión judicial.

Los agentes conversacionales pueden ser una solución acertada para una adecuada atención al cliente a los fines de administrar mejor el tiempo de respuesta y derivar solamente las consultas importantes a los operadores humanos. La atención primaria de clientes podría evacuarse de manera express a través de herramientas como ChatGPT o BARD.

En el sector jurídico, los sistemas de IA pueden ser útiles para analizar patrones de los distintos tribunales para

(**) Abogada (UNC). Magíster en Derecho Civil Patrimonial (UCA). Jefa de Trabajos Prácticos de Obligaciones Civiles y Comerciales (UBA). Especialización en Responsabilidad Civil Contractual y Extracontractual. Facultad de Derecho, Universidad de Castilla – La Mancha (UCLM). Directora del Programa de Inteligencia Artificial y Derecho, Escuela de Negocios (UCES). Miembro de Comisión Directiva de la Asociación Argentina de Derecho de Seguros- AIDA Rama Argentina. Vicepresidenta del Grupo de Trabajo de Nuevas Tecnologías, prevención y seguros de la Asociación Argentina de Derecho de Seguros AIDA Rama Argentina. Secretaria del Instituto de Derecho Civil del Colegio de la Abogacía de la Capital Federal. Profesora de posgrado en diversas universidades argentinas. Autora de diversos artículos doctrinarios en su área de especialización.

luego predecir el dictado de las sentencias judiciales. Incluso podrían ser utilizados para emitir sentencias en base al análisis de resoluciones judiciales previas.

Por cierto, la Administración de Justicia no escapa a la inexorable innovación, ya que todos los actores pertenecientes al mundo del derecho se ven fuertemente compelidos a una urgente evolución.

En el presente artículo abordaremos someramente lo que consideramos son ejes principales del cambio de paradigma en el Poder Judicial, a saber: a) el uso de sistemas de inteligencia artificial(1) en la administración de justicia; b) la interrelación entre debido proceso e IA; c)

¿es posible hablar de jueces robots?, y d) ¿la inteligencia artificial afecta la independencia del poder judicial?

La utilización de inteligencia artificial en la administración de justicia

La revolución 4.0 no solo hace pie en las organizaciones privadas, en las empresas y proveedores de bienes y servicios. Hoy en día los organismos estatales asisten a un creciente proceso de automatización y transformación digital que impone desafíos crecientes a la Administración Pública.

Los principales retos en la gestión de la cosa pública tienen que ver con la atención de las consultas y trámites de los ciudadanos −front office−, y con la gestión de la cosa pública, es decir la automatización y simplificación de procesos administrativos −back office−. Actualmente, se utilizan algoritmos en la seguridad social, en la gestión del empleo público, en el análisis y gestión de documentos públicos, en la atención al público a través de chatbots, y en el uso por parte de la policía del reconocimieno facial.

Sin embargo, el proceso de transformación digital en el Estado tiene impedimentos propios que hacen a la gestión estatal, o bien a la denominada burocracia estatal. Así, se presentan cuatro desafíos propios en el sector público, a saber: a) la burocracia estatal: los recursos humanos del propio Estado tienen como característica central una reticencia propia a todo lo que sea cambio y reformulación de actividades, los procesos de gestión no suelen modificarse con facilidad y conllevan un sinfín de trámites que dificultan tareas; b) gestión administrativa: como se ha señalado los trámites administrativos entrañan una complejidad que se erigen en un auténtico desafío a la hora de digitalizar la gestión estatal; c) escasa interacción entre Áreas/Direcciones: la propia burocracia estatal impide la cooperación y coordinación entre Áreas, el desafío está en entender que la simplificación de procesos depende de la interacción entre los distintos sectores; d) user experience: la administración pública desconoce este concepto propio de las empresas privadas, la experiencia del ciudadano en la utilización de los servicios y trámites públicos no es requerida por la Administración Pública por lo que es imposible acceder a un feedback que permita mejorar procesos y simplificar trámites engorrosos(2).

El Poder Judicial como uno de los poderes del Estado no es ajeno a este proceso de transformación digital. La administración de justicia es actualmente uno de los campos más fértiles para el adecuado aprovechamiento de las nuevas tecnologías.

Sin embargo, el Poder Judicial no siempre fue permeable a la digitalización de procesos. Ciertamente, la pandemia fue un antes y un después que impulsó a este poder del Estado a dar ese salto de fe hacia una profunda y necesaria transformación digital.

A partir del 2020 el Poder Judicial tuvo que readecuar su manera de atender al público, cambiar el modo de gestionar causas judiciales, adoptar sistemas de notificaciones electrónicas, implementar la firma digital en las resoluciones y sentencias judiciales, admitir el uso de domicilio electrónico, etc.

Actualmente, la innovación encuentra a magistrados totalmente comprometidos con una nueva manera de administrar justicia y dispuestos a interpelarse.

En el seno del Poder Judicial hay todo un grupo de personas que están firmemente convencidos de la necesidad de transitar el camino hacia “una verdadera administración digital, pensada en gestión de datos. La capacidad digital se mide en el uso de la big data. (…) Es posible (…) repensar los derechos humanos en clave digital, un verdadero derecho procesal, ya no informático, ni electrónico, sino digital: un debido proceso digital e incluso el derecho al control humano como garantía del debido proceso. Los principios clásicos procesales de inmediatez, publicidad, celeridad, concentración y economía procesal alcanzan su esplendor bajo la luz y manto de la tecnología”(3).

  1. En adelante usaremos el término inteligencia artificial o su sigla IA de manera indistinta.
  2. Vid. SANCHEZ CAPARROS, Mariana, “El desafío de modernizar la Administración. O acerca de cómo sacar belleza del caos”-BORDAS, María Milagros- MALBRAN, Manuel Celedonio (Dir.), Repensando el Derecho Administrativo del Siglo 21- Congreso Nacional del FORJAD, IJ Editores, 2021. Cita: IJ-MMCCXLIII-23.

Algunos autores señalan que la manera de ejercer la profesión de abogado tiene los días contados, ya que este tipo de profesionales serán “reemplazados en gran parte y a largo plazo por sistemas avanzados, o por trabajadores menos costosos apoyados por tecnología o procesos estándar, o [incluso] por legos armados con herramientas de autoayuda en línea”(4).

El concepto de LegalTech definido como “el uso de tecnologías digitales modernas, asistidas por ordenador, para automatizar, simplificar y, con suerte, mejorar el proceso de búsqueda, aplicación, acceso y gestión de la justicia a través de la innovación(5), también puede aplicarse a la administración de justicia.

Por nuestra parte, creemos que la creciente incorporación de tecnología basada en IA en los distintos sectores del Poder Judicial supondrá un cambio organizacional radical. Muchos vaticinan el fin de los abogados, pero ¿qué hay de los empleados judiciales?

El upskilling(6) y reskilling(7) de los empleados judiciales será sumamente necesario debido a la automatización de procesos, y no solo por la utilización de modelos predictivos. Incluso por la adopción de chatbots o agentes conversacionales para atención primaria de justiciables, peritos, y/o profesionales del derecho.

El avance de las nuevas tecnologías supone indefectiblemente que todo trabajo que no genere valor per se será reemplazado por sistemas de IA. Sin embargo, entendemos que la utilización de sistemas de IA en el Poder Judicial impondrá un cambio de paradigma que permitirá crear nuevos puestos de trabajo actualmente inexistentes (especialista en lenguaje claro, legal prompt engineer, especialista en legal user experiencie, por dar algunos ejemplos).

Asimismo, el uso de nuevas tecnologías impone la necesidad de habituarse a trabajar en un contexto de automatización de tareas y a desarrollar la capacidad de adaptarse a las principales oportunidades que se presentan en torno a la incorporación de las nuevas tecnologías. A saber: a) la conceptualización de la tecnología, es decir, entender de qué se trata y su implicancia en la gestión judicial; b) la implementación de la tecnología en el ámbito laboral, no solo su adopción sino su posterior adaptación y desarrollo; y c) manejo del conflicto, es decir, en la resolución de conflictos derivados de su utilización.

Ahora bien, ¿Cómo aprovechar la inteligencia artificial en la administración de justicia?

Antes que nada, es necesario conceptualizar lo que se entiende por inteligencia artificial. El grupo de expertos de alto nivel ha definido a los sistemas de inteligencia artificial como “sistemas de software (y en algunos casos también de hardware) diseñados por seres humanos que, dado un objetivo complejo, actúan en la dimensión física o digital mediante la percepción de su entorno a través de la obtención de datos, la interpretación de los datos estructurados o no estructurados que recopilan, el razonamiento sobre el conocimiento o el procesamiento de la información derivados de esos datos, y decidiendo la acción o acciones óptimas que deben llevar a cabo para lograr el objetivo establecido. Los sistemas de IA pueden utilizar normas simbólicas o aprender un modelo numérico; también pueden adaptar su conducta mediante el análisis del modo en que el entorno se ve afectado por sus acciones anteriores”(8).

  1. ADARO, Mario, La innovación tecnológica, el gran desafío de la justicia, Sup. Gestión Judicial 2021 (febrero), 1; TR LALEY AR/ DOC/139/2021.
  2. SUSSKIND, Richard, The End of Lawyers, Oxford University Press, Oxford, 2008, pág. 2. Citado por BARRIOS ANDRÉS, Moisés en el prólogo de BARRIOS ANDRÉS (dir.), LegalTech-La transformación digital de la abogacía, Wolters Kluwer, Madrid, 2019.
  3. BARRIOS ANDRÉS, Moisés, Capítulo 1. Legal Tech y la transformación del sector legal, en BARRIOS ANDRÉS, Moisés (dir.), cit.
  4. El término se refiere al proceso de aprendizaje de nuevas habilidades en general. Se trata la capacitación continua del trabajador, su actualización.
  5. Este vocablo se refiere al aprendizaje de nuevas habilidades para que el sujeto pueda hacer un trabajo diferente. Es una suerte de aprendizaje lateral para adaptarlo a las necesidades del empleador.

En síntesis, a través de una gran base de datos un sistema de IA puede correlacionar datos y obtener patrones que permitan predecir resultados. Así, es como se modelan sistemas predictivos que luego son utilizados para predecir una sentencia o resolución −en base a decisiones judiciales pasadas− con relación a un determinado problema o caso concreto planteado.

En nuestro país, en el corazón de la Ciudad Autónoma de Buenos Aires, gente comprometida con la innovación ha desarrollado el sistema Prometea. Este sistema no solo es utilizado en la Administración de Justicia, sino que también se utiliza en procesos de compras del Estado a los fines de agilizar procesos y mejorar índices de transparencia. Prometea es reconocida internacionalmente porque la Corte Constitucional de Colombia ha utilizado este sistema a los fines de clasificar y priorizar el tratamiento de determinados procesos judiciales(9).

En definitiva, la IA en la administración de justicia puede tener múltiples oportunidades de desarrollo no solo para organizar la labor interna de un tribunal sino para optimizar la gestión judicial de un expediente. Asimismo, puede ser utilizada para simplificar procesos y automatizar todo aquel trámite administrativo repetitivo.

La utilización de sistemas de IA para la predicción de sentencias y/o resoluciones judiciales es quizás el proyecto más ambicioso de toda innovación en materia judicial. Prometea es el ejemplo de que la utilización de sistemas predictivos en el Poder Judicial es una realidad posible. Este sistema trabaja del siguiente modo: “busca la carátula en la página del Tribunal Superior de Justicia de la Ciudad de Buenos Aires, lo asocia con otro número (vinculado a las actuaciones principales) y luego va a la página del Poder Judicial de la Ciudad Autónoma de Buenos Aires (Juscaba). Busca y lee las sentencias de primera y segunda instancia, luego analiza más de 1400 dictámenes (emitidos durante 2016 y 2017), para finalmente emitir la predicción”(10).

Ahora bien, todo sistema de IA tiene un lado oscuro innegable.

Los sistemas de IA son excelentes modelos para correlacionar datos e inferir patrones que se le escapan a cualquier ser humano, pero son incapaces comprehender la noción de causalidad. Por esta razón la tasa de acierto será elevada cuando se trata de predecir sentencia referidas para casos sencillos y basados en experiencias pasadas. No obstante, la tasa de acierto para supuestos extraordinarios e imprevisibles será casi nula. “Una de las formas de limitar o mitigar las predicciones desacertadas, se vincula con el despliegue de etiquetas humanas, que les enseñen a los sistemas cuáles variables son relevantes y cuáles no para hacer predicciones en entornos controlados y en modo “testeo”. Los operadores judiciales, complementan las predicciones de máquina con un enfoque de causalidad, consideración del contexto y análisis dinámico de reglas y principios que pueden aplicarse”(11).

Por último, los sesgos algorítmicos constituyen una problemática propia de sistemas predictivos basados en IA.

La contaminación de los sistemas de IA por sesgos cognitivos se puede verificar al momento de la recolección de datos, en la etapa de preparación del dataset para entrenamiento, y/o por la retroalimentación del propio sistema de IA, dado que el algoritmo refuerza los sesgos ya aprehendidos. Los sesgos en los modelos predictivos pueden conculcar derechos fundamentales al ejercer discriminación hacia grupos vulnerables, lo que hace imperioso trabajar en su mitigación y poner énfasis en la depuración de los datasets con los que alimentamos cada modelo.

Paradójicamente, los algoritmos carentes de sesgos previenen la desigualdad de trato y reducen los errores. Los sistemas de IA libres de sesgos se basan en predictores estadísticos, lo que significa que pueden contrarrestar o incluso eliminar los sesgos cognitivos por lo que abren un abanico de posibilidades en el ámbito de la Adminitración Pública.(12)

  1. Grupo de expertos de alto nivel sobre inteligencia artificial, Directrices éticas para una IA fiable, Abril/2019, pág. 48.
  2. Vid. CORVALAN, Juan G., La primera inteligencia artificial predictiva al servicio de la Justicia: Prometea, Publicado en: LA LEY 29/09/2017, 1 – LA LEY2017-E, 1008. Cita online: TR LALEY AR/ DOC/2520/2017.
  3. ídem.
  4. CORVALAN, Juan G., Interludio. Una era de oráculos artificiales. Apuntes para entender las predicciones de la IA en la Justicia, en CORVALAN, Juan Gustavo (Dir.), Tratado de la Inteligencia Artificial, La Ley, Buenos Aires, 2021, Tomo II, pág. 39.

Debido proceso e inteligencia artificial

La inteligencia artificial es quizás la oportunidad para reformular la manera de administrar justicia. En la actualidad, asistimos a un activismo judicial exacerbado donde la aplicación del derecho se convierte en una mera sugerencia para el decisor.

Quizás sea la oportunidad para que “el razonamiento legal algorítmico, hijo de la revolución tecnológica, puede ofrecer ahora mismo, si es implementado, al menos un alivio para el caos regulatorio, pues es un arma formidable, cargada de futuro, para superar la jerga de los parlamentos y las divagaciones de la jurisprudencia, ofreciendo a la vez un oasis de certidumbre para la orientación normativa de los ciudadanos”(13).

Inteligencia artificial y proceso judicial pueden convertirse en aliados para una adecuada gestión judicial de calidad y con eje en el justiciable como usuario del servicio de justicia. Sin embargo, el respeto a los derechos fundamentales y el debido proceso se impone como regla clara dado que “el Poder Judicial es el guardián de las garantías y derechos individuales”(14).

Ahora bien, ¿Cómo garantizar el debido proceso al utilizar sistemas de IA?

Al iniciar el presente trabajo señalamos que uno de los principales desafíos de la transformación digital en la Administración Pública tenía estrecha relación con la erradicación de la burocracia administrativa.

El Estado en general, y el Poder Judicial en particular, está inmerso en una serie de tareas mecánicas, repetitivas y estandarizadas que pueden ser automatizadas a través de RPA(15). Sin embargo, cuando de automatización de procesos hablamos o bien cuando utilizamos distintos sistemas de IA en la administración de justicia debemos entender qué es lo que estamos automatizando.

Así, cuando el grado de autonomía es amplio, “la posibilidad de que las tareas que eran de exclusivo dominio de las personas físicas puedan ser reflejadas, delegadas o reemplazadas por sistemas o programas que condensan actos de contenido normativo y de contenido individual sin intermediación humana desencadenante para su emisión. En el caso de los sistemas inteligentes, hay que razonar hasta qué punto se transforma el régimen jurídico asociado a la competencia y a fenómenos que se dan en torno a ella, como podría ser el surgimiento de una suerte de potestad reglamentaria algorítmica, autoejecución automatizada de actos y una delegación algorítmica”(16).

Cuando de sistemas predictivos basados en IA se trata debemos tener presente que el grado de autonomía del sistema es bastante elevado, tal es así que las decisiones que toman los sistemas se denominan toma de decisiones automatizadas (ADM)(17).

En la actualidad, tanto organizaciones privadas como estatales se sirven de los sistemas de ADM para acelerar sus procesos de transformación digital.

Pero ¿Cómo funcionan estos sistemas? “Los sistemas automatizados de toma de decisiones se alimentan de enormes cantidades de información (inasumibles para un ser humano) relativas al fenómeno que debe ser procesado y analizado por la máquina. Estos programas tienden, por tanto, a ofrecer resultados más objetivos y precisos que los obtenidos cuando es una persona la encargada de tomar una decisión. Asimismo, dada su gran capacidad computacional, estos sistemas son capaces de producir resultados (decisiones) de manera mucho más rápida, generando así un significativo aumento de la eficiencia de todos aquellos procesos en los que son empleados”(18).

  1. SUNSTEIN, Cass R., Governing by Algorithm? No Noise and (Potentially), Less Bias, 71 Duke Law Journal 1175-1205 (2022)- Online: https://scholarship.law.duke.edu/dlj/vol71/iss6/1.
  2. PASTOR, Daniel R., Inteligencia Artificial y Poder Judicial. Hacia otra idea de Justicia, en CORVALAN, Juan Gustavo (Dir.), ob. Cit., tomo II, pág. 31.
  3. PASTOR, Daniel R., El llamado “impacto” de los derechos humanos en el derecho interno con especial referencia al derecho procesal penal, en PASTOR, Daniel R., Tensiones: ¿derechos fundamentales o persecución penal sin límites?, Ed. del Puerto, Buenos Aires, 2004, pág. 97.
  4. La automatización robótica de procesos (RPA- en inglés robotic process automation) es una tecnología que automatiza tareas administrativas ejecutadas por humanos.
  5. CORVALAN, Juan G. – SAZEICHEN, Gustavo y ALBERTSEN,

Lihué María, Actividad administrativa automatizada. Inteligencia Artificial, Potestad reglamentaria algorítmica, delegación algorítmica, acto administrativo automatizado y reserva de humanidad, en CORVALAN, Juan Gustavo (Dir.), ob. cit., Tomo II, pág. 83.

  1. En adelante utilizaremos el término toma de decisión automazada o la sigla ADM −en inglés automated decisionmaking− indistintamente.

Ahora bien, cuando utilizamos ADM, y/o sistemas predictivos en los procesos judiciales debemos garantizar el respeto del debido proceso aún con mayor énfasis que en un proceso judicial analógico.

El debido proceso como garantía procesal debe estar presente en todo procedimiento judicial ya sea este civil o penal, y se entiende como “el conjunto de requisitos que deben observarse en las instancias procesales, a efectos de que las personas estén en condiciones de defender adecuadamente sus derechos ante cualquier tipo de acto del Estado que pueda afectarlos”(19).

La Constitución Nacional hace referencia al debido proceso cuando garantiza la defensa en juicio, el derecho a ser juzgado por el juez natural y la garantía de un juicio previo fundado en ley anterior al hecho (art. 18, CN).

Por su parte, la Convención Americana sobre Derechos Humanos en su art. 8 establece “el derecho de toda persona a ser oída con las debidas garantías y dentro de un plazo razonable por un juez o tribunal competente, independiente e imparcial, establecido con anterioridad por la ley, en la sustanciación de cualquier acusación penal formulada en su contra o para la determinación de sus derechos de carácter civil, laboral, fiscal u otro cualquiera (…)”.

Podríamos definir al debido proceso digital como “una de las manifestaciones del debido proceso legal aplicado al ecosistema judicial digital y/o sede digital, y como garantía constitucional que establece los límites, principios y condiciones al ejercicio de la potestad de la administración de justicia para la protección y respeto de los derechos constitucionales y convencionales de cada usuaria/ usuario digital”(20).

En aras de garantizar el debido proceso digital es que toda persona tiene derecho a una sentencia y/o resolución judicial debidamente motivada y congruente. Fundada no solo en razones de hecho sino de derecho, lo que eventualmente le permitirá evaluar junto a su abogado la posibilidad de recurrirla en instancia superior(21).

En atención a lo expuesto, entendemos que se hace evidente que el justiciable, dada su garantía al debido proceso, tiene el derecho indiscutible de acceder a toda aquella información que le permita conocer acerca del tipo de algoritmo que resolvió su caso, cómo funciona su lógica decisional, el dataset con el que se lo ha entrenado, y toda aquella cuestión relevante que refleje transparencia, explicabilidad y trazabilidad del sistema de IA utilizado.

En otras palabras, tiene derecho al acceso al código fuente del algoritmo para un adecuado ejercicio de su legítimo derecho a la defensa.

¿Es posible hablar de jueces robots?

En primer lugar, podemos definir como robot a todo “mecanismo complejo que interactúa con su entorno, ejercitando una cierta complejidad (desarrollando un comportamiento difícil de predecir), suficiente como para que, en algunos casos, sea capaz de sustituir a un ser humano en algunas de las tareas que realiza, especialmente en un entorno dinámico y cambiante”(22).

A los fines del presente trabajo lo transcendental de este tipo de robot es que tenga un sistema de IA incorporado que le permita interactuar con su entorno para obtener los datos suficientes para llevar a cabo su tarea. En el caso concreto, ejercer una función jurisdiccional.

  1. SORIANO ARNANZ, Alba, Decisiones automatizadas: Problemas y soluciones jurídicas. Más allá de la protección de datos, en Revista de Derecho Público: Teoría y Método, Vol. 3, Marcial Pons, Madrid, 2021, pág. 90.
  2. El acceso a la Justicia como garantía de los derechos económicos, sociales y culturales. Estudio de los estándares fijados por el sistema Interamericano de Derechos Humanos, Comisión Americana de Derechos Humanos. online: http://www.cidh.oas.org/countryrep/ accesodesc07sp/accesodesciv.sp.htm.
  3. CONDRAC, Josefina, Justicia 4.0. La Inteligencia Artificial y su incidencia en el debido proceso: una mirada desde la experiencia europea, publicado en: Sup. Innovación y Derecho 2022 (noviembre), 1 – LA LEY2022-F, Cita online: TR LALEY AR/DOC/3011/2022.
  4. Vid. AMONI REVERON, Gustavo A., Libertad, presunción de inocencia y defensa ante la irrupción de la Inteligencia Artificial en el ámbito policial y judicial penal, en CONTINO HUESO, Lorenzo (Dir.), Derechos y garantías ante la inteligencia artificial y las decisiones automatizadas, Thomson Reuters/Aranzadi, Cizur Menor, 2022, pág. 228.
  5. Juan GARCÍA–PRIETO CUESTA, Juan, ¿Qué es un robot?, en MOISES BARRIO, Andrés (Dir.), Derecho de los Robots, Wolters Kluwer, Madrid, 2018, pág. 39.

Países como China y Estonia son pioneros en el uso de jueces robots. Así, en Estonia el ámbito de aplicación de estos jueces robots se centraría en disputas contractuales pudiendo apelarse la decisión del juez robot por ante un ser humano(23). Por su parte, China desarrolló un sistema de IA que resuelve preguntas y lo hace en un lenguaje que el ciudadano común puede entender. Se trata de un robot que ha sido ideado y entrenado para dar asistencia legal inicial a todo aquel que la solicite. No es técnicamente un juez robot, pero asiste a los tribunales en aquellas tareas automatizables(24).

Hay una verdad ineludible. No todos los casos sometidos al conocimiento de los jueces son iguales dado que los justiciables y las circunstancias del caso concreto son únicos. Sin embargo, la praxis judicial indica que los litigios se parecen entre sí. Pensemos en un accidente de tránsito donde un sujeto colisiona a otro con su rodado en su parte trasera, lo cierto es que un tribunal cualquiera con competencia en lo civil puede tener para resolver al menos cinco casos similares.

En este orden de ideas, “hay parcelas del derecho que regulan realidades cuyos matices son bastante reducidos, de tal forma que la respuesta judicial a las mismas suele coincidir en un cúmulo de casos. En ellos, el juez no contaría con ese marco de decisión, ni tendría que recurrir a principios o a argumentos razonables para dictar su respuesta, sino que se limitaría a aplicar la norma o los precedentes a los hechos. Un algoritmo de justicia predictiva que pronosticara la respuesta para un caso podría tomar el papel del juez en dichos litigios, pues su actuación no se diferenciaría de la llevada a cabo por el magistrado”(25). En pocas palabras, este es el fundamento central con el que se justifica la aplicación de sistemas predictivos en el Poder Judicial.

Así como hay voces a favor, también tenemos detractores respecto a la idea de utilizar jueces robot.

Quizás el primer cuestionamiento es que no tendría personalidad jurídica ya que no pueden ser considerados personas humanas. Por lo tanto, no respetan la manda constitucional que establece como requisito ser una persona humana para ejercer la magistratura (arts. 18, 19, 25, 75, inc. 12 y 116 de la CN)(26).

Algunos autores señalan que los jueces robots “pueden ayudar enormemente a evaluar peritajes, declaraciones testimoniales y pruebas, a esbozar un perfil de las partes del proceso, evaluar riesgos, proyectar indemnizaciones, evaluar virtualmente autopsias, comparar sentencias, identificar criterios, etcétera, ofreciendo todo un nuevo mundo de posibilidades”(27).

Los detractores sostienen que el juez robot “vulneraría el estado democrático de derecho, la independencia judicial, la imparcialidad judicial y el principio de juez legal”(28).

Por nuestra parte entendemos que no cabría hablar en puridad de jueces robots sino más bien de sistemas predictivos de IA al servicio del Poder Judicial.

Hay muchísimos procesos de escasa cuantía que pueden ser resueltos con la ayuda de sistemas de IA, dejando la toma de decisiones respecto de casos difíciles en manos de jueces humanos.

Lo cierto es que el “«acto de juzgar» delata un singular universo de sinapsis mentales neurofisiológicas allí presentes, y que solo en función de tales eventos se puede decir que el «acto de juzgar» es una materialización de un acto de justicia(29). En la actualidad, no hay ningún tipo de sistema de IA que tenga la capacidad de razonamiento similar a la de un ser humano, por lo que a la par de los sistemas predictivos basados en IA debe necesariamente concurrir un ser humano que verifique a modo de doble instancia lo resuelto por el sistema de IA.

  1. Vid. Estonia se prepara para tener “jueces robot” basados en inteligencia artificial. Publicado el 12/06/2012. Online: https:// www.thetechnolawgist.com/2019/06/12/estonia-se-prepara-para-tener-jueces-robot-basados-en-inteligencia-artificial/.
  2. Vid. China, el monstruo mundial en inteligencia artificial que utiliza cientos de jueces robot. Publicado el 13/12/2019. Online: https://www.thetechnolawgist.com/2019/12/13/china-el-monstruo-mundial-en-inteligencia-artificial-que-utiliza-cientos-de-jueces-robot/.
  3. DE ASIS PULIDO, Miguel, La justicia predictiva: Tres posibles usos en la práctica judicial, en LLANO ALONSO, Fernando H. (Dir.), Inteligencia Artificial y Filosofía del Derecho, Ediciones Laborum, 2022, pág. 295.
  4. HAISSINER, Martín D y PASTOR, Daniel R., Neurociencias, tecnologías disruptivas y tribunales digitales, Hammurabi, Buenos Aires, 2019, pág. 110.
  5. CARDENAS KRENZ, Ronald, ¿Jueces robots? Inteligencia artificial y derecho, Revista Justicia y Derecho, 4(2), 2021, online: https:// doi.org/10.32457/rjyd.v4i2.1345.
  6. GOMEZ COLOMER, Juan Luis, ob. cit., pág. 240.
  7. ANDRUET, Armando (h.), Los jueces-robots: un oxímoron posible IV. Publicado el 24/08/2022, online: https://comercioyjusticia. info/opinion/los-jueces-robots-un-oximoron-posible-iv/.

Finalmente, los sistemas de IA pueden ser una gran ayuda para la automatización de notificaciones y/o de gestión de documental. A la par que pueden ser de enorme utilidad el uso de agente conversacionales a los fines de evacuar dudas y consultas de los justiciables con relación a trámites y/o tramitación de los procedimientos en el Poder Judicial.

Quizás el desafío de la Administración de Justicia sea “apostar por la eficiencia de los procesos, optimizar los recursos públicos asignado a los tribunales, automatizar algunas funciones para permitir que magistrados, funcionarios y empleados del Poder Judicial se ocupen de tareas menos repetitivas: estos son algunos de los aspectos involucrados en el debate sobre el futuro de la justicia 4.0, que contribuye a trazar un horizonte caracterizado por una administración de justicia en búsqueda de altos niveles de innovación tecnológica, simplificación y digitalización”(30).

Una posible solución en vías de garantizar el debido proceso digital sea imponer una serie de requisito para el dictado de sentencia por jueces robot, a saber: a) Comité técnico a cargo del Poder Judicial que establezca qué software utilizar, a cargo de su mantenimiento y supervisión; b) información pública acerca del código fuente del sistema de IA, quizás no en su totalidad, pero debería tratarse de un algoritmo mayormente de caja blanca; c) a los fines de respetar el art. 3 del CCyCN debería aplicarse un sistema de IA entrenado en lógica argumentativa, los algoritmos deberían ser capaces de fundar y justificar sus sentencias mediante reglas lógicas de argumentación jurídica; y d) garantía de “doble instancia”, no nos referimos al derecho de acudir a una instancia superior sino que se debe asegurar al justiciable que la respuesta del juez robot podrá ser recurrida por ante un juez humano que rectifique o ratifique la decisión del sistema de IA(31).

Inteligencia artificial e independencia judicial

La independencia judicial es uno de los resortes de una democracia saludable por lo que es necesario proteger este baluarte. En este orden de ideas, se hace preciso garantizar la transparencia, auditabilidad, explicabilidad y trazabilidad del código fuente de los algoritmos de toma de decisión automatizada utilizados en el ámbito del Poder Judicial. Asimismo, asegurar un control humano sobre las decisiones que tomen sistemas predictivos basados en IA, sobre todo aquellos que importen la concesión o no de prisión preventiva, detenciones por reconocimiento facial, otorgamiento de la libertad condicional. etc.

La inteligencia artificial es utilizada por las autoridades policiales en aplicaciones como las tecnologías de reconocimiento facial (por ejemplo, para buscar en bases de datos de sospechosos y criminales), el reconocimiento automático de matrículas, la investigación y análisis de predictores de delincuencia, sistema de IA para detectar fraudes financieros y financiación del terrorismo, la vigilancia automatizada de las redes sociales, etc. En suma, el uso de estas herramientas debe salvaguardar la protección de los derechos fundamentales y la garantía del debido proceso.

El Poder Judicial tiene como función garantizar el respeto de las libertades fundamentales y la protección de los justiciables durante la utilización de este tipo de tecnología y/o sistemas de inteligencia artificial.

Así, se hace necesario un adecuado control judicial sobre los demás poderes del Estado y particulares para exigir la transparencia y explicabilidad de los sistemas de IA y la toma de decisiones automatizadas.

En este punto es necesario destacar que la independencia judicial está íntimamente relacionada con la idea de imparcialidad al momento de juzgar.

Cuando usamos un sistema predictivo de IA debemos asegurar la ausencia de factores que importen discriminación alguna o la vulneración del principio de igualdad. Recordemos que para que cualquier “resolución sea válida, toda máquina de juzgar deberá trabajar, en la

  1. CONDRAC, Josefina, Justicia 4.0. La Inteligencia Artificial y su incidencia en el debido proceso: una mirada desde la experiencia europea. Publicado en: Sup. Innovación y Derecho 2022 (noviembre), 1 – LA LEY2022-F, Cita online: TR LALEY AR/DOC/3011/2022.
  2. Cfr. DE ASIS PULIDO, Miguel, ob. cit., págs. 304/305.

programación de los códigos fuente de sus algoritmos, con un principio jurídico elemental: todas las personas son iguales ante la ley, con lo cual el dispositivo no hará discriminaciones”(32).

Entendemos que la única manera de obtener una resolución debidamente argumentada y motivada es comprender cómo funciona el sistema predictivo y cuál es la lógica decisional del algoritmo.

A los fines de tutelar derechos y garantías del debido proceso se proponen “dos modalidades de intervención oportunamente reglamentadas. La primera es una transparencia ex post, que “se puede lograr mediante un análisis retrospectivo de las operaciones computacionales realizadas, y esto será suficiente, por ejemplo, si el objetivo principal es compensar a las víctimas de decisiones incorrectas”. La otra herramienta consiste en una transparencia ex ante, es decir una evaluación preventiva de los procedimientos de toma de decisiones por medio de la inteligencia artificial. En este caso, garantizar una transparencia total representa probablemente un desafío más complejo, que podría requerir la renuncia al uso de ciertas tecnologías de aprendizaje automático, consideradas inseguras o expuestas a eventuales intentos de manipulación”(33).

Por eso es sumamente necesario que los sistemas de IA predictivos se desarrollen en el propio ámbito del poder judicial, o bien se garantice que sean de caja blanca con el objeto de asegurar imparcialidad e independencia judicial. Caso contrario, corremos el riesgo de encontrarnos frente a un programador/desarrollador que no es imparcial, que no es independiente, que persigue sus propios objetivos y fines, y que de alguna forma puede influir en la manera en la que se administra justicia(34).

Palabras finales

El desarrollo tecnológico nos permite optimizar recursos, reducir costos y tareas, y automatizar procesos a los fines de gestionar eficientemente la cosa pública. En materia de Administración de Justicia la inteligencia artificial asiste a los funcionarios judiciales para mejorar las competencias humanas.

No obstante, la IA también plantea desafíos y riesgos como la calidad de los datos, los sesgos algorítmicos, la transparencia, la opacidad algorítmica, la explicabilidad y el respeto a los derechos humanos.

En América Latina, y desde el propio corazón del Poder Judicial, se han desarrollado sistemas predictivos de IA con el fin de complementar la actividad jurisdiccional de los magistrados a los fines de ayudar a una gestión más eficiente de la administración de justicia.

El desafío que representa la Revolución 4.0 en el Poder Judicial está en dotar a estos sistemas de IA con las herramientas necesarias para lograr el más amplio respeto por las garantías procesales de los justiciables. Asimismo, y a los fines de garantizar la imparcialidad algorítmica, los magistrados y funcionarios del poder judicial deben instaurar métodos de control de calidad de datos a los fines de detectar posibles sesgos algorítmicos.

Para finalizar, entendemos que es deseable que en el seno del Poder Judicial haya un Comité Técnico interdisciplinario que defina software a utilizar, controle y supervise el mantenimiento de este; que garantice la explicabilidad y auditabilidad de los sistemas de IA, y que instituya la garantía de la doble instancia humana para resguardar los derechos de los justiciables. En definitiva, que establezca una serie de prácticas y reglas claras para garantizar el debido proceso digital y una adecuada gobernanza algorítmica que fortalezca la independencia judicial.

Bibliografía y sitios web (por orden de aparición)

SANCHEZ CAPARROS, Mariana- “El desafío de modernizar la Administración. O acerca de cómo sacar belleza del caos” en BORDAS, María Milagros MALBRAN, Manuel Celedonio (Dir)- “Repensando el Derecho Administrativo del Siglo 21- Congreso Nacional del FORJAD” – IJ Editores- 2021- Cita: IJ-MMCCXLIII-23.

  1. HAISSINER, Martín D y PASTOR, Daniel R., ob. cit., pág. 138.
  2. CONDRAC, Josefina, Justicia 4.0. La Inteligencia Artificial y su incidencia en el debido proceso: una mirada desde la experiencia europea” Publicado en: Sup. Innovación y Derecho 2022 (noviembre), 1 – LA LEY2022-F, Cita online: TR LALEY AR/DOC/3011/2022.
  3. Vid. GOMEZ COLOMER, Juan Luis- ob.cit– pág. 324. HAISSINER, Martín D y PASTOR, Daniel R.- ob.cit– pág, 124

ADARO, Mario, “La innovación tecnológica, el gran desafío de la justicia”, Sup. Gestión Judicial 2021 (febre-ro), 1; TR LALEY AR/DOC/139/2021.

SUSSKIND, Richard- “The End of Lawyers”, Oxford University Press- Oxford- 2008- pág. 2. Citado por BARRIOS ANDRÉS, Moisés en el prólogo de BARRIOS ANDRÉS (dir.)- “LegalTech-La transformación digital de la abogacía”- Wolters Kluwer- Madrid- 2019.

BARRIOS ANDRÉS, Moisés- “Capítulo 1. Legal Tech y la transformación del sector legal” en de BARRIOS ANDRÉS (dir.)- “LegalTech-La transformación digital de la abogacía”- Wolters Kluwer- Madrid- 2019.-

Grupo de expertos de alto nivel sobre inteligencia artificial- “Directrices éticas para una IA fiable”- Abril/2019.-CORVALAN, Juan G- “La primera inteligencia artificial predictiva al servicio de la Justicia: Prometea”- Publicado en: LA LEY 29/09/2017, 1 – LA LEY2017-E, 1008. Cita online: TR LALEY AR/DOC/2520/2017.-

CORVALAN, Juan G- “Interludio. Una era de oráculos artificiales. Apuntes para entender las predicciones de la IA en la Justicia”- en CORVALAN, Juan Gustavo (Dir)- “Tratado de la Inteligencia Artificial”- La Ley-Buenos Aires- 2021- Tomo II. –

SUNSTEIN, Cass R- “Governing by Algorithm? No Noise and (Potentially)”- Less Bias- 71 Duke Law Journal 1175-1205 (2022)- Online: https://scholarship.law. duke.edu/dlj/vol71/iss6/1

PASTOR, Daniel R.- “Inteligencia Artificial y Poder Judicial. Hacia otra idea de Justicia”- en CORVALAN, Juan Gustavo (Dir)- “Tratado de la Inteligencia Artificial”- La Ley- Buenos Aires- 2021- Tomo II.-

PASTOR, Daniel R.- “El llamado “impacto” de los derechos humanos en el derecho interno con especial referencia al derecho procesal penal”- en PASTOR, Daniel R.- “Tensiones: ¿derechos fundamentales o persecución penal sin límites?”- Ed. del Puerto- Buenos Aires- 2004.-

CORVALAN, Juan G- SA ZEICHEN, Gustavo y ALBERTSEN, Lihué María- “Actividad administrativa automatizada. Inteligencia Artificial, Potestad reglamentaria algorítmica, delegación algorítmica, acto administrativo automatizado y reserva de humanidad”- en en CORVA-LAN, Juan Gustavo (Dir)- “Tratado de la Inteligencia Artificial”- La Ley- Buenos Aires- 2021- Tomo II.-

SORIANO ARNANZ, Alba- “Decisiones automatizadas: Problemas y soluciones jurídicas. Más allá de la protección de datos”- en Revista de Derecho Público: Teoría y Método- Vol. 3- Marcial Pons- Madrid- 2021. –

El acceso a la Justicia como garantía de los derechos económicos, sociales y culturales. Estudio de los estándares fijados por el sistema Interamericano de Derechos Humanos”- Comisión Americana de Derechos Humanos. online: http://www.cidh.oas.org/countryrep/acceso-desc07sp/accesodesciv.sp.htm

CONDRAC, Josefina- “Justicia 4.0. La Inteligencia Artificial y su incidencia en el debido proceso: una mirada desde la experiencia europea”- Publicado en: Sup. Innovación y Derecho 2022 (noviembre), 1 – LA LEY2022-F, Cita online: TR LALEY AR/DOC/3011/2022.

AMONI REVERON, Gustavo A- “Libertad, presunción de inocencia y defensa ante la irrupción de la In-teligencia Artificial en el ámbito policial y judicial penal”- en CONTINO HUESO, Lorenzo (Dir)- “Derechos y garantías ante la inteligencia artificial y las decisiones automatizadas”- Thomson Reuters/Aranzadi- Cizur Menor- 2022.-

GARCÍA–PRIETO CUESTA, Juan- “¿Qué es un robot? – en MOISES BARRIO, Andrés (Dir)- “Derecho de los Robots”- Wolters Kluwer- Madrid- 2018.-

“Estonia se prepara para tener “jueces robot” basados en inteligencia artificial”- https://www.thetechnolawgist. com/2019/06/12/estonia-se-prepara-para-tener-jueces-robot-basados-en-inteligencia-artificial/

“China, el monstruo mundial en inteligencia artificial que utiliza cientos de jueces robot”- https://www.thete-chnolawgist.com/2019/12/13/china-el-monstruo-mundial-en-inteligencia-artificial-que-utiliza-cientos-de-jueces-robot/

DE ASIS PULIDO, Miguel- “La justicia predictiva: Tres posibles usos en la práctica judicial”- en LLANO ALONSO, Fernando H. (Dir)- “Inteligencia Artificial y Filosofía del Derecho”- Ediciones Laborum- 2022.-

HAISSINER, Martín D y PASTOR, Daniel R. “Neurociencias, tecnologías disruptivas y tribunales digitales”-Hammurabi- Buenos Aires- 2019. –

CARDENAS KRENZ, Ronald- “¿Jueces robots? Inteligencia artificial y derecho”- Revista Justicia y Derecho, 4(2)- 2021- online: https://doi.org/10.32457/rjyd. v4i2.1345

ANDRUET, Armando (H)- “Los jueces-robots: un oxímoron posible IV”- Publicado el 24/08/2022- online: https://comercioyjusticia.info/opinion/los-jueces-robots-un-oximoron-posible-iv/

GOMEZ COLOMER, Juan Luis- “El Juez Robot- La independencia judicial en peligro”- Ed. Tirant-lo blanch-2023.-

VOCES: ABOGADO – DEMANDA – PROCESO JUDICIAL – PODER JUDICIAL – NOTIFICACIÓN – INFORMÁTICA – TECNOLOGÍA – CORTE SUPREMA DE LA NACIÓN – DOMICILIO – DEFENSA EN JUICIO – EXPEDIENTE JUDICIAL – EJERCICIO PROFESIONAL – JUECES – DERECHO PROCESAL – SENTENCIA – PROCESO ORDINARIO – RECURSOS PROCESALES – JURISPRUDENCIA – CONSTITUCIÓN NACIONAL – EJERCICIO PROFESIONAL – COMUNICACIONES ELECTRÓNICAS – NORMAS DE EMERGENCIA – CONSEJO DE LA MAGISTRATURA – INTERNET – INTELIGENCIA ARTIFICIAL – DERECHOS Y GARANTÍAS CONSTITUCIONALES – ACCESO A LA JUSTICIA

Ministerio Público Fiscal@(*)Reset(**)
por Carlos Manuel Romero Berdullas(***)

 

Introducción

Recientemente, nos hemos interrogado si el auge de ese artículo de moda llamado Inteligencia Artificial(1) no marcaba el tiempo propicio de un gran reinicio de una administración del servicio de justicia percibida como ineficaz por gran parte de la sociedad(2), y de un Derecho Penal, que se ha convertido en una ciencia oculta e inescrutable para el ciudadano lego, tal cual lo sentenciara hace más de un siglo Freudenthal(3).

Por cierto, en ocasión de publicar “El gran reinicio del Derecho penal” iniciamos un diálogo universitario sobre el potencial de una tecnología no solo problemática(4), sino también caracterizada como un rostro ambiguo por Benedicto XVI(5). Una tecnología que, per se, nos interpela a una relectura del Derecho Penal in toto, la exploración de las nuevas posibilidades ofrecidas por la “IA” y la búsqueda de un límite ético-jurídico(6) coligada a un ascenso a los principios de una tradición jurídica occidental perenne, mas hoy redescubierta como una novedad en el ámbito del Derecho Penal(7).

(*) La arroba se utiliza con el propósito de representar la preposición latina “ad”, que significa “hacia”. Pues otrora, con el afán de ganar tiempo los copistas conjugaban las letras “a” y “d” mediante la @ [cf. Eguiluz, Laura, “La usas a diario, pero ¿sabes cuál es el origen de la arroba?”, Diario AS, 13 de octubre de 2016, disponible en https:// as.com/tikitakas/2016/10/13/portada/1476346072_621133.html (fecha de consulta: 14/07/2023)].

(**) El presente trabajo se enmarca en el Programa IUS de Investigación Jurídica Aplicada de la Facultad de Derecho de la Pontificia Universidad Católica Argentina (UCA) que dirige el Profesor Doctor Jorge Nicolás Lafferriere, específicamente en el marco de los proyectos IUS: “El daño resarcible frente al emergente alta tecnología – Desafíos e interpretación jurídica del cambio frente al avance tecnológico, la innovación permanente y el desarrollo sustentable”, que codirigen los Dres. Emiliano Lamanna Guiñazú y Matilde Pérez, junto a un grupo de destacados juristas que los acompañan; también del Programa IUS de Investigación Jurídica Aplicada titulado: “La función preventiva y la incertidumbre científica en actividades especialmente peligrosas. El Compliance como técnica de prevención y anticipación de daños en el ámbito empresario”, que dirige la Dra. Matilde Pérez juntamente con el Dr. Fernando Ubiría junto a un destacado grupo de colaboradores.

(***) Doctor en Derecho Penal y Ciencias Penales (USAL), Especialista en Derecho Penal por la Pontificia Universidad Católica Argentina (UCA) y Abogado por la Universidad de Buenos Aires (UBA).

  1. En adelante “IA”.
  2. Cfr. Romero Berdullas, Carlos M., El gran reinicio del Derecho penal. Dilemas, tensiones y desafíos originados por la IA aplicada al proceso penal, Hammurabi, Buenos Aires, 2022.
  3. En palabras de Freudenthal, el “Derecho Penal mismo se ha convertido en una ciencia oculta”, pues “el mundo de los conceptos del Derecho Penal le ha llegado a ser inaccesible” al pueblo, lo que conduce a un deplorado abismo entre la sociedad y el derecho (Freudenthal, Berthold, Culpabilidad y reproche en el Derecho Penal, en Colección Maestros del Derecho Penal, B de F, Montevideo – Buenos Aires, 2018, pp. 63-64).

De ahí que se destacara, la necesidad de abrevar cada vez más en el fecundo magisterio de aquellos innovadores profesores que van a las fuentes (como, por ej., Sacheri)(8) en traza de alcanzar respuestas superadoras a los desafíos del presente, es decir, ajustadas al dinamismo del bien común político, la dignidad del ser humano en todas sus dimensiones(9) y esa barrera ética-jurídica por descifrar, código de cuyo respeto dependerá el no arriesgarse a todos los males impredecibles e irreversibles(10) de una caja de Pandora(11) apta para convertir a los actores jurídicos en ese aprendiz de brujo del poema sinfónico de Dukas(12).

  1. Problemática no solo desde un plano conceptual, dada la orfandad de una definición universalmente aceptada de “IA” (cf. Anexo I de las Recomendaciones para una inteligencia artificial fiable, p. 28, que fueran receptadas el 30 de mayo de 2023 mediante la disposición 2/23 de la Subsecretaría de Tecnologías de la Información de la Jefatura de Gabinete de Ministros de la Nación Argentina); sino además en cuanto a sus efectos y posible regulación. Repárese en ese sentido que la Corte Suprema de Justicia de la Nación sentó la necesidad de abrir un serio debate sobre las tensiones pasibles de originarse entre la aplicación de los sistemas algorítmicos y los derechos fundamentales receptados en el plexo constitucional (cfr. Denegri, Natalia Ruth c/ Google Inc. s/ derechos personalísimos: Acciones relacionadas, CIV 50016/2016/CS1, CIV 50016/2016/1/RH1 (2022): Corte Suprema de Justicia de la Nación, 28 de junio de 2022, cons. nº 23 , cfr. https://sjconsulta.csjn.gov.ar/sjconsulta/documentos/verDocumentoB-yIdLinksJSP.html?idDocumento=7765751&paginaContexto=21, fecha de consulta: 29/06/2022).
  1. Tal es la ambigüedad, que “nacida de la creatividad humana como instrumento de la libertad de la persona, puede entenderse como elemento de una libertad absoluta, que desea prescindir de los límites inherentes a las cosas […] transformándose ella misma en un poder ideológico, que expondría a la humanidad al riesgo de encontrarse encerrada dentro de un a priori del cual no podría salir para encontrar el ser y la verdad” (Benedicto XVI, Caritas in Veritate, nº 62, 2009).
  2. En efecto, una tentación vinculada a la “IA” y su posible aplicabilidad en el campo del derecho gira en derredor a un desarrollo ajeno a prohibiciones o límites éticos.
  3. Una tradición jurídica en la cual inexorablemente debemos abrevar, si en esta hora perentoria procuramos recuperar el sentido del Derecho Penal, asignatura advertida como urgente en Sarah, Robert, Se hace tarde y anochece, Palabra, Madrid, 2019, p. 374.
  4. No es azaroso que Sacheri fuera caracterizado como “El profesor innovador que va a las fuentes”, tal cual lo evidencian los editores de Sacheri, Carlos A., Orden Social y Esperanza Cristiana, 3ª ed., Escipión, Mendoza, 2014, en p. 18. De ahí que aquí se ponga de relieve como una novedad actual, la existencia de innovadores profesores que van a las fuentes.
  5. Con el objeto de sortear una perspectiva sesgada es fundamental destacar las dos dimensiones de la dignidad del ser humano. Una dignidad permanente, radical o básica siempre presente en el hombre incluso aunque delinca, la cual corresponde a todo integrante de la especie humana (ya sea un santo o un delincuente); que coexiste con una dignidad de carácter dinámico, relacionada a la defectibilidad de la naturaleza humana y a partir de cuya actualización se consuman delitos u otros actos indignos. Para una mayor ilustración puede leerse Lamas, Félix A., El hombre y la conducta, Instituto de Estudios Filosóficos “Santo Tomás de Aquino”, Buenos Aires, 2013, pp. 121-122; Hernández, Héctor H., El garantismo abolicionista, Marcial Pons, Buenos Aires, 2013, cap. 18; y Romero Berdullas, Carlos Manuel, El mal y el bien del Derecho Penal, sobre ‘Malum passionis’ y una respuesta fundada en el realismo, Hammurabi, Buenos Aires, 2021, pp. 153-176.
  6. Sobre los efectos catastróficos a los cuales puede acarrear la utilización de la “IA” puede verse “Los riesgos de la inteligencia artificial para la privacidad exigen medidas urgentes – Bachelet”, Comunicado de prensa de la ACNUDH, 15/09/2021, cfr. https://www. ohchr.org/es/press-releases/2021/09/artificial-intelligence-risks-priva-cy-demand-urgent-action-bachelet?LangID=S&NewsID=27469, fecha de consulta:18/03/2022)
  7. Conforme la mitología griega, Pandora abrió una jarra que debía conservarse cerrada según había alertado Prometeo, en tanto allí había encerrado a todos los males. La cuestión es que una vez abierto ese recipiente, todos esos males embistieron contra Pandora, su cónyuge Epitemeo y la raza de los mortales (cfr. Graves, Robert, Los mitos griegos, publicado bajo el nº 15 de la Biblioteca Personal Jorge Luis Borges, Hyspamerica, Buenos Aires, 1985, p. 62).
  8. Se sigue de cerca la caracterización del aprendiz de brujo empleada por Bauman al rumiar el artículo escrito por Thom Shanker y Matt Richtel en el New York Times (cfr. Bauman, Zygmunt. – David Lyon, Vigilancia líquida, Paidós, Buenos Aires, 2013, pp. 94-95).

Como el camino desandado constituyó un punto de partida, que dado el grado de actualización de una “IA” renovada cada día requiere de investigaciones regidas por un espíritu abierto a concretar la idea guía de hallarse “siempre iniciando” (semper incipe)(13), tan indispensable para la realización de la ciencia –la cual es uno de los elementos principales del bien común político, sin cuya concreción no es posible alcanzar la paz(14)–; en esta oportunidad afrontaremos el reto de precisar si el reseteo en progreso propuesto por estas nuevas tecnologías no podría ayudar a ese Ministerio Público Fiscal(15) –emparentado por Maier con un “adolescente”(16) o por Roxin con un “fruto tardío”(17)– a cumplir plenamente sus deberes posicionales, rectificar posibles desnaturalizaciones de ese rol protagónico de guardián de la legalidad confiado por la Constitución Nacional; y alcanzar así, esa mayoría de edad tan añorada.

Se asume la valía de determinar esto, especialmente ante una serie de reformas legislativas (como, a guisa de ejemplo, lo es la introducción de la insignificancia procesal u oportunidad libre, la conversión de la acción pública en privada y otras alternativas fincadas en la privatización del Derecho Penal) que tienden a desviar a los representantes del MPF de su misión constitucional, dispensar a los acusadores públicos de ciertas obligaciones definitorias e incondicionales de lo que en esencia es un fiscal, y jaquear la identidad de estos sujetos procesales expuestos a no pocas zozobras a lo largo de las condiciones históricas de su desarrollo.

Ahora bien, en aras de conseguir una respuesta plausible a esta cuestión, nada parece más conveniente que iniciar nuestro itinerario, cribando en primer lugar cómo podría conjugarse la “IA” con ese principio del obrar del MPF(18) tan imbricado a: a) un derecho/deber de legalidad procesal(19) fundado en una prescripción iusnatural receptada en nuestra Constitución Política(20); b) el interés público de garantizar la persecución de penal de determinados hechos particularmente perjudiciales para la subsistencia de la comunidad política, y c) la necesidad de contar con la certeza gnoseológica de la reacción de esa autoridad pública convocada a afianzar la justicia penal, frente a la eventual comisión de esos actos dañinos en grado sumo.

La relevancia de dilucidar primero esto se sobreentiende, en tanto el principio de legalidad procesal es el faro de actuación de un MPF en donde se expresa su identidad y reafirma su “esencia”; o sea, aquello por lo cual “son” “lo que son” los fiscales, quienes no constituyen hijos de la revolución(21), ni prole de la Edad Media. Pues la pragmática de instituir actores dotados de potestad para perseguir imperativamente aquellas conductas de máxima nocividad social, sin cuya prohibición, persecución, investigación y sanción la comunidad política no podría conservarse fue una constante empírica ya observada desde etapas incipientes de la historia, tal cual puede comprobarse con la lectura de “La crisis de identidad del Ministerio Público Fiscal”(22).

  1. Traducción del latín: “siempre iniciando”.
  2. Lo afirmado a la luz del fecundo magisterio de Sacheri (cfr. Sacheri, Carlos A., El orden natural, EUDEBA, Buenos Aires, 1975,
  1. 151), de algún modo podría conjugarse con lo expuesto por Hugo Álvarez Sáez el 5 de junio de 2023, en el marco de la “Jornada sobre regulación de la inteligencia artificial que fuera desarrollada en la Cámara de Diputados de la Nación”, cuando el nombrado resaltó que “…la ciencia es de todos… es de la sociedad. Es un activo social…” (intervención disponible en https://www.youtube.com/ watch?v=82AbGfA5jcM, consultada el 16/06/2023).
  2. En adelante MPF.
  3. Cf. Maier, Julio B. J., “El Ministerio Público: ¿un adolescente?”, en AA. VV., El Ministerio Público en el Proceso Penal, Ad-Hoc, Buenos Aires, 2003.
  4. Roxin, Claus, “Posición Jurídica y tareas futuras del Ministerio Público”, en AA. VV., El Ministerio Público en el Proceso Penal, Ad-Hoc, Buenos Aires, 2003.
  5. Es decir, aquello de lo cual procede en el orden del hacerse, conforme una de las acepciones de principio expuestas en Aristóteles, Metafísica, 1ª ed. (con introducción, traducción y notas de Tomás Calvo Martínez), Gredos, Madrid, 1994, L. V, cap. I; y Lamas, Félix A., La Experiencia Jurídica, Instituto de Estudios Filosóficos Santo Tomás de Aquino, Buenos Aires, 1991, p. 501.
  6. Principio de legalidad procesal que puede definirse como el “…deber del Ministerio Público Fiscal de ejercer de oficio la acción penal ante la noticia de la comisión de un delito de acción pública, imperativo además comprensivo de la imposibilidad de suspender, interrumpir (irretractibilidad) o desistir (indisponibilidad) de la persecución, salvo en las excepciones expresamente determinadas por la ley” (Romero Berdullas, Carlos M., Derecho Penal Líquido, Inconstitucionalidad del principio de oportunidad, Ad-Hoc, Buenos Aires, 2020, p. 21).
  7. Si interesase obtener una comprensión cabal respecto a ese derecho subjetivo natural de ejercicio imperativo receptado en la Constitución Nacional, se sugiere la lectura in extenso de Romero Berdullas, Carlos M., “La crisis de identidad del Ministerio Público Fiscal”, Forum nº 11, EDUCA, Buenos Aires, 2021, pp. 69-46.
  8. Maier objeta la caracterización del fiscal moderno como un “hijo de la revolución” (cfr. Maier, Julio B. J., “El ministerio público…”, p. 29). Lo cierto es que la definición de un Ministerio Público a cargo del ejercicio de la acción penal pública, convertido después en acusador estatal sería alcanzada recién tras la crítica política desarrollada por el orden napoleónico contra el statu quo antes instaurado por la Revolución Francesa.

Una vez superado este peldaño investigativo, moveremos la razón con el propósito de discurrir además cómo la utilización de la “IA” podría incidir en un MPF, distinguido específicamente en su desempeño por las notas rectoras de unidad e indivisibilidad de oficio, objetividad e independencia, rasgos que de alguna manera también confirman en su identidad a los acusadores públicos frente al resto de los sujetos procesales.

Así pues, agotada esta vía nos hallaremos en condiciones de discernir si el reseteo del MPF a través del auxilio de la “IA” puede acercar o no a los fiscales a una actuación más acorde a aquello a lo que el acusador público se halla llamado a ser, no sin antes advertir algunas limitantes y peligros inexorablemente amalgamados a la defectibilidad de toda tecnología o sistema algorítmico creados por un perfectible hombre.

Reafirmación de la legalidad procesal

Introducido el objeto de esta investigación, un primer aspecto a considerar es que la “IA” podría convertirse en una herramienta valiosa para maximizar el rendimiento del MPF, reducir costos, racionalizar estratégicamente los recursos y dotar de mayor celeridad a las respuestas institucionales. De hecho, probablemente por intermedio de softwares más sencillos(23), determinadas actividades desarrolladas por las fiscalías podrían automatizarse (verbigracia: labores meramente administrativas(24) hoy concretadas por áreas específicas de diferentes Poderes Judiciales(25)); mas también cabría la posibilidad de un respaldo de la “IA”, que impactara positivamente en otras tareas desempeñadas por funcionarios y fiscales.

Ante el presente estado de la cuestión, no es utópico imaginar programas de inteligencia artificial debidamente diseñados, entrenados e implementados por los Ministerios Públicos Fiscales(26), que a través de algoritmos expertos propongan y recomienden a los fiscales medidas a disponer o solicitar, decisiones por adoptar o requerir, y recursos a interponer o sostener, tras procesar bases de datos con legislación aplicable(27), jurisprudencia relevante, doctrina relacionable y criterios generales de actuación dictados por el procurador o fiscal general.

De hecho, es factible reconocer patrones en el flujo de datos de los casos penales que la “IA” podría asociar para sugerir, mediante documentos sujetos a la criba, aprobación y firma de los funcionarios o fiscales:

  1.  El temperamento por seguir ante consultas telefónicas de las fuerzas de seguridad. En este caso, la “IA” podría auxiliar al funcionario que debe responder cuestiones urgentes vinculadas a casos de flagrancia, detenciones, requisas o allanamientos sin orden judicial, y permitir así reducir déficits factibles de generarse por la propia defectibilidad del ser humano, ya sea por la saturación o dispersión de quienes deben evacuar múltiples comunicaciones, a veces incluso en horario nocturno o durante un lapso temporal prolongado.
  2. Cfr. Romero Berdullas, Carlos M., “La crisis de identidad del Ministerio Público Fiscal”.
  3. En clave con la idea guía de “que el uso de inteligencia artificial conlleva distintos riesgos, y que resulta recomendable no solucionar problemas comenzando con el único propósito de ‘utilizar la inteligencia artificial’, es importante que se realice la exploración de diferentes tipos de tecnología antes de concluir que la inteligencia artificial ofrece la mejor solución a la problemática que se quiere resolver. En ciertas ocasiones, pueden emplearse otras soluciones de software más simples, menos riesgosas e igualmente eficientes para dar respuesta al mismo desafío” (anexo I de las Recomendaciones para una inteligencia artificial fiable, disposición nº 2/23 del 30/05/2023 de la Subsecretaría de Tecnologías de la Información, Jefatura de Gabinete de Ministros, p. 13).
  4. A modo de ejemplo, solicitudes de información a organismos públicos, registros oficiales y oficinas privadas.
  5. Cf. Garavano, Germán C. – Romero Berdullas, Carlos M., “El rol del Ministerio Público Fiscal de la CABA”, en AA. VV., Derecho de la Ciudad de Buenos Aires, El Derecho, Buenos Aires, 2014, p. 215-216.
  6. En adelante MPF’s.
  7. Una legislación inasible dado el maremágnum de leyes nacionales, provinciales, decretos, ordenanzas municipales y resoluciones de organismo públicos vigentes que, sumadas a tratados internacionales, pronunciamientos de la Corte Suprema de Justicia, acordadas de tribunales superiores y sentencias de órganos internacionales requerirían de un ser humano omnisciente para volver realidad la idea de que las normas son conocidas por todos, como bien se indica en Haissiner, Martín D. y Pastor Daniel R., Neurociencias, tecnologías disruptivas y tribunales digitales, Hammurabi, Buenos Aires, 2019, p. 104.

A modo de ejemplo, una tecnología GPT entrenada por el MPF podría activarse automáticamente ante cualquier consulta telefónica, analizar un gran cúmulo de respuestas brindadas en supuestos análogos por los representantes de la institución y vincularlas incluso con recomendaciones o criterios generales de actuación emitidos por el procurador o fiscal general, para proponer de inmediato al funcionario decisor consultado, que se mantenga o no la detención de una persona u ordene otra clase de medidas. Sin embargo, dado que la “IA” también es imperfecta y perfectible como sus programadores, debe repararse que el sistema también podría inducir al magistrado o funcionario a evacuar consultas erradamente en estadios iniciales de las investigaciones.

  1.  Medidas probatorias e investigativas frente a determinados hechos penales caracterizados por cierta homogeneidad de sus variables.

En efecto, la determinación de la existencia de los elementos típicos de cada figura delictiva, la antijuricidad, culpabilidad y exigibilidad de las conductas disvaliosas; como así también la identificación de los posibles autores o partícipes de esos actos, presentan patrones homogéneos que, conforme a la clase de delito investigado, se replican sistemáticamente al tiempo de disponer medidas probatorias(28).

  • Determinaciones vinculadas a la conclusión temprana o no del caso, u otros actos procesales (p. ej., archivos, dictámenes, recursos, requerimientos de elevación a juicio, etc.).

Por ejemplo, ante el ingreso de un caso donde se investigara una conducta manifiestamente atípica, el software podría proyectar como solución posible un archivo por atipicidad, luego de analizar las piezas jurídicas vinculadas en la red a la causa y relacionarlas al universo de casos análogos incorporados al sistema; mientras otra opción factible de concreción, es que el funcionario a cargo de la pesquisa lea el caso, lo clasifique y requiera al sistema algorítmico mediante tecnología GPT, la remisión de un proyecto encuadrado en un modelo de archivo previamente diseñado por el MPF, o ajustado a cierta argumentación e interpretación jurídica sostenida por el fiscal de primera instancia o sus superiores jerárquicos.

Definitivamente, nada obstaría a que las resoluciones, respuestas de traslados, solicitudes de incompetencia o recursos subsumibles en aquello conocido en la jerga judicial como arquetipos “plancha”(29), sean completados o proyectados por la “IA” bajo el control, supervisión y homologación de los magistrados, quienes según Nieva Fenoll, la mayor parte de las ocasiones tienden a aplicar criterios mecanicistas, al ofrecer “…una resolución sistemática para facilitar su trabajo, copiando motivaciones previamente elaboradas para aplicarlas a casos similares, con mayores o menores adaptaciones(30).

Nótese el sendero ya recorrido en este sentido por el MPF de la Ciudad Autónoma de Buenos Aires, que se ha constituido en un referente mundial a través de la instauración de Prometea, primer sistema de “IA” predictivo que primigeniamente proponía dictámenes jurídicos vinculados a diferentes temáticas del fuero Contencioso, Administrativo y Tributario(31), mas en la actualidad también es aplicado en investigaciones penales dentro de procesos ordenados a:

  1. Tal cual lo enseñan desde antaño, las vivencias pretéritas atesoradas por cualquier instructor de causas.
  2. Pastor y Haissiner advierten aspectos coligados a una automatización actual del servicio de justicia, que podrían relacionarse analógicamente el quehacer de los fiscales, pues en “…cierta manera esto sucede hoy […] si bien el juez debería juzgar él solo, la verdad es que juzga en equipo por la patética delegación de esa función que los jueces hacen en una miríada de colaboradores que terminan […] aplicando el cliché o la plancha de impresión que responda mecánicamente a la posición del jefe en la materia” cual “si fueran autómatas, pero a un costo económica, moral y constitucionalmente más alto” (Haissiner, Martín D. y Pastor Daniel R., op. cit., p. 128).
  3. Nieva Fenoll, Jordi, Inteligencia Artificial y proceso judicial, Marcial Pons, Madrid, 2018, p. 44.
  4. Se trata de un software que fue entrenado por el MPF de la Ciudad Autónoma de Buenos Aires mediante una técnica de aprendizaje (topic model) para reconocer lenguaje natural escrito, analizar las piezas jurídicas del expediente ingresado en red, advertir circunstancias análogas a controversias ya dirimidas y proponer un proyecto de dictamen destinado a resolver la temática tratada. Cfr. Corvalán, Juan G., “La primera inteligencia artificial predictiva al servicio de la Justicia: Prometea”, La Ley, año LXXXI nº 186, t. 1027-E, Buenos Aires, 27/09/2017.
  5. Segmentar de manera automática los 40.000 reportes relacionados a presuntos abusos sexuales infantiles, que serían emitidos anualmente por el National Center for Missing and Exploited Children(32).
  6. Automatizar los decretos de determinación de los hechos, flujo de tareas que junto a la segmentación de reportes vinculados a presuntos abusos sexuales infantiles insumiría estimativamente unas 2.735 horas de labor (lo que se traduce en un año de trabajo completo de un ser humano vs. 10 días de funcionamiento del sistema algorítmico)(33).
  7. Concatenar datos/documentos de las causas ingresadas(34), funciones que vinculadas a una plataforma de consultas sobre reportes y una base de datos de hechos investigados con visualización de estadísticas pueden convertirse en un insumo estratégico tanto para el diagnóstico, planificación e implementación de lineamientos político-criminales, como la prevención del delito.
  8.  Clasificar sumarios sobre lesiones originadas en accidentes de tránsitos, según su contenido.

Esta experiencia junto a otras instrumentadas en China (léase Xiao Fa(35) y otros softwares(36)) permiten comprender el alcance que puede presentar el auxilio de la inteligencia artificial en la actividad del fiscal, quien al hallarse librado de procesos automatizables, podría focalizarse más en: a) el análisis de aspectos jurídicos sobre los cuales surjan nuevos planteos, controversias o disrupciones exegéticas; b) el estudio de la razonabilidad y/o constitucionalidad de innovaciones legislativas o jurisprudenciales aplicadas a los casos; c) la resolución de aporías, lagunas normativas y divergencias interpretativas originadas en torno a institutos penales o procesales, la textura abierta del lenguaje o tensiones entre principios;

  1. la determinación de tendencias o dinámicas delictivas;
  2. la planificación de la hipótesis del caso, f) la preparación estratégica de las diversas audiencias, g) la justificación racional de determinados requerimientos o recursos, que dado el carácter aporético de la experiencia jurídica(37) exigen argumentos novedosos o rectificaciones de contextos situacionales o normativos signados por cierta estabilidad, etc.

Súmese a esto, que incluso la actividad de los fiscales vinculada a la planificación estratégica de las hipótesis de los casos, audiencias, solicitudes e instancias recursivas también podría facilitarse mediante una “IA” algorítmica engarzada al procesamiento de lenguaje natural (Natural Language Processing) y al aprendizaje automatizado (Machine Learning). De hecho, ya existen en el mundo sistemas algorítmicos relacionados a la jurimetría y la analítica jurídica (como, por ej., Lex Machina, Premonition, Law Litigation Analytics, Gavelytics, Casetex, Judicata, Tirant Analytics, Wolters Kluwer; e inclusive en

  1. Cf. MPF, Memoria Institucional 2021 Ministerio Público Fiscal de la Ciudad Autónoma de Buenos Aires, mayo 2022, ps. 82-83; y https://mpfciudad.gob.ar/institucional/2020-03-09-21-42-38-innova-cion-e-inteligencia-artificial (fecha de consulta: 23/05/2023).
  2. Idem.
  3. A modo ilustrativo, vale destacar que cada reporte del National Center for Missing and Exploited Children contiene más de 50 atributos, los cuales a su vez individualmente pueden presentar hasta 500 datos. De ahí que, si multiplicamos estas cifras con los 40.000 reportes ingresados anualmente, se infiere con facilidad la imposibilidad de determinar todas las relaciones posibles entre reportes, atributos y datos, a través del cerebro humano; mientras que con Prometea se puede extraer esta información para luego almacenarla de manera automática en una base vinculada, la cual se transforma en una fuente de consultas confiable, orientada a identificar tendencias delictivas y/o establecer indicadores (cfr. MPF, Memoria Institucional 2021…, ps. 82-83; y https://mpfciudad.gob.ar/institucional/2020-03-09-21-42-38-in-novacion-e-inteligencia-artificial.
  4. Primer asistente legal artificial en materia penal diseñado con el objeto de analizar 100 crímenes, estandarizar condenas y generar automáticamente proyectos de sentencias, flujo de trabajo susceptible de replicarse respecto a actos procesales desarrollados por los MPF’s (“China, el monstruo mundial en inteligencia artificial que utiliza cientos de jueces robot”, The Technolawgist, 13 de diciembre de 2019, disponible en https://www.thetechnolawgist.com/2019/12/13/ china-el-monstruo-mundial-en-inteligencia-artificial-que-utiliza-cientos-de-jueces-robot/, fecha de consulta:03/05/2022).
  5. Léase los tribunales cibernéticos implementados en Hangzhou, Pekín, Guangzhou y Beijing (cf. sitio web citado ut supra).
  6. Como enseña Lamas con buen tino, la experiencia jurídica aparece como problemática, ya sea por su misma índole o con relación a su objeto (Lamas, Félix A., “Percepción e inteligencia jurídicas. Los Principios y los límites de la dialéctica”, en AA. VV., Los principios y el Derecho Natural en la metodología de las ciencias prácticas, EDUCA, Buenos Aires, 2002, p. 25).

Argentina Sherlock-Legal, que es un desarrollo de elDial. com)(38), por intermedio de los cuales se puede analizar un universo abisal de sentencias, clasificar datos procedentes de expedientes o pronunciamientos, precisar los criterios jurisprudenciales aplicados por los diversos jueces sobre disímiles tópicos, prever las posibles decisiones jurisdiccionales y efectivizar una prognosis sobre la probabilidad de éxito ante una determinada controversia(39). Por lo que los fiscales podrían contar con datos, cifras e información valiosa sobre el comportamiento de los tribunales para ajustar su actuación en consecuencia; y reducir de este modo, el tiempo insumido en esas tareas.

Lo hasta aquí expuesto nos mueve a considerar a la “IA” como una de esas tantas soluciones posibles(40) ordenadas a simplificar los procesos penales, agilizar sus respuestas, administrar eficientemente los recursos y resolver el entuerto originado por la endémica sobrecarga laboral de los fiscales, sin necesidad de apelar a la derogación de ese valioso principio de legalidad procesal que constituye un firme valladar contra la arbitrariedad (como bien alertarán Naucke(41) y Peter – Alexis Allbretch(42), entre otros). Esta alternativa ofrecida por la “IA” no es una nimiedad, por cuanto rectamente aplicada bajo supervisión humana permitiría desarticular parte del alcázar discursivo desplegado en vías de introducir un principio de oportunidad que no solo aja la legalidad (material/procesal), la igualdad ante la ley, la división de poderes, el esquema de no autocontrol, los resortes republicanos, la certeza jurídica, el proceso acusatorio y la concreción de lo justo penal en desmedro del bien común, sino también desnuda una excusa con apariencia legal para desentender a los fiscales de sus obligaciones incondicionales e incumplir la elevada misión confiada constitucionalmente(43), además de traducir una palmaria ineficacia(44). Pues el desistimiento o renuncia a la persecución de ciertos delitos (es decir, las conductas más antijurídicas/graves/dañinas, sin cuya prohibición y sanción la sociedad no podría preservarse(45)), claramente evidencia una respuesta ineficaz(46) y una crisis de identidad de los representantes del MPF(47), en tanto se obvia que para este la justicia es fin(48) (cf. el art. 120 de la Constitución Nacional).

  1. Explicados claramente en López, Martín R., “Jurimetría y analítica jurídica en Inteligencia Artificial, nada nuevo bajo el sol. Un regreso a la tesis de Oliver Wendell Holmes Jr”, en Derecho, Innovación & Desarrollo Sustentable, Revista de doctrina y jurisprudencia nº 11, año LXII, El Derecho, Buenos Aires, febrero de 2023.
  2. Por tanto, no resultaría descabellado que en el futuro cada Ministerio Público Fiscal contara en su organigrama con un área especializada en jurimetría y analítica jurídica, con el objeto de suministrar un soporte adecuado a las intervenciones de los fiscales.
  3. Otras soluciones posibles giran en derredor a un prudente análisis sobre la necesidad de rectificar un Código Penal hipertrofiado de conductas delictivas, un rediseño organizativo eficaz, la creación de más fiscalías; y desde ya, la restauración del orden de justicia mediante la concreción de ese principio inmediato del Derecho Penal expresado en ese “dar a quien delinque su pena” pacificador de la sociedad, que además abre camino hacia la realización de los fines preventivos generales y especiales de la sanción penal, instituyendo así un círculo virtuoso, pues como explica Javier Anzóategui, así “el sistema penal, con unos pocos ajustes, puede responder al reclamo social de reducir a su mínima expresión el delito y, paralelamente, al reducir la cantidad de delitos, tendrá menos trabajo y estará menos colapsado” (cf. su intervención en debate originado el 02/08/2016 en el Instituto de Derecho Penal de la Academia Nacional de Derecho, publicado en “El llamado ‘principio de oportunidad’ en materia penal. Debate”, en AA. VV., Estudios de Derecho Penal 2016, Buenos Aires, 2016, p. 153).
  4. Naucke, Wolfang, Derecho Penal, Una introducción, traducción de la 10ª ed. alemana, Astrea, Buenos Aires, 2006, pp. 213-214.
  5. Albrecht, Peter – Alexis, “Coordenadas de una legalidad penal en el Estado de derecho: Principio de la proporcionalidad, principio de la legalidad, principio de oficialidad”, en AA. VV., Revista de Derecho Procesal Penal (dir. Donna, Edgardo A.), La Investigación penal preparatoria: Función de las policías, Rubinzal Culzoni, Santa Fe, 2013, t. II, p. 17.
  6. Romero Berdullas, Carlos M., Derecho Penal Líquido…, p. 287.
  7. So pretexto de “reconducir la gestión de los llamados ‘conflictos’ y administrar con mayor eficiencia los exiguos recursos disponibles de un saturado sistema de justicia, mediante la reorientación de la capacidad operativa del Poder Judicial hacia la persecución de los hechos socialmente más cuantificables (según las prioridades político-criminales trazadas abstracta y subjetivamente por quien sabe, incluso a partir de conceptos indeterminados)” (Romero Berdullas, Carlos M., El gran reinicio del Derecho penal…, p. 94).
  8. En línea con lo enseñado en Aquino, Santo Tomás, Suma de Teología, I-II, q. 96, a.2, 4ª ed., Madrid, BAC, 2001.
  9. Tal es el absurdo que, como explica Javier Anzóategui, mediante el principio de oportunidad el Estado –en un patente ejemplo de esquizofrenia– diría “Esto, que allí, en el código de al lado, catalogue como delito, no voy a perseguirlo, porque tengo mucho trabajo” (cf. su intervención en debate publicado en “El llamado ‘principio de oportunidad’…”, p. 154).
  10. Vide in extenso Romero Berdullas, Carlos M., “La crisis de identidad del Ministerio Público Fiscal”, pp. 69-46.

Por ende, lo explicado permite inteligir cómo un virtuoso empleo de la “IA” podría conducir a una reafirmación de un principio de legalidad procesal ensamblado al ejercicio de una potestad pública de los órganos de persecución penal, que es de derecho natural, indispensable e inderogable, en tanto sin el cumplimiento de esa función no podría afianzarse la justicia, preservarse la sociedad, impedirse la defensa por mano propia, ni cumplirse con las justas exigencias del bien común político, por cuanto de no ponerse en movimiento la acción penal, no existiría investigación, ni esclarecimiento de los presuntos delitos, como así tampoco debido proceso, juicio y –de corresponder– la sanción de aquellos actos humanos tipificados en el Código Penal por su especial nocividad/gravedad(49). De ahí que, una prudente utilización de la “IA” abriría un nuevo cauce para propiciar un redescubrimiento del ethos de los fiscales, una comprensión más diáfana del potencial presente o futuro de los representantes del Ministerio Público Fiscal; y evitar así, desviaciones en su actuación, la cual –vale destacar– constituye una necesidad de fin(50), por cuanto frente a la orfandad del ejercicio de la acción penal no se sustanciaría debido proceso alguno orientado a promover la actuación de la justicia en pos de preservar aquello “que en la ciudad se llama concordia, vínculo de bienestar seguro y óptimo para toda república, pues esta no puede subsistir sin la justicia(51).

Afianzamiento de la unidad de actuación

Por otra parte, debe ponerse en valor que el uso de la “IA” podría reforzar un uniforme desempeño de los integrantes del MPF, acorde a una organización vertical, jerárquica y monocrática, cuya intervención se halla signada en los procesos penales bajo el principio de unidad de actuación(52) e indivisibilidad de oficio, pues al ejercer sus funciones cada uno de los fiscales representa al organismo en su conjunto.

No puede obviarse que, a través de una prudente automatización/estandarización de determinados actos procesales se abriría la posibilidad de dotar de una mayor coherencia a la actividad de los fiscales; asegurar un cumplimiento estricto de los criterios generales de actuación dictados(53) en ejercicio de sus potestades por el procurador general o los fiscales generales; impedir –mediante alarmas oportunas– la disposición de la acción penal cuando fuera incompatible con esas instrucciones(54); coordinar la labor de las fuerzas de seguridad, junto al modo de desarrollar las actuaciones iniciales en miras de alcanzar una mayor eficacia en las investigaciones(55); e incluso, potenciar las chances de promover la concreción de lo justo debido, conforme las metas político criminales delineadas por las máximas autoridades de los MPF’s.

  1. Siguiendo al maestro de los peripatéticos y Sampay, podemos afirmar que la justicia es cosa de la polis en tanto es el orden político (cf. Aristóteles, Política, 1253 a. 37, según cita de Sampay, Arturo E., La Filosofía Jurídica del Artículo 19 de la Constitución Nacional, Cooperadora de Derecho y Ciencias Sociales, Buenos Aires, 1975, p. 38).
  2. En clave con lo ya desarrollado en Romero Berdullas, Carlos M., “La crisis de identidad del Ministerio Público Fiscal”, pp. 69-46.
  3. Una necesidad de fin se configura cuando no es factible lograr un fin sin un determinado medio (Santo Tomás de Aquino, Suma de Teología, I, q. 82, a.1, 4ª ed., Madrid, BAC, 2001).
  4. Cicerón, Marco T., Sobre la República, en Obras Políticas, Madrid, Gredos, 1982, L. II, 42, 69, pp. 93.
  5. El origen de la unidad de actuación se remonta al año 1302 y se rastrea en Francia, donde se instauraron los procuradores generales del rey, quienes eran designados por el monarca en calidad de guardianes de los intereses de la Corona para intervenir en procesos reales, perseguir la sanción de delitos y administrar e integrar un parquet, que refería a los integrantes del Ministerio Público, funcionarios que de algún modo participaban de la dignidad real. Al punto tal, que en las audiencias se situaban al pie del estrado y por encima del suelo, por cuanto custodiaban los intereses de la Corona desde la ubicación desde donde se administraba justicia. Por cierto, esta unidad de actuación del MPF comprendía tanto la actuación legal como las reglas de cortesía, dado que el uniforme desempeño se concretaba en los dictámenes o conclusiones emitidos por sus representantes, quienes lo hacían en nombre del parquet; y cuando se incorporaban juntos en las audiencias o en la Corte al son de “Sire, ce sont vos gens” a fin de saludar al unísono a su rey. Cfr. Ayarragaray, Carlos A., El Ministerio Público, J. Lajouane & Cía. Editores, Buenos Aires, 1928, pp. 44-46.
  6. Primero la ley 23.183 facultó al Procurador General de la Nación a impartir instrucciones de carácter general a los fiscales de primera instancia, luego esta potestad fue receptada en la Primera Ley Orgánica del Ministerio Público (cf. arts. 33.d y 51.m de la ley 24.946) y actualmente se halla prevista en la Ley Orgánica del Ministerio Público Fiscal de la Nación (cf. arts. 9.a y 12.h de la ley 27.148). Huelga destacar, que el incumplimiento de estas instrucciones generales puede constituir falta grave o leve (según la existencia o no de reiteración) cuando fuera infundado y no se hubiere expresado objeción; o si manifestada esta, la naturaleza de la instrucción no admitiera dilación alguna (cf. los arts. 68.c y 69.b de la ley 27.148).
  7. Diversos códigos procesales fijan la imposibilidad de los fiscales de disponer de la acción penal mediante criterios de oportunidad, conversión de la acción, conciliación y suspensión del proceso a prueba cuando resultare incompatible con instrucciones generales del MPF

Dentro de este contexto, se puede entrever la trascendencia que adquiriría el rol del programador jurista, quien debería interpretar fielmente el pensamiento del procurador general/fiscal general, su visión institucional y los contenidos pétreos de su diseño político criminal, pues este actor sería el encargado de nutrir a la “IA” del MPF(56) con esa forma mentis(57), entrenar mediante machine learning los algoritmos con esos juicios/instrucciones generales; alimentarla con los modelos de actos procesales elaborados circunstancialmente por quien encabeza el organismo(58); e integrarla a su logos, con el afán de orientar el sistema predictor de soluciones hacia una cabal uniformidad de actuación de los fiscales, ante el reconocimiento de ciertos patrones en el flujo de datos.

A esta altura es factible aventurar, que a esta unidad de actuación conquistada por intermedio de la “IA”, estos sistemas podrían sumarle una uniformidad e igualdad en la persecución de los delitos, el ejercicio de la acción penal y aplicación de la ley, por cuanto como explican Pastor y Haissiner, estas tecnologías: “…facilitan la aplicación uniforme de los criterios escogidos, garantizando que todos los que se encuentren en la misma situación sean tratados del mismo modo(59).

De esta manera, según lo citado, si bien no sería viable eliminar el desvío de poder propiciado por la carga en el software de una interpretación normativa manifiestamente arbitraria, sí se descartaría la aplicación selectiva de ese criterio(60). Al punto tal, que, de existir una regla interpretativa arbitraria sobre la forma de resolver una temática en particular, esa arbitrariedad la padecerían todos los sujetos implicados en un proceso penal, hasta tanto fuera rectificada en el programa(61).

Por consiguiente, este beneficio en potencia de la “IA” es sumamente significativo, en tanto permitiría eliminar una selectividad presuntamente anárquica, informal e irracional del sistema judicial(62) que sería desarrollada por ignotos operadores sin responsabilidad visible –cf., el discurso abolicionista– y constituye uno de los arietes argumentales más vacuos de razonabilidad sostenidos por quienes preconizan la institución de un principio de oportunidad sumamente objetable no solo en términos de eficacia, sino también en cuanto a su medida de constitucionalidad(63).

Resguardo de la objetividad fiscal

Asimismo, la “IA” también podría constituir una herramienta particularmente apta para fortalecer un deber de objetividad del fiscal que –conforme se adelantó oportunamente(64)– debe concebirse como una garantía(65) de víctimas e imputados; se halla expresamente previsto en la normativa(66), y se imbrica a la manda constitucional de “promover la actuación de la justicia en defensa de la legalidad de los intereses generales de la sociedad” (art. 120, CN), al incardinarse a la meta de un “dar a cada uno lo suyo” ajustado a la realidad.

  1. Cf. arts. 97 y 244 del Código Procesal Penal Federal.
  2. No es en vano destacar que, no debería concretarse esto a través del esquema de “no man on the loop”, escenario caracterizado por Llinares, como aquel donde las decisiones adoptadas por la “IA” no dependen de algo humano, sino del propio sistema inteligente, en tanto proceden de un aprendizaje autodidacta del software o de una tecnología análoga (cfr. Llinares, Fernando M., “Inteligencia artificial y justicia penal: más allá de los resultados lesivos causados por robots”, Revista de derecho penal y criminología, 3.ª época, n.º 20, UNED, Madrid, jul. 2018, pp. 93-94).
  3. Reflejada en los criterios generales de actuación emitidos, protocolos aprobados, recomendaciones formuladas; e incluso, trabajos científicos de su autoría.
  4. Nada obstaría, por ejemplo, que de exigirse una actuación uniforme del MPF en procura de promover la actuación de la justicia en defensa de la legalidad y los intereses generales de la sociedad, fueran el mismo procurador o el fiscal general quienes redactasen los argumentos a sostener en las instancias recursivas, ante un agravio constitucional replicado en determinadas controversias guiadas por un patrón coligado a reformas legislativas o disrupciones jurisprudenciales de especial actualidad.
  5. Cf. Haissiner, Martín D. y Pastor Daniel R., op. cit., p. 116.
  6. Idem.
  7. Idem.
  8. Puede ampliarse un estudio de la querella instituida contra la selectividad en Romero Berdullas, Carlos M., Derecho Penal Líquido…,
  1. 105-118 y 268-271, donde primero se exponen las posturas doctrinarias más relevantes que denuncian esta problemática; y luego se refuta el argumento utilizado por estas para instaurar el llamado principio de oportunidad.
  2. Si se pretende ampliar sobre las razones de esta inconstitucionalidad, se sugiere la lectura in extenso de Romero Berdullas, Carlos Manuel, El mal y el bien del Derecho Penal…; Romero Berdullas, Carlos Manuel, Derecho Penal Líquido…; y Romero Berdullas, Carlos Manuel, Criterios de oportunidad en el proceso penal, Hammurabi, Buenos Aires, 2020.

Aludimos a una “objetividad de hecho y aparente” comprensiva de dos dimensiones, en tanto por un lado constituye un resguardo seguro del imputado ante persecuciones arbitrarias, mas por el otro, también abarca la concreción de una garantía de justicia penal sobreentendida en la Constitución Nacional(67), rubricada en su Preámbulo y proyectada en los deberes de protección del Estado(68), entre cuyos contenidos se halla la prescripción iusnatural de evidencia inmediata, de que dado el gravísimo mal del delito debe restaurarse penalmente el orden quebrantado, en procura de las “justas exigencia del bien común(69) de la víctima (comunidad política y particular –de haberla–)(70).

Tal cual se anticipó “…el fiscal no solo debe ser objetivo, sino que además debe parecerlo, pues esta objetividad se halla estrechamente ligada a la independencia del director de la investigación en esa custodia de los derechos y garantías consagrados en la Constitución Política. De ahí la importancia, de establecer buenas prácticas destinadas a neutralizar cualquier viso de asignación arbitraria de un fiscal para que investigue un delito con

  1. Cfr. Romero Berdullas, Carlos Manuel, “La garantía de objetividad del fiscal”, Prudentia Iuris, nº 92, Buenos Aires, 2021, pp. 33-63.
  2. Para una mayor ilustración sobre un concepto realista clásico de las garantías; y no uno sesgado o recortado como el propuesto por el realismo marginal o abolicionismo, se sugiere la lectura de Romero Berdullas, Carlos M., El mal y el bien del Derecho Penal…, pp. 126-133.
  3. A guisa de ejemplo, el deber de objetividad se halla previsto en los arts. 89, 128 y 196 del Código Procesal Penal Federal (en adelante CPPF) –aprobado el 07/02/2019 por ley 27.063–, corpus normativo en donde se exige al fiscal: a) inhibirse y recusarse en caso de que su objetivo desempeño se vea afectado por algún motivo serio y razonable; b) actuar bajo el principio de objetividad y buena fe en la recolección de elementos de prueba; c) conducir la investigación preparatoria con un criterio objetivo; d) recoger con celeridad los elementos de cargo y descargo útiles para indagar la verdad, y e) recurrir en favor del imputado. Además, la ley orgánica 27.148 –sancionada el 10/06/2015– establece al principio funcional de objetividad como uno de los vectores de la actuación del MPF de la Nación, traducible en “requerir la aplicación justa de la ley, procurando el resguardo equilibrado de todos los valores y principios jurídicos vigentes”, junto al ejercicio racional/ponderado del poder penal del Estado (cf. art. 9.d de la ley citada).

Análogas prescripciones contienen los Códigos Procesales Penales de la Ciudad Autónoma de Buenos Aires (arts. 6, 179, 211 y 280 – según numeración del Anexo I de la ley local 6347, mediante la cual se aprobó la 3ª actualización del Digesto Jurídico local, que contiene normas consolidadas al 31/08/2020–); la provincia de Buenos Aires (arts. 56 y 323, ley 11.922), Salta (arts. 77 y 284, ley 7690), La Rioja (art. 204 bis, inc. 5, ley 1574), Mendoza (art. 352, según ley 6730) y Córdoba (art. 350, ley 8123).

  1. No solo desde una perspectiva fincada en el realismo clásico (cfr. in extenso Romero Berdullas, Carlos M., El mal y el bien del Derecho Penal…), sino también desde la atalaya de otros pensadores modernos, amén de que partan desde otros fundamentos y presupuestos. A modo de ejemplo, vide Isensee, J., El Derecho Constitucional a la seguridad: sobre los deberes de protección del Estado constitucional liberal, Rubinzal Culzoni, Santa Fe, 2014, pp. 17-22, 58 y 67.
  2. Tal como se expresa en CIDH, “Caso Velásquez Rodríguez Vs. Honduras”, sentencia del 29 de julio de 1988, Fondo, Serie C nº 4, parágrafos nº 166 y 167, existen dos obligaciones del Estado, una dirigida a respetar los derechos, garantías y libertades del hombre frente a la conducta estatal, y otra precisada por deberes tendentes a asegurar el libre y pleno goce de los derechos humanos. De ahí que de esto se infiere la obligación del Estado de contener, refrenar y sancionar el delito con la mayor eficacia posible en traza de garantizar la seguridad de los ciudadanos.
  3. Cf. Alonso, Jorge F. y otros s/ contrabando de estupefacientes y otros delitos (1995): Corte Suprema de Justicia de la Nación, 26 de diciembre de 1995, Fallos: 318:2611.
  4. Ante la consumación de un delito de acción pública siempre es el Estado el titular del interés ofendido por el delito (cf. Jiménez de Asúa, L., Tratado de Derecho Penal, El delito, t. III, 3ª ed. actualizada, Losada, Buenos Aires, nº 979, 1965, pp. 92-93). Ya sea como sujeto pasivo inmediato (p. ej., frente a los delitos de traición, rebelión, sedición u otras conductas delictivas que comprometen la paz); o sujeto pasivo mediato (v. gr., cuando el hecho penal vulnera un interés propio particular, tal cual acontece ante el homicidio, aborto, robo, etc.), donde siguiendo el logos del Aquinate se advierte una doble razón de demérito, por cuanto no solo se hiere a la persona singular (o parte ordenada al todo) en su bien, sino también de modo prevalente a toda la comunidad política (Santo Tomás de Aquino, Suma de Teología, I-II, q. 21, a. 3).

Dicho esto, basta señalar la existencia de delitos donde el sujeto pasivo es toda la sociedad o comunidad política (p. ej., delitos contra la seguridad pública) y no una víctima particular.

posterioridad al hecho del proceso, pues las especiales designaciones podrían despertar al menos una duda en el todo social, sobre si esa objetividad no es puesta en jaque ante factibles presiones, influencias e interferencias en la autonomía funcional, dirigidas en perjuicio o privilegio de un caso particular(71).

En este marco, cobra especial relevancia el aporte que puede suministrar la “IA” para robustecer ese deber/garantía de objetividad, como reaseguro de un imputado – también protegido de persecuciones arbitrarias por el juez de garantías–; más fundamentalmente, ante un escenario regido por la insignificancia procesal(72) o la oportunidad libre(73), donde en desmedro de la víctima (comunidad política y eventual particular) se incrementa el peligro de la inacción de los representantes del MPF ante la noticia criminal o el archivo de los casos en base a conceptos vagos(74), abstractos e indeterminados(75) guiados por el subjetivismo de cada fiscal, dentro de un paradigma de control efectivizado por una misma sección de poder, de manera discordante con al sistema de frenos/contrapesos constitucionales y los resortes propios de un ejercicio equilibrado del poder ordenado a sofrenar posibles abusos(76).

Repárese que no en vano Gössel enfatiza la importancia de establecer “…garantías necesarias contra decisiones arbitrarias del Ministerio Fiscal, en especial las referidas a la omisión de interponer la acusación(77), pues con “la ‘decisión’ adoptada acerca del sobreseimiento o la acusación, el Ministerio Fiscal no se limita ya a ejercer una mera función de control de la actividad de determinados órganos estatales, sino que efectivamente resuelve, en este momento el proceso penal, con facultad propia, sobre la continuación del proceso o el sobreseimiento de la causa(78).

Dentro de este contexto se advierte, además, que la “IA” podría convertirse en un vehículo sumamente idóneo no solo para salvaguardar esa “objetividad de hecho y aparente” de cada representante del MPF, sino también propender hacia una más eficiente administración de los recursos e incremento de la capacidad de respuesta institucional, por intermedio de la aplicación de reglas destinadas a distribuir aleatoriamente los casos entre magistrados con igual competencia(79).

  1. Romero Berdullas, Carlos M., “#Proceso Acusatorio: ¿Hashtag Constitucional?”, Forum 3, EDUCA, Buenos Aires, 2015, pp. 57-110.
  2. Prevén la insignificancia procesal los arts. 30 y 31 del Código Procesal Penal Federal, los Códigos Procesales Penales de la Ciudad Autónoma Buenos Aires (art. 212, CPPCABA); la provincia de Buenos Aires (art. 56 bis, CPP); la provincia de La Rioja (art. 204 bis, inc. 1, CPP); y la provincia de Mendoza (art. 26, CPP), entre otros.
  3. So riesgo de simplificar, podemos definir al principio de oportunidad libre como aquella facultad sumamente vasta conferida a los fiscales ante la noticia de la presunta consumación de un delito de acción pública para no iniciar el ejercicio de la acción penal, desistirla, suspenderla e interrumpirla, so capa de razones político-criminales o pragmáticas, necesidades de relocalización de los llamados “conflictos”, racionalización estratégica de los recursos, etc.
  4. La insignificancia procesal es un concepto relativo relacionado a razones político-criminales, la idea de relocalización de “conflictos” o pragmáticas de eficiencia ordenadas a racionalizar la capacidad operativa del MPF y priorizar la persecución de hechos socialmente más cuantificables [Binder, Alberto M., Derecho Procesal Penal, Ad Hoc, Buenos Aires, 2014, t. II, pp. 436-437 y Binder, Alberto M., Introducción al derecho procesal penal, 2ª ed., Ad Hoc, Buenos Aires, 2009, p. 221]. Mientras que la insignificancia material deriva de la máxima “el tribunal no trata con pequeñeces” (Roxin, Claus, Derecho Penal –Parte General–, Civitas, Madrid, 1997, t. I, pp. 292-296) y se vincula con la aplicación de determinadas categorías, a través de las cuales se concluye la atipicidad de ciertas conductas cuyo resultado traduce una nimia afectación de bienes jurídicos.
  5. Destáquese la abstracción de las fórmulas utilizadas para instaurar legislativamente este instituto. A modo de ejemplo, vale preguntarse qué delito es un “hecho de menor significación” o que no afecta “gravemente el interés público”. En fin, esto evidencia el riesgo de la textura abierta de un lenguaje propenso a trocar la “discrecionalidad del fiscal” en “arbitrariedad del órgano persecutor” (cf. Romero Berdullas, Carlos M., Criterios de oportunidad…, p. 128).
  6. Si se pretende profundizar el estudio sobre estos riesgos y las objeciones constitucionales formuladas contra estas herramientas orientadas a facilitar la disposición de la acción penal pública, vide in extenso Romero Berdullas, Carlos M., Derecho Penal Líquido…; y Romero Berdullas, Carlos M., Criterios de oportunidad
  7. Gözzel, Karl H., El Derecho Procesal Penal en el Estado de Derecho, Obras Completas, t. I, Rubinzal Culzoni, Buenos Aires, 2007, 49.
  1. Gözzel, K. H., op. cit., p. 48.
  2. Contrario sensu a la “garantía del juez natural”, la “garantía de objetividad del fiscal” no refiere a leyes de competencia, sino a reglas de distribución de trabajo entre magistrados igual de competentes, en tanto la actuación de los representantes del MPF se encuentra regida por el principio de unidad e indivisibilidad de oficio.

Dado el grado de desarrollo actual de la “IA” sería viable el diseño e implementación de un software destinado a procesar información sobre los casos ingresados al MPF y asignar la intervención del fiscal con menor carga laboral a través de algoritmos inteligentes, luego de analizar disímiles variables vinculadas tanto al cúmulo de trabajo, como a la complejidad de las investigaciones en curso (p. ej., cantidad de imputados, clase de hecho delictivo investigado, etc.).

De este modo, se sortearían: a) lo que podría denominarse “accusatio shopping” (trazando una analogía con el llamado “forum shopping”), susceptible de facilitarse cuando algún sujeto procesal puede predecir, y, en consecuencia, escoger el fiscal que intervendrá en la investigación debido a un conocimiento previo del método de elección (algo posible de configurarse, por ejemplo, mediante el sistema de turnos), y b) las designaciones particulares tras el hecho del proceso(80), que ante las novedades legislativas examinadas y una horadada confianza de la ciudadanía en el sistema de administración de justicia podrían anidar una inquietud razonable en el todo social, sobre una potencial mengua de la garantía de objetividad del fiscal en beneficio o desmedro del imputado, pasible de concretarse por diversos factores coligados a la defectibilidad de todo hombre (tales como, por ej.: presión política, connivencia con un superior jerárquico, tráfico de influencias, cohecho, venalidad en la función, prebendas, dádivas, etc.).

Claro que, naturalmente, la efectividad de este sistema de “IA” dependerá entre otras medidas, de: a) una adecuada definición de las variables a ponderar al tiempo de precisar los criterios a seguir para mensurar el peso e intensidad de los labores de cada fiscal; b) un entrenamiento apropiado de los algoritmos por parte del programador jurista; c) una óptima carga de los datos, junto a un certero control de la misma(81), y d) la reforma de leyes orgánicas de MPF’s, que confieren a las máximas autoridades de estos organismos la posibilidad de sustituir al magistrado inferior por otro fiscal o exigirle la devolución del asunto para trabajarlo directamente a través de un superior jerárquico(82), dado que sería aconsejable posibilitar esta clase de determinaciones únicamente ante supuestos excepcionales (p. ej., causales de recusación, excusación y juicio político), pero articulándolas con el funcionamiento de algoritmos inteligentes orientados a garantizar el proceso aleatorio de asignación como salvaguarda de la garantía de objetividad del fiscal.

En otro orden de ideas, aunque también relacionado con el criterio objetivo que debe regir la actuación de cada fiscal en las investigaciones penales preparatorias, no puede soslayarse la viabilidad de vigorizar esa objetividad de los acusadores públicos a través de la “IA”, en intervenciones iniciales ligadas a medidas cautelares dentro de contextos signados por la incertidumbre, la exigencia de obrar con premura y el desarrollo de prognosis sobre riesgos hipotéticos.

Huelga señalar que un sistema algorítmico de “IA” podría convertirse en una herramienta más al tiempo de analizar objetivamente la razonabilidad, proporcionalidad, necesidad, eficacia, duración e intensidad de la clase de medida restrictiva a requerir al juez, en traza de solicitar aquella susceptible de obtener el resultado deseado de la manera menos perturbadora posible(83). Así, a modo de ejemplo, la “IA” podría proponer y sujetar a la indispensable valoración personal de cada fiscal medidas menos restrictivas que la prisión preventiva, pero iguales de eficaces.

  1. Este supuesto también comprende aquella hipótesis donde es necesario disponer la actuación conjunta o alternativa de dos o más integrantes del MPF, dada la entidad o complejidad de un caso. Así, la aplicación de este proceso aleatorio disiparía cualquier posible duda susceptible de anidarse sobre la objetividad de los fiscales designados, quienes según el orden de asignación de la “IA” deberían asumir la titularidad de la investigación.
  2. Así, verbigracia, podría acontecer que, en base a especulaciones o engaños algún actor procesal generara rémoras/dilaciones innecesarias en la firma de determinados actos procesales y la carga en el sistema de gestión digital, con la finalidad de evitar la asignación de causas en un determinado lapso. Esto podría advertirse mediante mediciones e indicadores sobre la velocidad de respuesta de cada fiscal; en cuyo caso incluso la “IA” podría resultar de utilidad para diagnosticar posibles irregularidades en ese sentido, pronosticar la duración estimada de los diferentes procesos (según las características de los delitos investigados y el lapso promedio de finalización, conforme el hecho penal investigado/cantidad de imputados) e impulsar las investigaciones del caso, de advertirse anomalías o una mora. De hecho, a través de un sistema de “IA” análogo al programa Premonition –que es aplicado en Nueva York– podría determinarse la duración promedio de investigaciones similares y compararse la gestión de los diferentes fiscales.
  3. El alcance de estas facultades es otro de los problemas a resolver en torno a la base regulativa de la organización interna del MP, tal cual se anticipaba en Maier, Julio B. J., Derecho Procesal Penal, Parte General, II. Sujetos Procesales, 1ª ed., 2ª reimp., Editores del Puerto, Buenos Aires, 2011, p. 312.

Incluso, con las salvedades ya sostenidas en “El gran reinicio del Derecho penal(84) –obra a la cual remito para no exceder los límites convenientes de este trabajo–, a la hora de delimitar peligros procesales o un riesgo de reiteración delictiva admitido en diferentes legislaciones(85), los indicadores basados en patrones de conducta evidenciados por algoritmos nutridos con un gran cúmulo de datos podrían constituir un elemento más a ponderar por el fiscal junto con otras circunstancias concretas del caso, el contexto particular de la cada persecución penal y la real disposición del imputado(86).

Salvaguarda de la independencia del fiscal

Otra arista para sopesar, que mediante una mayor transparencia y objetividad de los procesos de selección por concurso podría resetearse, es la independencia de los acusadores públicos.

Precisamente, en este terreno la “IA” presenta en la actualidad la oportunidad de generar evaluaciones basadas en criterios objetivos, a partir de una biblioteca de datos, un marco teórico e interrogantes introducidos con anterioridad por profesores en los softwares; junto a la viabilidad de calificar exámenes escritos, tal cual puede comprobarse con aplicaciones como, por ejemplo, bot CS50(87) o Adaptical(88).

De modo que, nada obstaría la posibilidad de crear, entrenar e implementar un sistema de “IA” destinado a intervenir en las diferentes etapas de selección de los representantes del MPF(89), ya sea ponderando los antecedentes de cada inscripto, confeccionando pruebas de oposición ajustadas a los requerimientos objetivos del cargo a concursar y/o evaluando los exámenes de los concursantes.

Así, por ejemplo, con el propósito de que la “IA” pudiera formular las pruebas de oposición requeridas y luego calificarlas, podría nutrirse el programa con un flujo de información conformado por miles de “casos modelo”(90), los cuerpos normativos vigentes, la jurisprudencia actualizada constantemente (mediante una interfaz con los sitios web donde se registren las sentencias de cada instancia), e incluso, los criterios generales de actuación dictados por el procurador o fiscal general.

Contar con un instrumento de estas características, que a partir de un universo inasible de “casos modelo” cargado con anterioridad, se encontrara en condiciones de suministrar al inicio de un examen y de manera aleatoria, tantas pruebas con igual nivel de dificultad como concursantes hubiera inscriptos, impediría la chance de franquear a cualquier concursante el acceso previo a los contenidos de las evaluaciones, aventando de este modo dudas susceptible de generarse al respecto en la ciudadanía, en desmedro de la confianza en la administración de justicia.

  1. Se sugiere la lectura in extenso de Neira Pena, Ana María, “Inteligencia artificial y tutela cautelar. Especial referencia a la prisión provisional”, en Revista Brasileira de Direito Processual Penal, vol. 7, nº 3, pp. 1897-1933, sept./dic., 2021, disponible en https://doi. org/10.22197/rbdpp.v7i3.618, fecha de consulta:05/07/2022.
  2. Vide Romero Berdullas, Carlos M., El gran reinicio del Derecho penal…, cap. VII.15.
  3. Esta cuestión ya ha sido estudiada en Romero Berdullas, Carlos M., “De la legitimidad de la prisión preventiva ante el peligro de reiteración delictiva”, Ius Publicum, Escuela de Derecho de la Universidad Santo Tomás de Chile, vol. 26, nº 50, Santiago de Chile, marzo de 2023, pp. 171-193.
  4. En cambio, en lo que importa al fumus boni iuris o fumus commisi delicti las secuencias algorítmicas no serían aplicables, en tanto no nos hallamos ante un juicio de peligro, sino uno de imputación efectuado autónomamente por el fiscal y de manera independiente de cualquier contingencia ajena a la perpetración del delito pesquisado o prognosis sobre peligros. Por lo tanto, en cuanto a ese presupuesto de aplicabilidad de la prisión preventiva la utilización de la “IA” debería restringirse más bien a apuntalar la faz investigativa o consideración de probanzas. Cfr. Neira Pena, Ana María, op. cit., pp. 1906-1909.
  5. Ríos, Juan, “Esta inteligencia artificial califica exámenes junto al profesor y apoya a los estudiantes en sus trabajos”, publicado en Infobae, el 28 de junio de 2023, disponible en https://www.infobae. com/tecno/2023/06/28/harvard-crea-esta-inteligencia-artificial-que-califica-examenes-junto-al-profesor-y-apoya-a-los-estudiantes-en-sus-tra-bajos/ fecha de consulta: 10/07/2023.
  6. Cfr. Juárez, Irene, “Adaptical, la aplicación que crea exámenes a partir del contenido teórico”, publicado en el Periódico de España, el 15 de abril de 2023, disponible en https://www.epe.es/es/activos/20230415/examenes-servicio-inteligencia-artificial-85941732.
  7. Per se, un sistema de estas características podría replicarse en la selección de cualquier clase de magistrado, no solo de fiscales.
  8. Determinar quiénes deben realizar esta carga es una cuestión para sopesar, pues son múltiples las opciones a la carta, dado que podría efectuarse en base a criterios brindados por la comisión de selección, un jurado, el MPF, etc.

A esto debe añadirse que de preverse en los concursos alguna clase de fase ulterior ordenada a evaluar la motivación para ejercer el cargo del aspirante, su probidad o vocación republicana, su perspectiva sobre tópicos básicos del conocimiento jurídico o el funcionamiento institucional y sus planes de trabajo o concepciones sobre derechos fundamentales, el sistema de “IA” también podría alimentarse con una batería de interrogantes, doctrina relevante, jurisprudencia vinculada, e inclusive respuestas admisibles.

No obstante, se observa que de configurarse este último supuesto los peligros de sesgos anidados en el subjetivismo de cada programador o cada integrante del jurado pervivirían, como así también la factibilidad de filtrar información sobre el alcance de la evaluación, en tanto la data set sería a priori más limitada y en consecuencia asequible. Por tanto, si se pretendiera adecuar el procedimiento de selección de magistrados a cánones objetivos y reducir al máximo estos riesgos propios de la defectibilidad del hombre, lo más conveniente sería que esta clase de instancia de evaluación integral –la efectivice o no la “IA”– no otorgase puntos a los aspirantes a fiscales, sino derivase en dos resultados posibles e impugnables (léase, aprobado o rechazado). Así, de esta manera se garantizaría que la selección sea el resultado de la sumatoria del puntaje obtenido por los antecedentes y las pruebas de oposición escritas, pues de por sí, ambas instancias constituyen una plataforma de evaluación más objetiva sobre la formación, experiencia e idoneidad de los futuros fiscales.

Esto no es una cuestión menor, pues de neutralizar las posibilidades de favoritismo o nepotismo en el desarrollo de la elección de estos magistrados, no solo se aseguraría que se escogiera a los postulantes más aptos, sino también se salvaguardaría la fe en los fiscales, de consuno a su objetividad e independencia en su posterior actuación, pues los custodios del orden jurídico en su integridad, podrían así desempeñar su función con más libertad desde su nombramiento; y sortear influencias, presiones e injerencias indebidas de carácter político o de cualquier otra índole, al no hallarse viciada desde su origen su designación(91).

Debemos asumir todavía más, entonces, el valor de la aplicación de la “IA” en este campo, en tanto dentro un escenario como el planteado no podría concretarse el hipotético supuesto de un sistema, donde, por ejemplo, primara la idea de que un funcionario idóneo, más carente de soporte o influencia política no podría acceder a magistratura alguna; como así tampoco cualquier hipótesis enhebrada en torno a dinámicas corruptas tendentes a designar magistrados en base a predilecciones o la unción de los denominados popularmente “operadores judiciales”, con la intención de condicionar luego su desempeño a través del tráfico de influencias, el cohecho, la venalidad en la función, presiones u otra clase de interferencias ordenadas a privilegiar o perjudicar algunos casos.

Conclusiones

A partir del estudio desarrollado, es posible sostener con una cierta medida de razonabilidad, que una recta aplicación de la “IA” en la órbita de acción del MPF puede tender puentes para reafirmar una legalidad procesal definitoria del ethos de los acusadores públicos, afianzar la unidad e indivisibilidad de su oficio y salvaguardar tanto su objetividad como su independencia.

  1. Sobre la necesidad de establecer procesos de selección transparentes y objetivos puede ampliarse lo expuesto con la lectura de los páragrafos nº 62 y nº 108 del Informe de la Relatora Especial sobre la independencia de los magistrados y abogados, Gabriela Knaul, de la Asamblea General de Naciones Unidas, Distr. General, 7 de junio de 2012, Consejo de Derechos Humanos 20º período de sesiones, tema nº 3 de la agenda Promoción y protección de todos los derechos humanos, civiles, políticos, económicos, sociales y culturales, incluido el derecho al desarrollo; de consuno a lo plasmado en los “Estándares Internacionales para la Independencia del Poder Judicial y la Abogacía”, publicado en Asociación Internacional de Fiscales, Manual de Derechos Humanos para fiscales, 1ª ed. en español, Buenos Aires, 2009.

De por sí, esta conclusión provisoria no es nada fútil si consideramos el derrotero atravesado por el MPF a lo largo de la historia en miras de alcanzar esa madurez institucional tan anhelada, una ruta que se halló minada de no pocos vaivenes hasta que con la implementación de los procesos acusatorios se logró una redefinición de su rol más ajustada a su identidad. Un ethos que paradójicamente cuando parecía restablecerse, nuevamente ha ingresado en crisis a raíz de una serie de reformas legislativas impulsadas por doctrinas abolicionistas, discordantes con los deberes posicionales de los fiscales y ese derecho/poder de ejercicio obligatorio definitorio de su identidad e incardinado en la realización del bien común(92).

Lo cierto es que, sentado el probable alcance de este reseteo, debemos a su vez reparar en la relevancia de propugnar un reinicio del MPF guiado por el auxilio de la “IA” y no la sustitución de los fiscales humanos, pues la experiencia jurídica no consiste en un entramado de series numéricas. Por el contrario, esta tiene un carácter aporético; presenta situaciones excepcionales que requieren de la impredecible equidad; y asimismo exige, el conocimiento de una realidad muy superior a una abstracta correspondencia de códigos cifrados o patrones(93). Tal es así, que los fiscales, jueces y defensores humanos pueden complementarse en algunas labores con la ayuda de la “IA”, mas son irremplazables.

Por otra parte, vale señalar que en este reset del MPF no debería concederse lugar a la matriz de esquemas regidos por la dinámica de “No man on the loop(94) o black boxes(95), en tanto se correría el riesgo de brincar hacia un destino prometeico(96), donde se tenderían a confundir lo justo con lo factible; e incluso, los medios con los fines(97).

Es fundamental destacar esto, como así también que la “IA” procede de la creatividad del hombre, quien dada su defectibilidad es perfectible, al igual que toda tecnología o sistema creado por él, pues como advertía San Juan Pablo II “…los sistemas que crea son siempre imperfectos, y tanto más imperfectos cuanto más seguro esté de sí mismo…”(98).

Por ello, frente a la desordenada idolatría de una “IA” neciamente caracterizada por algunos como “God in a Box(99), mas imperfecta como sus programadores, cabe poner de relieve la necesidad de una activa fidelización del hombre sobre las tareas efectuadas mediante esta tecnología propensa, por múltiples factores(100), a brindar respuestas erróneas, incompletas, desactualizadas, sesgadas, discriminatorias, e inductoras de errores de fiscales, defensores, jueces y abogados.

  1. Para una mayor ilustración de este fenómeno se sugiere la lectura de Romero Berdullas, Carlos M., “La crisis de identidad del Ministerio Público Fiscal”; Romero Berdullas, Carlos M., Derecho Penal Líquido…; y Romero Berdullas, Carlos M., “De los delitos y los conflictos”, Prudentia Iuris, nº 88, EDUCA, Buenos Aires, 2019, trabajos a los cuales remito para no superar los confines convenientes de este trabajo.
  2. Si el lector tiene intención de profundizar sobre este tópico, vide Romero Berdullas, Carlos M., El gran reinicio del Derecho penal…, cap. VII.16.
  3. Es decir, un esquema donde las determinaciones adoptadas por la “IA” proceden de un aprendizaje autodidacta de la máquina sobre sí misma u otra análoga que ofició antes educadora; o dependen de algo exorbitante al humano y propio del software presuntamente inteligente (cfr. Llinares, Fernando M., op. cit., pp. 93-94).
  4. Como acontece con lo que hace al deep learning, área de desarrollo de la “IA” donde no es posible precisar el camino o la lógica del procesamiento aplicados por el sistema para alcanzar un resultado.
  5. Según la mitología griega, Prometeo habría sido encadenado desnudo en el pináculo de las montañas de la Cordillera del Cáucaso, donde un buitre engullía su hígado todo el día mientras ese órgano se regeneraba. Esta maldición fue consecuencia de un castigo impuesto por Zeus, a raíz de que Prometeo había robado el fuego para entregárselo a los hombres, amén de la prohibición dictada en ese sentido por el regente del Olimpo (cfr. Graves, Robert, Los mitos griegos, pp. 60-62).
  6. Siguiendo de algún modo el logos de Bauman, podríamos trasvasar sus reflexiones sobre el desarrollo de la tecnología militar a nuestro campo (cfr. Bauman, Zygmunt – David Lyon, op. cit., pp. 94-95), pues cabría la posibilidad de configurarse una peligrosa indiferenciación entre los medios y los fines. Más aún, se correría el riesgo de que la “IA” se transformase en la encargada de escoger los fines.
  7. San Juan Pablo II, Cruzando el umbral de la Esperanza, Barcelona, Plaza & Janés, 1994, p. 29.
  8. Nótese a modo de ejemplo la euforia originada por el Chat-GPT, chatbot que fuera entrenado para cumplir diversas consignas, pues al añadirse esta herramienta a WhatsApp fue denominado “God in a Box” (cfr. SL, ChatGPT: cómo integrar la inteligencia artificial a WhatsApp y usarla como si fuera un contacto más. La herramienta “God in a Box” permite tener la IA de moda a mano para hacer cualquier consulta de forma accesible. Clarín.com, Es gratuita, del 06/02/2023, cfr. https://www.clarin.com/tecnologia/chatgpt-inte-grar-inteligencia-artificial-whatsapp-usarla-contacto_0_fubSp61G4v.html. Esto denota una vez más la actualidad de la reflexión efectuada otrora por Garrigou-Lagrange, en tanto “…las grandes tendencias modernas, científicas o sociales, a pesar de los conflictos surgidos entre ellas, y a pesar de los opuestos designios de sus representantes, convergen, quiérase o no, hacia la cuestión fundamental de las relaciones íntimas del hombre con Dios

La objetable precisión de los scores de riesgo asignados para emitir pronósticos de reincidencia delictiva por los sistemas de “IA”(101); la discriminación algorítmica perpetuada por estos softwares en procesos penales(102); el escandaloso yerro judicial provocado por un sistema informático del Post Office, que indujo en el Reino Unido a condenar injustamente a 736 empleados inculpados por diferentes delitos no consumados(103), y el recurso interpuesto por un abogado ante la justicia federal de Manhattan, por intermedio de una pieza jurídica fundada en citas jurisprudenciales inexistentes e inventadas por ChatGPT(104), son algunos de los cuantiosos ejemplos de la defectibilidad de estas tecnologías hoy tan en boga.

Lo dicho es más que suficiente para prevenir a cualquier amante de las novedades sobre la trascendencia de una irrevocable supervisión de los fiscales sobre los flujos algorítmicos desarrollados por la “IA” en el marco de su actuación, pues al tiempo de adoptarse decisiones en el proceso penal, deviene indispensable la validación humana. De hecho, no es en vano reiterar, por si algún distraído resbalara sobre nuestra materia, la magnitud, entidad y seriedad de las determinaciones implicadas en ese proceso penal movido por el principio de “Dar a quien delinque su pena y no al inocente(105), garantía de justicia rubricada en nuestra Constitución Nacional(106), que además comprende las garantías de un juicio justo(107).

Coetáneamente, así como advertimos el potencial de la “IA” para encarrilar a los acusadores públicos en una senda conducente hacia un retorno a su identidad, conviene no omitir un análisis premortem de la misma(108), ya que esta tecnología también podría ser empleada en el futuro, de modo tal de transformar al MPF en un organismo consecuente en su desempeño con el agnosticismo penal.

(Garrigou-Lagrange, Réginald, O. P., Las tres edades de la vida interior, t. I, 6ª ed., Palabra, Madrid, 1988, p. 5). En efecto, en este culto de la “IA” se observa cierta tendencia del hombre a darle las espaldas a Dios y la soberbia aspiración a convertirse en una deidad. Esta idea de “God in the box” expresa de algún modo el deseo de un hombre vuelto en una suerte de Aladino, que tendría aherrojado a un genio en una lámpara, y aspira así a su deificación.

  • Desarrollados in extenso en Romero Berdullas, Carlos M., El gran reinicio del Derecho penal…
  1. Al respecto véase Corvalán, Juan, “El peligro de la inteligencia artificial como oráculo del sistema penal”, www.infobae. com, 30/08/2017, disponible en https://www.infobae.com/opi-nion/2017/08/30/el-peligro-de-la-inteligencia-artificial-como-oraculo-del-sistema-penal/, fecha de consulta: 24/05/2022; y Corvalán, Juan G., “La primera inteligencia artificial…, pp. 3-4.
  2. Vide Corvalán, Juan G., “La primera inteligencia artificial…”,
  3. 3-4; y Haissiner, Martín D. y Pastor Daniel R., op. cit., p. 116.
  4. Durante el periodo 2000-20014, ante “la evidencia de los datos de un programa informático supuestamente infalible presentada por los poderosos abogados de PO, los jueces hallaron culpables a inocentes y repartieron sentencias de meses o años de prisión, así como órdenes de devolver dinero nunca robado” (BBC News Mundo, “Escándalo del Post Office: el error informático por el que condenaron a 736 empleados inocentes”, La Nación, 21 de mayo de 2023, https://www.lanacion.com.ar/el-mundo/escandalo-del-post-office-el-error-informatico-por-el-que-condenaron-a-736-empleados-inocentes-nid21052023/, fecha de consulta: 26/07/2023).
  5. Cfr. lo escrito por Weiser, Benjamin, (c) The New York Times, “Esto es lo que ocurre cuando tu abogado utiliza ChatGPT”, Infobae, 28 de mayo de 2023, disponible en https://www.infobae.com/the-newyorktimes/2023/05/28/esto-es-lo-que-ocurre-cuando-tu-abogado-utiliza-chatgpt/, fecha de consulta: 26/07/2023. Vale agregar, que a partir de la utilización de citas jurisprudenciales suministradas por ChatGPT erróneamente a un abogado, un tribunal estadounidense comenzó a requerir a los litigantes certificaciones de no uso de “IA” en sus escritos y/o declaraciones vinculadas al control posterior de esa información, junto a la correspondiente asunción de responsabilidad (Onocko, Sebastián G., “A jurarle al juez que no intervino la IA, Diario Judicial.com, 1 de junio de 2023, disponible en https://www.diario-judicial.com/news-95130-a-jurarle-al-juez-que-no-intervino-la-ia, según fecha de consulta del 26/07/2023).
  6. Seguimos de cerca el magisterio del maestro Héctor Hernández en: Hernández, Héctor H., El garantismo abolicionista; y Hernández, Héctor H., Inseguridad y Garantismo abolicionista, Cathedra Jurídica, Buenos Aires, 2017.
  7. Hágase una lectura armónica del designio de afianzar la justicia previsto en el Preámbulo de la Constitución Nacional; la elevada misión de dictar un Código Penal confiada por el constitucionalista en el Poder Legislativo, ante la necesidad de prohibir y sancionar por su especial nocividad para el todo social determinadas conductas que afectan gravemente el interés público; la posible interpretación del art. 18 tendente a no permitir que la culpabilidad comprobada del delito rinda beneficio y la afirmación de la legalidad procesal como regla, ante la previsión de la amnistía e indulto como circunstancias extraordinarias, donde la prudencia legislativa contempla la dispensa de persecución o pena. Para mayor ilustración léase in extenso Romero Berdullas, Carlos M., El Mal y el Bien del Derecho Penal
  8. Vide Hernández, Héctor H., El garantismo abolicionista, pp. 167-168.

Al respecto, no resulta sobreabundante recordar aquella exhortación a la labor diaria de Bovino, quien ya hace tiempo planteara la importancia de acudir al pensamiento abolicionista en traza de reformar sustancialmente el sistema de justicia penal, lo que según sus palabras podía “ser considerado un sueño, un proyecto, una descripción nihilista…(109) paralizante; un programa milenario; o más bien, “…una apuesta más de trabajo cotidiano(110), “[q] ue es lo que cree un buen abolicionista(111).

Sin necesidad de perdernos en visiones hiperbólicas o conspirativas hueras de asidero, podemos cotejar cómo esa tarea sostenida en el tiempo por el abolicionismo ha logrado instaurar en la normativa, la doctrina y las usinas donde anida la ideología del sistema penal (léase universidades/centros de nivel terciario(112)) un esquema discursivo garantoabolicionista que se encuentra orientado a pautar las decisiones de las agencias judiciales para limitar, contradecir y reducir a su mínima expresión el poder punitivo(113). De hecho, fácilmente se puede comprobar la exitosa inculturación de un nuevo dialecto jurídico antipenal(114), bajo el barniz de determinadas categorías dogmáticas del Derecho Penal que son empleadas con el afán de trabajar desde dentro del sistema para demolerlo por implosión(115).

No es difícil entrever, entonces, que el sueño de todo abolicionista se hallaría en vías de concreción, si la forma mentis de los encargados de promover la acción frente a la comisión de los delitos de acción pública respondiera al agnosticismo penal, y encima se dotara a estos actores de herramientas alineadas a un pasaje progresivo hacia el abolicionismo, tal como podría acontecer con las reformas legislativas propulsoras del principio de oportunidad(116) o la intervención de un programador jurista abolicionista. De acontecer esto, no solo el fiscal no sería fiscal y la

  1. Un modo “de identificar eventuales riesgos en un proyecto de inteligencia artificial es utilizar la técnica de premortem. Al igual que en la prospectiva, la idea es imaginar un futuro, pero en lugar de imaginar el futuro deseado se imagina uno en donde luego de implementar ese proyecto, los resultados fueron distintos a los esperados. Es decir, imaginar que el proyecto fue un fracaso. Una vez que las personas se sitúan en ese futuro indeseado se analiza por qué o dónde falló el proyectoidentificar potenciales causas de fracaso, riesgos del proyecto y cómo poder tratarlos durante la fase de diseño” (Anexo I de las Recomendaciones para una inteligencia artificial fiable, disposición 2/23, 30/05/2023, Subsecretaría de Tecnologías de la Información, Jefatura de Gabinete de Ministros, p. 15).
  2. Bovino, Alberto, “La víctima como sujeto público y el Estado como sujeto sin derechos”, pp. 17-18, trabajo realizado a raíz de la Ponencia presentada en el V Congreso Latinoamericano Universitario de Derecho Penal y Criminología, que fuera celebrado en Santiago de Chile del 12-15 de mayo del año 1993, publicada en http://www. pensamientopenal.com.ar/system/files/2006/05/doctrina30779.pdf (fecha de consulta: 26-07-2023).
  3. Idem.
  4. Idem.
  5. Así, por ejemplo, Zaffaroni estima que el discurso jurídico-penal académico o universitario debe avanzar siempre por delante del estándar alcanzado en las agencias, con el objeto de transformarse en propulsor de la jurisprudencia (vide Zaffaroni, Eugenio. R., En Busca de las Penas Perdidas, Ediar, Buenos Aires, 2005, p. 245; y Zaffaroni, Eugenio. R. – Alagia, Alejandro – Slokar, Alejandro, Derecho Penal. Parte General, 2ª ed., Ediar, Buenos Aires, 2005, pp. 5-6 y 51-52.
  6. Cfr. Zaffaroni, Eugenio. R., En Busca de…, pp. 166-169, 177-182 y 245; y Zaffaroni, Eugenio. R. – Alagia, Alejandro – Slokar, Alejandro, Derecho Penal…, pp. 5-6 y 51-52.
  7. Así, pues, se ha sustituido el término “delito” por “conflicto”, la alusión al “legítimo uso de la fuerza” por la del ejercicio de la “violencia” y el “ius puniendi” por la idea de “potentia puniendi”, táctica abolicionista mediante la cual, de un modo adrede, se reemplaza una terminología con otra, amén de no significar lo mismo las palabras o referencias empleadas. Romero Berdullas, Carlos M., “De los delitos y los conflictos”.
  8. Dos son los caminos tácticos trazados por el abolicionismo. Uno apela a la llamada táctica del yudoca, que fuera pergeñada por Foucault, quien sugiere utilizar la fuerza del adversario al servicio propio. En tanto el otro sendero lo marca Mathiesen, quien afirma la necesidad de ejercer la contradicción competitiva en clave con el ideal de preservar lo inconcluso, a fin de excluir cualquier posibilidad de convertirse en definición del sistema y evitar ser capturado por los mecanismos que se pretenden combatir (cf. Folter, Rolf S. de, “Sobre la fundamentación metodológica del enfoque abolicionista del sistema de justicia penal. Una comparación de las ideas de Hulsman, Mathiesen y Foucault”, en AA. VV., Abolicionismo Penal, Ediar, Buenos Aires, 1989, p. 77).
  9. Pues según Zaffaroni es “…obvio que la disminución de la intervención penal por la vía de… el principio de oportunidad procesal es uno de los caminos que posibilitan la disminución de la violencia del sistema penal…” (Zaffaroni, Eugenio R., En Busca de…, pp. 182-183.).

víctima comunidad política se encontraría inerme ante el gravísimo mal del delito; sino también se correría el peligro de profundizar la crisis de identidad del MPF, pues los fiscales se convertirían en antifiscales. Sencillamente, fiscales abolicionistas detentadores de una carta blanca o comodín que podría volver a la acción penal en un juguete de la fortuna(117) y hacer las veces de malware troyano del Derecho Penal.

Lo expuesto permite figurarnos la aptitud que podría presentar la “IA”, como un recurso más del desandar progresivo hacia el abolicionismo, si ese mago de Oz(118) o gran relojero encargado de programar las aplicaciones y definir el modo de decidir de los algoritmos fuera un abolicionista. No puede soslayarse la trascendencia que adquiriría un jurista programador imbuido de esa ideología, pues tendría la prerrogativa de nutrir el software con un pensamiento uniforme, pasible de retroalimentarse mediante, por ejemplo, machine y deep learning; cargar los datos relevantes para resolver las pretensiones procesales en clave penalmente agnóstica; e infiltrar así, un discurso jurídico antipenal velado bajo visos de Derecho Penal, mas en rigor ordenado a falsificar la calidad de las soluciones ofrecidas por el MPF, en desmedro de la concordia social.

Este es un riesgo que no puede subestimarse. Mucho menos, cuando aludimos a una “IA” sumamente problemática. Una tecnología que a la hora de concebirla, determinar su alcance, trazar la responsabilidad de los diferentes actores en su ciclo de vida(119), articular desde una visión integral una multiplicidad de engranajes(120), y precisar el límite ético jurídico de su uso, nos emparenta más bien a “…una sociedad que está nadando en la certeza de la incertidumbre(121), tal como bien lo diagnosticara Álvarez Sáez, al disertar recientemente en la jornada sobre regulación de la “IA” desarrollada en la Cámara Baja del Congreso de la Nación Argentina.

Una prueba de ese desasosiego se advierte ante la perplejidad de los legisladores de todo el orbe, al tiempo de intentar definir un marco regulatorio adecuado, que propenda a una prudente utilización de la “IA”, prevenga los riesgos de su empleo y determine ese dique ético-jurídico, que siempre es presupuesto de un auténtico progreso.

Ciertamente, este desconcierto sumado a una pérdida de formación filosófica, antropológica y humanística conlleva otra amenaza significativa sobre la cual debemos hallarnos precavidos. Aludimos a la posibilidad de ser presas de los denominados por John Senior como “Hombres culturalmente de Confianza(122), sofistas o gurúes de la “IA”. En esto, es factible trazar una analogía entre lo que puede suceder aquí y la historia narrada en “El traje nuevo del emperador” de Hans Christian Andersen. Pues en aquel cuento el emperador se hallaba desnudo, mas los “Hombres de Confianza llegaron al pueblo, pretendiendo ser sastres. Confeccionaron un traje de nada para que use el emperador y el pobre Tonto desfila absolutamente sin nada puesto. La muchedumbre no dice nada porque los inteligentes estafadores han hecho correr la voz: cualquiera que no puede ver la ropa de seda y oro es un inocentón y un fanático desorientado…”(123).

  1. Nos tomamos la licencia de echar mano a una caracterización poética de William Shakespeare, quien a lo largo de su obra alude asiduamente a la fortuna, que sería deidad del hombre inseguro y es simbolizada con una rueda giratoria para denotar su precariedad. Véase a modo de ejemplo que en el Rey Lear la nomina en al menos unas 25 ocasiones (cf. casos paradigmáticos en II.II y IV.6); 13 veces en Hamlet (cf. esto, por ej., en III.10), y en 27 lugares más dentro de Romeo y Julieta (cf. un ejemplo de ello en III.1). Cfr. Shakespeare, William, El Rey Lear, CS ediciones, Buenos Aires, 1996; Shakespeare, William, Romeo y Julieta en Romeo y Julieta – Julio César, La Maison de L’écriture, España, 2005; y Shakespeare, William, Hamlet –en sus tres versiones–, Losada, Buenos Aires, 1997.
  2. Al igual que ese mago de Oz del fantástico cuento de Baum (cfr. Baum, Lyman F., El maravilloso mago de Oz), si jalamos el velo de la “IA” siempre descubriremos la existencia de un lábil e imperfecto hombre, causa eficiente y primer motor de esta tecnología.
  3. Que abarca disímiles etapas vinculadas al diseño de datos, su verificación, validación, implementación y mantenimiento.
  4. Por cierto, el riesgo de no alcanzar una visión integral se potencia al máximo ante los desafíos pluridimensionales planteados por la “IA”, dada la necesidad de interacción de tantas perspectivas particulares.
  5. Disertación de Hugo Álvarez Sáez en el marco de la jornada sobre regulación de la inteligencia artificial desarrollada en la Cámara de Diputados de la Nación el 5 de junio de 2023, disponible en https://www.youtube.com/watch?v=82AbGfA5jcM (consultada el 16/06/2023).
  6. Senior, John, La muerte de la cultura cristiana, 1ª ed., Vórtice, Buenos Aires, 2017, p. 80.
  7. Idem.

La experiencia enseña que esto ya aconteció con un agnosticismo penal ataviado por los “Hombres culturalmente de Confianza”, mediante el ropaje de determinadas categorías dogmáticas y un discurso antipenal disfrazado de penal, ideados con el designio de abolir al ius puniendi. Algo que tan solo un puñado de académicos se han atrevido a denunciar o tuvieron la perspicacia de discernir, por cuanto se ha hecho correr una voz estigmatizadora sobre quienes defienden el bien ético jurídico de la pena(124) y advierten las graves implicancias de vaciar de sentido el Derecho Penal para la concreción del bien común.

En fin, en lo que aquí importa, no podemos obviar como reflexión final que cuando lidiamos con el potencial de la “IA” y la siempre presente influencia de los “Hombres culturalmente de Confianza”, no solo se pone en juego la identidad del Derecho Penal o el ethos de los representantes del MPF, sino la posible actualización, del fenómeno caracterizado por Lewis como “La abolición del hombre(125).

En definitiva, el reto del llamado reseteo(126) es no ser arrastrados por los discursos construidos por los “Hombres culturalmente de Confianza”, a través de frases talismanes que giran en derredor a la fuerza del sino o lo inevitable, sin reparar en el riesgo de un tránsito progresivo hacia el abolicionismo del ser humano, pues únicamente “[l]as cosas muertas pueden ser arrastradas por la corriente, sólo algo vivo puede ir contra la corriente(127).

El gran desafío de este reinicio es no olvidar que “toda alegría positiva depende de algo negativo” y “si uno hace lo que está prohibido, se arriesga a todos los males previstos(128), advertencia particularmente aplicable cuando discurrimos sobre una tecnología surcada por un maremágnum de peligros. Pues como enseñaba Chesterton a partir de una analogía con los cuentos infantiles, el corazón o regla dorada de la ética consiste en que la paz únicamente puede existir bajo una condición, por cuanto: “[…] toda la felicidad en un país de hadas pende de una hebra, de una sola hebra. La cenicienta puede tener un tejido fabricado en telares sobrenaturales, pero debe regresar a su casa cuando el reloj dé las doce […] Si se rompe una promesa hecha a un gato, el mundo entero puede tener problemas […] Una joven puede ser la esposa del dios amor, a condición de que nunca trate de verlo: lo ve y él desaparece. A una joven le regalan una caja con la condición de que no la abra: la abre, y todos los males del mundo se arrojan sobre ella […](129).

  1. Explica Kaufmann, el discípulo de Welzel, que, si bien ningún legislador del orbe ha podido prescindir de la idea de la retribución justa de la compensación del injusto y de la culpabilidad, “desde hace cien años –y especialmente ahora– con la palabra retribución no se pretende tanto designar una posición como estigmatizarla a ella y a quien la defienda. Casi nadie se atreve hoy a hablar en favor de la llamada teoría de la retribución” (Kaufmann, Armin, “La Misión del Derecho Penal”, en Estudios de Filosofía del Derecho y Derecho Penal, en Colección Grandes Maestros del Derecho Penal, nº 40, B de F, Monte-video-Buenos Aires, 2018, pp. 30-31). Sin embargo, agrega el citado que “si miramos sin prejuicios el fenómeno que viene a designarse con las expresiones derecho penal, ciencia del derecho penal, proceso de condena y punición, no cabe desconocer una cosa: la relación existente entre el hecho y la reacción frente a el mismo. Al hecho antijurídico se le vincula una sanción que encierra –y que precisamente ha de encerrar– un mal para su autor…Si es que las palabras tienen algún significado, ello es retribución, aunque yo pueda expresarlo también con otros conceptos, como los de compensación, expiación, o simplemente: reacción. Añadamos que la gravedad de la reacción debe ser adecuada a la entidad del injusto y de la culpabilidad y estaremos ante la retribución justa; estaremos ante el principio de culpabilidad: no hay pena sin culpabilidad; la pena no debe, por lo menos, rebasar la medida de culpabilidad. No es, pues, de extrañar que anteriormente la expresión ‘retribución’ pareciese evidente… Únicamente a partir de la idea de la reacción justa al obrar antijurídico del que es responsable su autor como persona, únicamente a partir de ahí cabe hallar la justificación ética de la pena como injerencia en la esfera de la persona. Para la justificación de la pena, o más modernamente, para su legitimación, la idea de la retribución justa resulta imprescindible” (ibid., p. 31).
  2. Lewis, Clive S., La abolición del hombre, Vórtice, Buenos Aires, 2014.
  1. No podemos soslayar, que la exhortación a llevar a término el gran reset en el orbe es una idea guía rubricada por Klaus Schwab en el foro económico mundial de Davos (cfr. https://es.weforum.org/ agenda/2020/06/ahora-es-el-momento-de-un-gran-reinicio/; junto al sitio web https://es.weforum.org/agenda/2020/07/el-legado-de-la-covid-19-asi-debemos-enfrentarnos-al-gran-reinicio/ (fecha de consulta: 09/03/2022).
  2. Chesterton, Gilbert K., El hombre eterno, 1925, según cita en Chesterton, Gilbert K, El amor o la fuerza del sino, Rialp, Madrid, 1993, p. 46.
  3. Chesterton, Gilbert K., “La ética de los cuentos de hadas”, en Cien Años Después, Vórtice, Buenos Aires, 2008, p. 59.
  4. Chesterton, Gilbert K., “La ética de los cuentos de hadas”, 58.

Por lo tanto, la asignatura pendiente de los ingenieros de los sistemas de administración de justicia, los arquitectos de los MPF’s, los programadores juristas del mañana, los académicos, científicos, magistrados y legisladores es escrutar el límite ético jurídico que no debemos sobrepasar a través del uso de esa “IA”, tan emparentada a una caja de Pandora. De ahí la relevancia de propiciar la universalidad del saber, por intermedio de un diálogo con teólogos, moralistas, filósofos del derecho y antropólogos, amigos del buen mirar que aún no han participado vivamente de este debate, pero guiados por el amor a la verdad se hallan en inmejorables condiciones para suministrar esa clave tan buscada, en miras de descifrar un código ético jurídico capaz de resolver cada uno de los dilemas morales originados por la “IA”.

Al fin de cuentas, si pretendemos superar una perspectiva meramente tecnocrática y no ser embaucados por los “Hombres culturalmente de Confianza”, se vuelve indispensable propiciar un mayor protagonismo de estos actores, mucho más si “quien entienda el diálogo, la charla, la disputación, la polémica como una forma básica de la búsqueda de la verdad, presupone que la búsqueda de la verdad es evidentemente un asunto para cuyo dominio no bastan las fuerzas del individuo aislado; antes bien es necesario el esfuerzo común, tal vez de todos. Nadie es por sí solo suficiente y nadie es completamente innecesario; todos necesitan del otro…(130).

Bibliografía, normativa, soft law, jurisprudencia, sitios web

  • Bibliografía
  • Albrecht, Peter – Alexis, “Coordenadas de una legalidad penal en el Estado de derecho: Principio de la proporcionalidad, principio de la legalidad, principio de oficialidad”, en AA. VV., Revista de Derecho Procesal Penal (dir. Donna, Edgardo A.), La Investigación penal preparatoria: Función de las policías, Rubinzal Culzoni, Santa Fe, 2013, t. II.
  • Anzóategui, Javier, intervención en debate originado el 02/08/2016 en el Instituto de Derecho Penal de la Academia Nacional de Derecho, publicado en “El llamado ‘principio de oportunidad’ en materia penal. Debate”, en AA. VV., Estudios de Derecho Penal 2016, Buenos Aires, 2016.
  • Aristóteles, Metafísica, 1ª ed. (con introducción, traducción y notas de Tomás Calvo Martínez), Gredos, Madrid, 1994.
  • Asociación Internacional de Fiscales, Manual de Derechos Humanos para fiscales, 1ª ed. en español, Buenos Aires, 2009.
  • Ayarragaray, Carlos A., El Ministerio Público, J. Lajouane & Cía. Editores, Buenos Aires, 1928.
  • Bauman, Zygmunt. – David Lyon, Vigilancia líquida, Paidós, Buenos Aires, 2013.
  • Binder, Alberto M., Derecho Procesal Penal, Ad Hoc, Buenos Aires, 2014, t. II.
  • Binder, Alberto M., Introducción al derecho procesal penal, 2ª ed., Ad Hoc, Buenos Aires, 2009.
  • Bovino, Alberto, “La víctima como sujeto público y el Estado como sujeto sin derechos”, pp. 17-18, trabajo realizado a raíz de la Ponencia presentada en el V Congreso Latinoamericano Universitario de Derecho Penal y Criminología, que fuera celebrado en Santiago de Chile del 12 al 15 de mayo de 1993.
  • Chesterton, Gilbert K., El amor o la fuerza del sino, Rialp, Madrid, 1993.
  • Chesterton, Gilbert K., “La ética de los cuentos de hadas”, en Chesterton, Gilbert K., Cien Años Después, Vórtice, Buenos Aires, 2008.
  • Cicerón, Marco T., Sobre la República, en Obras Políticas, Madrid, Gredos, 1982.
  • Corvalán, Juan G., “La primera inteligencia artificial predictiva al servicio de la Justicia: Prometea”, La Ley, año LXXXI, nº 186, t. 1027-E, Buenos Aires, 27/09/2017.
  • Freudenthal, Berthold, Culpabilidad y reproche en el derecho penal, en Colección Maestros del derecho penal, B de F, Montevideo-Buenos Aires, 2018.
  • Folter, Rolf S. de, “Sobre la fundamentación metodológica del enfoque abolicionista del sistema de justicia penal. Una comparación de las ideas de Hulsman, Mathiesen y Foucault”, en AA. VV., Abolicionismo Penal, Ediar, Buenos Aires, 1989.
  1. Pieper, Josef, Introducción a Tomás de Aquino –doce lecciones–, Rialp, Madrid, 2012, p. 98.
  • Garrigou-Lagrange, Réginald, O. P., Las tres edades de la vida interior, t. I, 6ª ed., Palabra, Madrid, 1988.
  • Graves, Robert, Los mitos griegos, publicado bajo el nº 15 de la Biblioteca Personal Jorge Luis Borges, Hyspamerica, Buenos Aires, 1985.
  • Gözzel, Karl H., El Derecho Procesal Penal en el Estado de Derecho, Obras Completas, t. I, Rubinzal Culzoni, Buenos Aires, 2007.
  • Haissiner, Martín D. y Pastor Daniel R., Neurociencias, tecnologías disruptivas y tribunales digitales, Hammurabi, Buenos Aires, 2019.
  • Hernández, Héctor H., El garantismo abolicionista, Marcial Pons, Buenos Aires, 2013.
  • Hernández, Héctor H., Inseguridad y Garantismo abolicionista, Cathedra Jurídica, Buenos Aires, 2017.
  • Isensee, J., El Derecho Constitucional a la seguridad: sobre los deberes de protección del Estado constitucional liberal, Rubinzal Culzoni, Santa Fe, 2014.
  • Jiménez de Asúa, L., Tratado de Derecho Penal, El delito, t. III, 3ª ed. actualizada, Losada, Buenos Aires, 1965.
  • Kaufmann, Armin, “La Misión del Derecho Penal”, en Estudios de Filosofía del Derecho y Derecho Penal, en Colección Grandes Maestros del Derecho Penal, nº 40, B de F, Montevideo-Buenos Aires, 2018.
  • Lamas, Félix A., El hombre y la conducta, Instituto de Estudios Filosóficos “Santo Tomás de Aquino”, Buenos Aires, 2013.
  • Lamas, Félix A., La Experiencia Jurídica, Instituto de Estudios Filosóficos Santo Tomás de Aquino, Buenos Aires, 1991.
  • Lamas, Félix A., “Percepción e inteligencia jurídicas. Los Principios y los límites de la dialéctica”, en AA. VV., Los principios y el Derecho Natural en la metodología de las ciencias prácticas, EDUCA, Buenos Aires, 2002.
  • Lewis, Clive S., La abolición del hombre, Vórtice, Buenos Aires, 2014.
  • López, Martín R., “Jurimetría y analítica jurídica en Inteligencia Artificial, nada nuevo bajo el sol. Un regreso a la tesis de Oliver Wendell Holmes Jr”, en Derecho, Innovación & Desarrollo Sustentable, Revista de doctrina y jurisprudencia nº 11, año LXII, El Derecho, Buenos Aires, febrero de 2023.
  • Llinares, Fernando M., “Inteligencia artificial y justicia penal: más allá de los resultados lesivos causados por robots”, Revista de derecho penal y criminología, 3ª época, nº 20, UNED, Madrid, julio 2018.
  • Maier, Julio B. J., Derecho Procesal Penal, Parte General, II. Sujetos Procesales, 1ª ed., 2ª reimp., Editores del Puerto, Buenos Aires, 2011.
  • Maier, Julio B. J., “El Ministerio Público: ¿un adolescente?”, en AA. VV., El Ministerio Público en el Proceso Penal, AdHoc, Buenos Aires, 2003.
  • MPF, Memoria Institucional 2021 Ministerio Público Fiscal de la Ciudad Autónoma de Buenos Aires, mayo 2022.
  • Naucke, Wolfang, Derecho Penal, Una introducción, traducción de la 10ª ed. alemana, Astrea, Buenos Aires, 2006.
  • Neira Pena, Ana María, “Inteligencia artificial y tutela cautelar. Especial referencia a la prisión provisional”, en Revista Brasileira de Direito Processual Penal, vol. 7, nº 3, pp. 1897-1933, sept./dic., 2021.
  • Pieper, Josef, Introducción a Tomás de Aquino –doce lecciones–, Rialp, Madrid, 2012.
  • Romero Berdullas, Carlos Manuel, Derecho Penal Líquido, Inconstitucionalidad del principio de oportunidad, AdHoc, Buenos Aires, 2020.
  • Romero Berdullas, Carlos Manuel, Criterios de oportunidad en el proceso penal, Hammurabi, Buenos Aires, 2020.
  • Romero Berdullas, Carlos Manuel, “De la legitimidad de la prisión preventiva ante el peligro de reiteración delictiva”, Ius Publicum, Escuela de Derecho de la Universidad Santo Tomás de Chile, vol. 26, nº 50, Santiago de Chile, marzo de 2023.
  • Romero Berdullas, Carlos Manuel, El gran reinicio del Derecho Penal, Dilemas, tensiones y desafíos originados por la IA aplicada al proceso penal, Hammurabi, Buenos Aires, 2022.
  • Romero Berdullas, Carlos Manuel, El mal y el bien del Derecho Penal, sobre “Malum passionis” y una respuesta fundada en el realismo, Hammurabi, Buenos Aires, 2021.
  • Romero Berdullas, Carlos Manuel, “La crisis de identidad del Ministerio Público Fiscal”, Forum 11, EDUCA, Buenos Aires, 2021.
  • Romero Berdullas, Carlos Manuel, “La garantía de objetividad del fiscal”, Prudentia Iuris, nº 92, Buenos Aires, 2021.
  • Romero Berdullas, Carlos Manuel, “#Proceso Acusatorio: ¿Hashtag Constitucional?”, Forum 3, EDUCA, Buenos Aires, 2015.
  • Roxin, Claus, Derecho Penal –Parte General–, Civitas, Madrid, 1997, t. I.
  • Roxin, Claus, “Posición Jurídica y tareas futuras del Ministerio Público”, en AA. VV., El Ministerio Público en el Proceso Penal, AdHoc, Buenos Aires, 2003.
  • Sacheri, Carlos A., El orden natural, EUDEBA, Buenos Aires, 1975.
  • Sacheri, Carlos A., Orden Social y Esperanza Cristiana, 3ª ed., Escipión, Mendoza, 2014.
  • Sampay, Arturo E., La Filosofía Jurídica del Artículo 19 de la Constitución Nacional, Cooperadora de Derecho y Ciencias Sociales, Buenos Aires, 1975.
  • San Juan Pablo II, Cruzando el umbral de la Esperanza, Barcelona, Plaza & Janés, 1994.
  • Sarah, Robert, Se hace tarde y anochece, Palabra, Madrid, 2019
  • Santo Tomás de Aquino, Suma de Teología, 4ª ed., Madrid, BAC, 2001.
  • Senior, John, La muerte de la cultura cristiana, 1ª ed., Vórtice, Buenos Aires, 2017.
  • Shakespeare, William, El Rey Lear, CS Ediciones, Buenos Aires, 1996.
  • Shakespeare, William, Hamlet –en sus tres versiones–, Losada, Buenos Aires, 1997.
  • Shakespeare, William, Romeo y Julieta en Romeo y Julieta – Julio César, La Maison de L’écriture, España, 2005.
  • Vélez Mariconde, Alfredo, Derecho Procesal Penal, t.

I, 2ª ed., Lerner, Buenos Aires, 1969.

  • Zaffaroni, Eugenio. R. – Alagia, Alejandro – Slokar, Alejandro, Derecho Penal. Parte General, 2ª ed., Ediar, Buenos Aires, 2005.
  • Zaffaroni, Eugenio. R., En Busca de las Penas Perdidas, Ediar, Buenos Aires, 2005.
  • Normativa
  • Código Procesal Penal de la Ciudad Autónoma de Buenos Aires (aprobado por ley local 2303 –según numeración del Anexo I de la ley local 6347, mediante la cual se aprobó la 3ª actualización del Digesto Jurídico local, que contiene normas consolidadas al 31/08/2020–).
  • Código Procesal Penal Federal (aprobado por la ley 27.063, con las incorporaciones dispuestas por la ley

27.272 y las modificaciones introducidas por la ley 27.482).

  • Código Procesal Penal de la provincia de Buenos Aires (aprobado por la ley 11.922).
  • Código Procesal Penal de la provincia de Córdoba (aprobado por la ley 8123).
  • Código Procesal Penal de la provincia de La Rioja (aprobado por la ley 1574).
  • Código Procesal Penal de la provincia de Mendoza (aprobado por la ley 6730).
  • Código Procesal Penal de la provincia de Salta (aprobado por la ley 7690).
  • Constitución de la Nación Argentina.
  • Ley Orgánica del Ministerio Público de la Nación (ley 24.946).
  • Ley Orgánica del Ministerio Público Fiscal de la Nación (ley 27.148).
  • Soft law
  • Estándares Internacionales para la Independencia del Poder Judicial y la Abogacía.
  • Informe de la Relatora Especial sobre la independencia de los magistrados y abogados, Gabriela Knaul, de la Asamblea General de Naciones Unidas, Distrito General, 7 de junio de 2012, Consejo de Derechos Humanos 20º período de sesiones, tema nº 3 de la agenda Promoción y protección de todos los derechos humanos, civiles, políticos, económicos, sociales y culturales, incluido el derecho al desarrollo.
  • Recomendaciones para una inteligencia artificial fiable, publicadas el 30/05/2023 mediante disposición 2/23 de la Subsecretaría de Tecnologías de la Información, Jefatura de Gabinete de Ministros del Gobierno de la Nación Argentina.
  • Jurisprudencia
  • Alonso, Jorge F. y otros s/ contrabando de estupefacientes y otros delitos (1995): Corte Suprema de Justicia de la Nación, 26 de diciembre de 1995, Fallos: 318:2611.
  • Denegri, Natalia Ruth c/ Google Inc. s/ derechos personalísimos: Acciones relacionadas, CIV 50016/2016/ CS1, CIV 50016/2016/1/RH1 (2022): Corte Suprema de Justicia de la Nación, 28 de junio de 2022.
  • CIDH, “Caso Velásquez Rodríguez Vs. Honduras”, sentencia del 29 de julio de 1988, Fondo, Serie C, nº 4.
  • Sitios web

VOCES: DERECHO – TECNOLOGÍA – INTERNET – INTELIGENCIA ARTIFICIAL – INFORMÁTICA – ESTADO – ADMINISTRACIÓN PÚBLICA – DERECHOS Y GARANTÍAS CONSTITUCIONALES – DERECHO COMPARADO – PODER JUDICIAL – ACCESO A LA JUSTICIA – CONSTITUCIÓN NACIONAL – PROCESO JUDICIAL – FILOSOFÍA DEL DERECHO – MINISTERIO PÚBLICO FISCAL – DERECHO PENAL – DERECHO PROCESAL PENAL

 

Ley de Receta Electrónica Argentina.
Estado del arte y sus implicancias operativas, éticas y legales. Decreto 98/2023: reglamentación de la ley 27.553 de Recetas Electrónicas o Digitales y Plataformas de Teleasistencia(*)

por María Isabel Iñigo Petralanda(**) y Ariel Leonardo Fernández(***)

Introducción

El modus intellectualis del legislador en su plasticidad para diseñar las normas de salud pública en la era de tecnologías modeladas por datos resulta un desafío significativo. Esto es así no sólo por la realidad segmentada y fragmentada del sistema sanitario argentino, zona donde ocurre la provisión y gestión de los servicios sanitarios (primer obstáculo ya conocido), sino también, por

NOTA DE REDACCIÓN: Sobre el tema ver, además, los siguientes trabajos publicados en EL DERECHO: Historia clínica. Encuadre probatorio. Responsabilidad médica. Responsabilidad omisiva, por LUCÍA GRACIELA SAVARESE, ED, 216-642; El derecho a la salud como derecho social. Garantía de la dignidad del hombre, por VIOLETA CASTELLI, EDA, 2007-743; El plazo de la prescripción liberatoria en materia de responsabilidad médica en los hospitales de la Ciudad Autónoma de Buenos Aires, por INÉS AMURA, ESTEBAN CENTANARO y JUAN PABLO RODRÍGUEZ, ED, 234-708;

Responsabilidad médica por mala praxis, por MARIANO GAGLIARDO, ED, 251-465; Los médicos y el consentimiento informado (Necesarias precisiones sobre el tema en el marco del nuevo CCC), por MARCELO J. LÓPEZ MESA, ED, 266-703; La doctrina de la “real malicia” y el derecho a la información sobre cuestiones médicas, por MARÍA ANGÉLICA GELLI, ED, 277-47; Consentimiento informado de las personas con discapacidad en tratamientos médicos, por NICOLÁS PILDAYN y MARINA M. SORGI ROSENTHAL, ED, 279-726; La protección de los datos personales en internet (una tarea ineludible), por ESTEBAN RUIZ MARTÍNEZ, ED, 284-726; Datos personales: Google se asocia con el sistema de salud más importante de Estados Unidos, por LAURA BELÉN YACHELINI, ED, 286-618; El médico y la virtud de la prudencia en tiempos de pandemia, por GERMÁN CALABRESE, ED, 289-1581; Odontólogos. Responsabilidad civil profesional en tiempos de pandemia, por DANTE GÓMEZ HAISS, 289-1434; La responsabilidad del médico especialista, por MILTON H. KEES, ED, 290-809; La regulación del derecho a la imagen y el régimen de protección de datos de carácter personal. Ciertas “fricciones” entre ambos regímenes, por GUILLERMO F. PEYRANO, ED, 290-637; Responsabilidad del médico: necesidad de deslindar el casus de la no culpa, por FEDERICO OSSOLA y JULIETA BOLLERO HAUSER, ED, 291-514; El derecho a la información de salud y el hábeas data específico, por EDUARDO MOLINA QUIROGA, ED, 294-972; Derecho a la intimidad de los datos de salud, por JULIÁN PRIETO, ED, 300. Todos los artículos citados pueden consultarse en www. elderechodigital.com.ar.

(*) El presente trabajo se enmarca en el Programa IUS de Investigación Jurídica Aplicada de la Facultad de Derecho de la Pontificia Universidad Católica Argentina (UCA) que dirige el Profesor Doctor Jorge Nicolás Lafferriere, específicamente en el marco de los proyectos IUS: “El daño resarcible frente al emergente alta tecnología – Desafíos e interpretación jurídica del cambio frente al avance tecnológico, la innovación permanente y el desarrollo sustentable” que codirigen los Dres. Emiliano Lamanna Guiñazú y Matilde Pérez, junto a un grupo de destacados juristas que los acompañan; también del Programa IUS de Investigación Jurídica Aplicada titulado: “La función preventiva y la incertidumbre científica en actividades especialmente peligrosas. El Compliance como técnica de prevención y anticipación de daños en el ámbito empresario” que dirige la Dra. Matilde Pérez juntamente con el Dr. Fernando Ubiría junto a un destacado grupo de colaboradores.

la necesidad de concurrencia armonizada e integrada de saberes inter, multi y transdisciplinares tales como la ingeniería informática, electrónica, ciencias de datos, arquitecturas digitales y los propios del saber biomédico que se sirven de estas tecnologías digitales e interoperables. Lo digital, implicado en lo sanitario, suma un saber novedoso deudor de una prudencia especial que gravita en el diseño de una tecnología desconocida que tendrá implicancias directas o indirectas en la persona humana.

A su vez, lo sanitario recorre una recta que va desde la pregunta del investigador o sanitarista sobre una necesidad en salud y su correspondiente respuesta para prevenir o responder ante una enfermedad. A modo de ejemplo, la secuenciación de un virus se instrumenta en una plataforma digital y el desarrollo de la vacuna o tecnología sanitaria capaz de lograr inmunidad frente al virus ocurre en un entorno digital que dialoga entre datos provenientes de distintas fuentes y formatos.

Las habilidades para integrar saberes teóricos y técnicos tan diferentes entre sí, y la praxis desplegada en comunidades de actores de articulación públicoprivada (con intereses diversos), se presenta como un importante desafío para el legislador y tomadores de decisión sanitaria, que en su oriente han de tener el respeto por la persona en su dimensión individual y su extensión social. Lo expresado hasta aquí contiene implicancias morales y ético normativas que el presente intentará repasar en relación con lo específico del acto de prescripción digital o electrónica.

La pandemia como escenario masivo digital

Todos los cambios de paradigmas ocurren en la sociedad, justificados por la búsqueda de la verdad. Somos humanos buscando verdad científica para responder a una realidad finita como es alternar en la salud y enfermedad. La pandemia por COVID19 resultó un catalizador masivo para el uso y despliegue de herramientas digitales, sin limitarse a las tecnologías de información y comunicación (TIC). Para poner un claro ejemplo, la reducción de contagios y complicaciones de la enfermedad pandémica fue gestionada sanitariamente por los gobiernos usando algunas de estas herramientas, permitiendo financiar la investigación, desarrollo, acceso, compra, distribución, suministro y farmacovigilancia sobre efectos adversos derivados de la vacunación. Otro tanto ocurrió con el soporte que significó la tecnología informática para la estadística de contagios, vitales o de controles de cumplimiento de vacunación inter y trans fronteras.

Evitar contagios en un cuadro pandémico como la COVID19 justificó, por la emergencia sin precedentes, el uso de dispositivos de telemedicina, mensajería y videollamadas por WhatsApp y las correspondientes prescripciones electrónicas o digitales de tratamientos o medicamentos para las personas.

Salvo excepciones, desde el celular y ordenadores ocurrieron intercambios propios de actos médicos. Las dispensas de farmacia y prescripciones se realizaron sin mediar plataformas interoperables ni de grado médico. De este modo, circularon fotos de recetas manuscritas, enviadas por correo o WhatsApp, de profesionales sanitarios a

(**) Abogada-Bioeticista. MBA Especialista en Derecho de Salud. Especialista en Gobernanza de Datos y Compliance Regulatorio de Tecnologías Sanitarias Grado Médico modeladas por datos. Miembro del Comité de Ética en Investigación de la UCA. Cochair de Ethics Privacy and Security de la Red Centroamericana de Informática de Datos en Salud RECAINSA. Correo electrónico: miip@uca.edu.ar

(***) Informático. Mag. en Efectividad Clínica. Científico de Datos. Especialista en Interoperabilidad. Miembro del Comité de Gestión, Calidad y Datos de la SATI. CoChair Data Standards and Interoperability de Red Centroamericana de Informática de Datos en Salud –RECAINSA–. Correo electrónico: ariel.fernandez@hardineros.com

pacientes, y de éstos a farmacias, bajo la leyenda “emergencia COVID”.

Estas tecnologías informáticas implementadas desde la coyuntura pandémica, muchas de ellas no portadoras de grado médico, ya no conocerán vuelta atrás en su marcha, sino más bien escalarán a la estandarización de un lenguaje terminológico que permita interoperar efectivamente en una arquitectura digital que contemple la calidad en su máxima –“primero no dañar”– que lo sanitario exige con respecto a las personas.

Lo informático implica implementar estándares de lenguaje e interoperabilidad

Asegurado el propósito de no dañar, como condición moral mínima, aquello que se brinde desde la herramienta informática, debería permitir una comunicación segura y eficiente. Igual o mejor que la que existía antes de su implementación. El acto médico prescriptivo es una comunicación sensible, rigurosa, trazable, que pertenece al orden público, porque lo sanitario importa al Estado. La prescripción opera en ese escenario, involucrando, matrícula profesional del prescriptor, institución hospitalaria, paciente identificado, tecnología sanitaria individualizada y dispensada por farmacéutico de la matrícula. Cabe mencionar que los seguros y financiadores intervienen en la trazabilidad del recorrido prescriptivo, como así también la industria y droguerías.

Los estándares de información en salud son normas y directrices de calidad desarrolladas para garantizar la interoperabilidad, seguridad, precisión y eficiencia en el intercambio de información médica y electrónica entre varios actores identificables que intervienen en el proceso de comunicación informatizado. Los estándares permiten que los datos en salud se compartan de manera uniforme y consistente alcanzando una mejora en la calidad de la atención, prescripción, como así también proteger la privacidad y seguridad del paciente.

En lo que hace a la interoperabilidad de los sistemas de salud, a nivel general, la definición más utilizada es la propuesta por el Institute of Electrical and Electronics Engineers –IEEE–, que la considera “la habilidad o capacidad de dos o más sistemas de intercambiar información y utilizar la información intercambiada”(1). Según se ha explicado, esta acepción abarca dos ideas distintas: la primera es la del intercambio de información (interoperabilidad sintáctica) y la segunda, que la información intercambiada pueda ser correctamente entendida, procesada y utilizada de forma efectiva por el receptor (interoperabilidad semántica)(2).

La receta digital o electrónica utiliza estándares sintácticos y semánticos que permiten el intercambio y uso de la información con diversos objetivos, entre ellos el Ministerio de Salud refiere los fines sanitarios, estadísticos, de fiscalización y epidemiológicos, de conformidad con lo que dispone la Autoridad de Aplicación.

Es necesario destacar cinco aspectos claves para lograr la interoperabilidad. Luna, Campos y Otero4 distinguen los siguientes factores:

“1. Establecer un marco de interoperabilidad. Definir el marco que contenga el conjunto de políticas, directrices, estándares, reglas y recomendaciones formuladas por la red de actores con miras a lograr el mayor nivel posible de interoperabilidad.

  1. Fomentar el desarrollo de los sistemas de información y su integración. Implica adoptar soluciones abiertas y brindar herramientas o servicios que faciliten la implementación.
  2. Empoderar al paciente. Ponerlo a cargo de su información dándole herramientas con las cuales pueda decidir cómo se usan sus datos, respetando sus derechos y deseos y manteniendo esa información segura y protegida.
  3. Armonizar los aspectos legales y regulatorios. Ha de resolver temas como las reglas de acceso a la información, el asegurar la autoría con fecha y hora, la firma digital, la integridad de la información, las políticas de seguridad y los procesos de modificación de datos.
  1. Disponible en https://www.ffe.de/en/publications/interopera-bilitaet-begriffsklaerung-bewertung-und-anwendung/ (fecha de consulta 4/7/2023).
  2. Luna, Daniel; Campos, Fernando y Otero, Carlos, “Interoperabilidad para principiantes: La base de la salud digital”. Banco Interamericano de Desarrollo, 13 de noviembre de 2019, p. 7, disponible en

https://publications.iadb.org/es/interoperabilidad-para-principian-tes-la-base-de-la-salud-digital.

  1. Capacitación de recursos humanos. Hay que brindar capacitaciones para todos los usuarios de los sistemas de salud, desde profesionales, pacientes, administrativos, líderes de implementación y personal técnico que dará soporte.”

Red Nacional de Interoperabilidad en Salud

El intercambio de información entre los distintos actores sanitarios involucrados se realizará a través de la Red Nacional de Interoperabilidad en Salud, creada por la resolución 115/2019 de la entonces Secretaría de Salud. La norma en cuestión resolvió la creación de la Red y el Registro de Dominios de Interoperabilidad en Salud, el cual tiene como objetivo identificar a los participantes de la Red Nacional de Interoperabilidad en Salud.

La resolución 115/2019 delegó en la Dirección Nacional de Sistemas de Información en Salud las cuestiones operativas del Registro, quien definió utilizar la tecnología HL7 Fast Healthcare Interoperability Resource – FHIR–, un estándar de interoperabilidad desarrollado por HL7, Health Level 7, Organización de Desarrollo de Normas certificadas por el Instituto de Normas Nacional de EE.UU. que funciona en el área de la salud(3) para representar electrónicamente la prescripción de medicamentos. Esta tecnología es la más utilizada en la actualidad a nivel global para la integración de sistemas clínicos a través de internet en forma segura. Las especificaciones de los servicios web para procesos clínicos específicos se basan en perfiles de la iniciativa Integrating Health Enterprise –IHE– y definen roles, procesos y requisitos para el intercambio de información. La Dirección Nacional de Gobernanza e Integración de los Sistemas de Salud Pública tiene a su cargo la publicación periódica de las llamadas guías del estándar FHIR de Argentina, tarea que realiza mientras se avanza con la implementación de la Red y genera la guía para la receta digital interoperable.

El decreto 98/2023. “Primera aproximación” para resolver la necesidad real informática sanitaria

Mediante el decreto 98/2023, publicado en el Boletín Oficial –BO– el 28/02/2023, el Gobierno Nacional reglamentó la ley 27.553 de Recetas Electrónicas o Digitales y Plataformas de Teleasistencia, que tiene por objeto la prescripción y dispensa de medicamentos, y toda otra indicación mediante el uso de firmas electrónicas o digitales, en recetas electrónicas o digitales, en todo el territorio nacional. Asimismo, establece el uso de plataformas de teleasistencia en salud como así también mantiene en vigencia las recetas en papel con firma manuscrita.

Cabe mencionar que la norma bajo análisis no integra la propia de la telesalud, telemedicina y teleasistencia, sino, más bien, se zanja en enumerar las tres modalidades de prescripción y dispensación de medicamentos en la Argentina: a. receta física (en papel) manuscrita; b. con firma (digital-electrónica) y c. en plataforma de teleasistencia(4).

A través de la resolución 3622/2022(5) publicada en el BO del 27/12/2022, ya se había dispuesto que no serían válidas las fotos de las recetas médicas de papel enviadas por mail o por WhatsApp.

Es así que la mencionada resolución dejó sin efecto la anterior resolución 696/2020, del 31 de marzo de 2020, que había permitido la prescripción extraordinaria y coyuntural, por razones de emergencia pandémica, “en formato de mensaje de texto a través de aplicaciones de mensajería vía internet”, justificadas en el marco del aislamiento social, preventivo y obligatorio –ASPO– (DNU 297/2020)(6).

  1. Disponible en https://www.hl7.org (fecha de consulta 4/8/2023).
  2. Existe un documento de Buenas Prácticas para Teleconsulta (resolución 581/2022), que no incluyó lo propio de la prescripción digital, lo cual es un indicio de la interpretación insuficiente sobre la lógica de la informática en salud pública. Véase: Ministerio de Salud, resolución 581/2022, BO 21/03/2022, disponible en: https://www. boletinoficial.gob.ar/detalleAviso/primera/259481/20220321 (fecha de consulta 4/7/2023).
  3. Ministerio de Salud de la Nación, resolución 3622/2022, BO 26/12/2022, disponible en: https://www.boletinoficial.gob.ar/detalleAviso/primera/278304/20221226 (fecha de consulta 4/7/2023).
  4. Conocida como “receta WhatsApp”, que fue permitida excepcionalmente durante el periodo del ASPO (decreto de necesidad y urgencia en ocasión de pandemia por COVID19 – decreto 297/2020), que impactó en la posibilidad de que las personas pudieran trasladarse a centros asistenciales a recibir consultas o medicamentos en

Sin embargo, la ley 27.553 y su reglamentario (decreto reglamentario 98/2022; en adelante DR 98), parecen quedar “a medio camino” para resolver las necesidades reales para las cuales fueron creados en nuestro contexto.

Implementación escalonada y efectiva

Existen desafíos pendientes de resolución, entre ellos, la adhesión escalonada y efectiva de las jurisdicciones y actores federales. También es requerido contar con un régimen sancionatorio aprobado por ley y extender el actual Sistema de Interoperabilidad en Salud. Asimismo, se designa al Ministerio de Salud como autoridad de aplicación para que, entre otras cosas, impulse la Estrategia de Salud Digital en forma progresiva y gradual, desarrolle y apruebe requisitos técnicos, legales y criterios de calidad para su implementación y su actualización; defina e instrumente estándares para interoperar en telesalud; establezca y defina los criterios para la seguridad y protección de datos sensibles.

Receta digital y receta electrónica

A lo anterior, cabe añadir que en reiteradas ocasiones se menciona “receta digital” o “receta electrónica”. Aunque ambos conceptos pueden parecer “sinónimos”, en la práctica, son cuestiones técnicas muy diferentes. Tal como menciona el sitio del Ministerio de Justicia y Derechos Humanos: “… la receta electrónica está firmada por un o una profesional de la salud con firma electrónica. La receta digital está firmada por un o una profesional de la salud con firma digital y sello de competencia digital…”(7). Mientras que la firma electrónica no requiere de una entidad autorizada para ser adquirida, es decir se limita a validar usuario y clave de acceso, la firma digital puede ser otorgada únicamente por una autoridad de registro, tal como se detalla en la ley 25.506, y requiere de un proceso matemático/informático para garantizar su validez. Vale decir que a la fecha no existe un organismo oficial que entregue estas firmas digitales de forma gratuita y universal a todos los profesionales de la salud a nivel nacional.

Interfase hasta la implementación

Descritos los objetivos y necesidades para implementar la prescripción, corresponde analizar la evidencia de las normas que ya están en vigor y que, junto a las cuestiones operativas imperantes en el ahora, regulan lo que podría llamarse “interfase hasta la implementación”: 

En su artículo 1, la ley 27.553 establece dos objetivos muy claros con respecto al acto prescriptivo del facultativo sanitario: en primer lugar, dispone que la “prescripción y dispensación de medicamentos, y toda otra prescripción” –nótese amplio objeto alcanzado por la norma–“puedan ser redactadas y firmadas a través de firmas manuscritas, electrónicas o digitales, en recetas electrónicas o digitales, en todo el territorio nacional” (artículo 1, inciso a). En segundo lugar, la norma establece que “puedan utilizarse plataformas de teleasistencia en salud, en todo el territorio nacional, de conformidad con la ley 25.326 de Protección de los Datos Personales y la ley 26.529 de Derechos del Paciente” (artículo 1, inciso b).

No se menciona en la ley, pero existe un formulario online de inscripción provisoria de plataformas y sistemas de información, a priori voluntario, que permitan factibilizar la prescripción electrónica o digital(8). Entre las opciones para completar y aceptar como prerrequisitos de tal inscripción, se encuentra una declaración jurada de cumplimiento y buenas prácticas, que incluye nuevamente menciones a: ley 25.326 de Protección de Datos Personales; ley 25.649 de Promoción de la Utilización de Medicamentos por su Nombre Genérico; ley 26.529 de Derechos del Paciente en su Relación con los Profesionales e Instituciones de Salud y la propia ley 27.553 de Recetas Electrónicas o Digitales. Adicionalmente, contempla adjuntar documentación respaldatoria de: inscripción en el Registro Nacional de Bases de Datos personales, manual de usuario y de procedimientos, Certificaciones o cumplimentaciones de seguridad que tenga la persona o institución (ISO 27001, SOC 1, SOC 2, GDPR, HIPAA),

  1. Ministerio de Justicia y Derechos Humanos, “Recetas electrónicas. Requisitos de las recetas electrónicas y digitales”, ley 27.553, disponible en:

https://www.argentina.gob.ar/justicia/derechofacil/leysimple/recetas electronicas&sa=D&source=docs&ust=16819191250127 39&usg=AOvVaw0whLzoMRZiBK0VdUcz_Alh.

  1. Véase: Ministerio de Salud de la Nación, “Formulario de Inscripción provisoria de plataformas y sistemas de Información”, disponible en: https://redcap.msal.gov.ar/surveys/?s=YAD9M7EJYW.

Requisitos de la receta electrónica y digital

El decreto reglamentario 98/2023 (DR 98), en su artículo 1, define receta electrónica como “el documento de carácter sanitario, confeccionado y firmado por una o una profesional de la salud, con firma electrónica conforme a la normativa que la regula, mediante el que se prescribe a un o una paciente medicamentos o se indica cualquier otra prescripción para ser administrados, aplicados o consumidos, a través de una plataforma que permite la prescripción electrónica”. Define a su versión digital de la misma manera solo que los distingue al agregar al componente “firma digital y sello de competencia digital”.

En sus versiones electrónica o digital, el DR 98 exige para la validez, que la receta cumpla con ciertos requisitos a saber:

  1. La identificación unívoca e individual del documento en sí de la matrícula del profesional que prescribe y la identidad del paciente. Esa receta unívoca e individual, representa una única dispensa o utilización. Resulta un requisito de la norma bajo análisis que el documento de prescripción electrónico o digital, cualquiera fuera su soporte, sea “íntegro e inalterable”. Esta disposición responde a razones de seguridad de fármaco vigilancia sobre el consumo del medicamento y de la seguridad del paciente.
  2. Contenido que deberá ser acorde con lo determinado por las leyes de ejercicio profesional y la prescripción por denominación genérica. De esta manera la legislación de receta digital y su reglamentación adhieren los propósitos de acceso efectivo promovidos por la ley 24.649 de Promoción de la Utilización de Medicamentos por su Nombre Genérico y su reglamentación por el decreto 987/2003(9).
  3. Confidencialidad de los datos en sistemas progresivamente interoperables (para poder intercambiar información con fines sanitarios) de manera segura. No se trata solo de la confidencialidad, deberá garantizarse la seguridad de los sistemas informáticos (evitar ciberataques como el recientemente ocurrido en PAMI Ransomware(10)).
  4. Vigencia limitada de 30 días para la prescripción de medicamentos y 60 días para otras prescripciones, salvo disposición en contrario. Pudiendo prescribir recetas para tratamientos crónicos (aquellos que se prescriben rutinariamente a un mismo paciente para patologías crónicas).
  5. Ajustarse al objetivo de cumplir demás requisitos que permitan la implementación de las recetas digitales y/o electrónicas en el sistema sanitario argentino, de conformidad con el cumplimiento de la ley 26.529 de Derecho de Pacientes y ley 25.326 de Protección de Datos Personales.

Infraestructura del sistema

El DR 98 menciona que el requisito será articulado en forma “progresiva” por la Autoridad de Aplicación. Se ha explicado, en esta línea, que “la Red de Salud Digital implica el desarrollo de una Infraestructura que permita la comunicación de los diferentes nodos. Esto requiere la definición de un conjunto de estándares de estructura de datos y comunicación, que asegure el envío y recepción de la información sanitaria de las personas entre dominios, en forma privada y segura. La adherencia a estos estándares es un requisito ineludible para la participación en la red y asegura que la información compartida pueda ser interpretada y procesada en el punto de destino”. Cabe mencionar que, hasta la fecha, el bus de interoperabilidad, creado a partir de la resolución 115/2019, que permite intercambiar los primeros datos en salud estandarizados, solo puede ser utilizado en la práctica por Hospitales Públicos, no Instituciones Privadas. Y en Argentina el 35% de la población solo utiliza Hospitales Públicos(11).

  1. BO 28/4/2003, disponible en: http://servicios.infoleg.gob. ar/infolegInternet/verNorma.do;jsessionid=6C014AF97774269DA3 8FB21D1A8F883F?id=84522 (fecha de consulta 4/7/2023).
  2. Disponible en https://www.telam.com.ar/notas/202308/ 635984-pami-ciberataque-hackeo-jubilados.html (fecha de consulta 4/8/2023).

=La resolución de la entonces Secretaría de Gobierno de Salud 680/2018(12) recomendó el uso de un “conjunto de estándares para la representación y comunicación de información sanitaria utilizados a nivel mundial para resolver diferencias de estructura y codificación entre sistemas de información en salud, permitiendo la interacción y el intercambio productivo de datos entre aplicaciones heterogéneas, independientemente de su plataforma tecnológica o de su lenguaje de desarrollo”. La misma norma cita que organismos internacionales como SNOMED Internacional, HL7 y la Organización Mundial de la Salud recomiendan estándares que se complementan para dar soporte a todos los procesos de registro, transferencia y análisis de datos en sistemas de información en salud. El uso de estos estándares permite que los registros y programas nacionales cuenten con información completa, precisa y oportuna, al integrarse con los Sistemas de Información en Salud jurisdiccionales y de otros subsistemas. Solo mediante el uso de estándares se hace viable la transferencia de información entre sistemas informáticos con fines asistenciales, para asegurar la mejor calidad de atención, integrando la información de la historia clínica del paciente a través de todas las jurisdicciones y subsistemas de Salud de la Nación.

Historia Clínica Única

Hablar de interoperabilidad, “como primer paso, implica avanzar en el concepto de una Historia Clínica Única con datos compartidos entre instituciones, utilizando un vocabulario médico común (estándar terminológico) que sirva para la codificación de enfermedades, procedimientos y medicamentos, tanto para la atención médica como para la salud pública, a través de los registros de los programas sanitarios, de los sistemas estadísticos y los de vigilancia”(13).

La ley 27.553 y su DR 98, en su artículo 2, establece que toda prescripción de receta digital o electrónica y las plataformas de teleasistencia deberán adecuarse a los requerimientos legales que regulen su ejercicio. En este sentido, la nueva normativa estatuye que la receta electrónica o digital es un acto médico de competencia del médico/a como profesionales de la salud, centrada en la atención al paciente y por tanto basándose en la historia clínica del mismo.

La Historia Clínica Electrónica o los Registros Médicos Electrónicos se transforman tanto en componentes estructurales de información e identificación para proveer la calidad y seguridad a los pacientes como, así también, en una herramienta que exige el deber de confidencialidad de todos los usuarios y preservar la seguridad de los sistemas informáticos de aquellos que accedan a ella o tengan su custodia, realizando encriptados o controlando el acceso de usuarios y uso de códigos, cifrados, etc.

La codificación de diagnósticos en las HCE de entidades clínicas se realiza con el estándar SNOMED CT(14), que se encuentra disponible para su descarga sin cargo.(15). “La implementación de SNOMED CT en sistemas locales puede realizarse utilizando servidores de terminología open source, de acceso libre y gratuito, que se alimentan con la última versión disponible de la edición argentina de SNOMED CT y la hacen disponible a las aplicaciones sanitarias a través de servicios web”(16). “Cuando los documentos clínicos electrónicos tienen que representar referencias a componentes del sistema de salud como Profesionales, Establecimientos, Especialidades, o Financiadores, es necesario utilizar vocabularios comunes que puedan ser entendidos por todos los participantes del proceso de interoperabilidad. La Red brinda acceso a los Registros Nacionales de Referencia como por ejemplo los Registros Federales de Profesionales y Establecimientos REFEPS y REFES, a través del Sistema Integrado de Información Sanitaria Argentino (SISA)”(17).

  1. Ministerio de Salud de la Nación, Análisis de situación de salud: República Argentina / Ministerio de Salud de la Nación, 1ª ed., Ciudad Autónoma de Buenos, 2018, libro digital, disponible en: https://bancos.salud.gob.ar/sites/default/files/2019-12/0000001392cnt-anlisis_de_situacin_de_salud_-_repblica_argenti-na_-_asis_2018_compressed.pdf.
  2. Resolución 680/2018, disponible en: https://www.argentina. gob.ar/normativa/nacional/resoluci%C3%B3n-680-2018-317230/ texto.
  3. Ministerio de Salud de la Nación, “Estándares”, disponible en: https://www.argentina.gob.ar/salud/digital/estandares (fecha de consulta 4/7/2023).
  4. SNOMED CT “es una terminología clínica mantenida y actualizada por SNOMED Internacional, que conforma un estándar global para la representación de información en salud”. Ministerio de Salud de la Nación, “¿Qué es Snomed CT?”, disponible en: https://www. argentina.gob.ar/salud/terminologia/snomedct (fecha de consulta 7/6/2023).
  5. A través de la página web: https://mlds.ihtsdotools.org/#/ landing (fecha de consulta 7/6/2023).

La ley 27.553 en su artículo 2 establece que su aplicación en relación prescripción alcanza a las profesiones médica, odontológica o de otros profesionales sanitarios “legalmente facultados a prescribir, en los respectivos ámbitos de asistencia sanitaria y atención farmacéutica pública y privada”.

Tal es el impacto de la necesaria prescripción electrónica o digital interoperable que, mediante decreto 185/2023(18), también los veterinarios pueden recetar en formato electrónico o digital y aplican las mismas consideraciones que para los médicos y venta de los productos en las farmacias. La autoridad de aplicación para receta médica (Ministerio de Salud) promoverá la implementación progresiva de las recetas electrónicas y digitales en el territorio nacional. De esta manera se pretende garantizar la dispensa en lugares habilitados por las autoridades sanitarias jurisdiccionales para tal fin, favoreciendo el acceso efectivo a los/as pacientes (artículo 2 del DR 98).

Competencias y jurisdicciones

La norma delega la implementación progresiva del uso de la receta electrónica o digital en todo el territorio nacional a una articulación entre el Ministerios de Salud, el Consejo Federal de Salud –COFESA– y demás autoridades jurisdiccionales, pretendiendo armonizar la gobernanza de la prescripción a nivel nacional con características federales.

Una vez más pareciera observarse que lo lento del proceso de implementación de la prescripción electrónico digital obedece al sistema federal segmentado y fragmentado imperante en la sanidad argentina.

El párrafo penúltimo del artículo 2 del DR 98, se invita (voluntariamente) a las autoridades jurisdiccionales a adherir a la utilización de la LICENCIA SANITARIA FEDERAL, cuyo alcance y contenido se establecerá por normativa complementaria que a tales efectos dictaría la Autoridad de Aplicación(19).

Conclusiones

Si bien la pandemia por COVID19 ha sido un catalizador para la adopción de lo digital en lo sanitario, justificado por la emergencia, resulta un pendiente, la implementación efectiva de todos los requisitos necesarios para la receta electrónica o digital.

El legislador se encuentra frente al desafío de armonizar normativamente antiguos problemas del sistema sanitario federal, segmentado y fragmentado, a los cuales se añaden los propios de la inversión de infraestructura tecnológica necesaria para sostener el sistema.

No obstante, existen experiencias encaminadas a resolver en la práctica su funcionamiento, tal es el caso de la implementación de la Receta Electrónica Bonaerense(20). Y aun así, ocurriría en forma paulatina “a partir de la modernización y adecuación de los sistemas”, según se deja constancia en el propio documento técnico.

  1. Pueden verse las guías de implementación y la actualización de los códigos en: https://github.com/IHTSDO/snowstorm (fecha de consulta 7/6/2023).
  2. Ministerio de Salud de la Nación, “Estándares”, disponible en: https://www.argentina.gob.ar/salud/digital/estandares (fecha de consulta 7/6/2023). Véase también: Sistema Integrado de Información Sanitaria Argentino, disponible en: https://sisa.msal.gov.ar/sisa/ (fecha de consulta 7/6/2023).
  3. Disponible en https://www.argentina.gob.ar/normativa/na-cional/decreto-185-2023-381952 (fecha de consulta 4/7/2023).
  4. Véase el artículo 13 in fine de la ley 27.553: “La autoridad de aplicación puede realizar los convenios de colaboración y coordinación necesarios con los colegios de profesionales de la salud y los colegios de farmacéuticos a los efectos de hacer ejecutable el objeto previsto en la presente ley”.
  5. Receta Electrónica Bonaerense, disponible en: https://www.ms.gba.gov.ar/sitios/saluddigitalbonaerense/ejes/receta-electronica-bonaerense/ (fecha de consulta 1/6/2023).

También existen lecciones aprendidas de otras geografías, tal es el caso de la receta electrónica implementada por el Servicio Catalán de Salud –CatSalut–, la cual podría aportar cierta inspiración para el caso local argentino(21) y que entre sus características están las de: 1. acceso de usuarios en línea, lo que permite que los profesionales de la salud emitan y renueven recetas a través de plataforma, lo que facilita el acceso desde cualquier sitio con conexión a internet; 2. La seguridad y privacidad de su receta electrónica cuenta con mecanismos robustos en el diseño para proteger la información del paciente y garantizar su privacidad; 3. Historial de la medicación, que permite revisar y evitar duplicaciones o interacciones medicamentosas no deseadas; 4. la interoperabilidad para el necesario intercambio de datos entre diferentes proveedores de atención y servicios de salud; 5. El acceso controlado a la información restringido a profesionales de la matrícula autorizados; 6. Facilidad en el uso para minimizar errores; 7. Notificaciones y alertas para informar al facultativo sobre alergias o dosis inapropiadas y 8. Acceso del paciente en algunos casos donde les es permitido conocer cuál es su medicación prescripta poder realizar el buen seguimiento de su salud.

Por todo lo expuesto, el éxito de la receta electrónica o digital consagrada por la ley 27.553 y el DR 98, continúa siendo un gran desafío de abordaje teórico, práctico, multi, inter y transdisciplinario.

Lo digital no encuentra justificación por el bien tecnológico en sí, sino más bien en que ese bien digital resuelva efectivamente el acceso a la atención sanitaria para todas las personas, con énfasis en los más vulnerables.

Sitios web relevados

Antoni Gilabert-Perramon; Pilar López-Calahorra; Núria Escoda-Geli y Clara Salvadó-Trias, “Receta electrónica en Cataluña (Rec@t): una herramienta de sa-lud”, Sistemas y tecnologías de la información en salud, Vol. 134. Núm. S1, (enero 2010), DOI: 10.1016/S0025-7753(10)70010-5

https://www.ffe.de/en/publications/interoperabilitaet-begriffsklaerung-bewertung-und-anwendung/

https://publications.iadb.org/es/interoperabilidad-pa-ra-principiantes-la-base-de-la-salud-digital

  1. Antoni Gilabert-Perramon; Pilar López-Calahorra; Núria Escoda-Geli y Clara Salvadó-Trias, “Receta electrónica en Cataluña (Rec@t): una herramienta de salud”, Sistemas y tecnologías de la infor-mación en salud, Vol. 134. Núm. S1, (enero 2010), pp. 49-55. DOI: 10.1016/S0025-7753(10)70010-5.

VOCES: HISTORIA CLÍNICA – PROTECCIÓN DE DATOS PERSONALES – TECNOLOGÍA – PERSONA – CONSTITUCIÓN NACIONAL – DERECHOS Y GARANTÍAS CONSTITUCIONALES – INFORMÁTICA – INTELIGENCIA ARTIFICIAL – INTERNET – ORDEN PÚBLICO – HÁBEAS DATA – DERECHOS HUMANOS – SECRETO PROFESIONAL – DAÑOS Y PERJUICIOS – RESPONSABILIDAD CIVIL – MÉDICO – MEDICAMENTOS – OBLIGACIONES – CÓDIGO CIVIL Y COMERCIAL – ACTOS Y HECHOS JURÍDICOS – COMERCIO E INDUSTRIA – POLÍTICAS PÚBLICAS – SALUD PÚBLICA – DERECHOS HUMANOS – CONSENTIMIENTO – PRUEBA – CARGA DE LA PRUEBA – HOSPITALES Y SANATORIOS – MÉDICO – OBRAS SOCIALES – DERECHOS DEL CONSUMIDOR – MEDICINA PREPAGA – PROFESIONALES DE LA SALUD.

 

 

NODO STARTUP (La columna de los emprendedores)

Reportaje a la abogada emprendedora Natali Aun Santiago, cofundadora de la empresa WE Ballet Fitness y cofundadora de Mujeres Argentinas Emprendedoras –MAE–

Reportaje a cargo de Emiliano Lamanna Guiñazú(*)

 

Un prólogo corto, pero necesario

Debemos decirlo: si bien no somos periodistas ni emprendedores, nos damos cuenta de la necesidad de que el suplemento “Derecho, Innovación & Desarrollo Sustentable” muestre cómo operan las ideas cuando hay determinación para construir sueños. En concreto, Nodo Startup tiene ese objetivo: dar a conocer todo lo que se puede crear en el mundo emprendedor aunando talento, creatividad y buenos consejos.

Para ello, fuimos con nuestro espacio editorial (DI&DS) a entrevistar a Natali Aun Santiago (NAS), abogada como nosotros, pero también fiel representante de cómo la resiliencia creativa y el empeño logran objetivos.

Aquí va lo conversado…

DI&DS: Nassim Taleb en su obra “Antifrágil” (Paidós Transiciones, pp. 240/241) plantea que el método del ensayo y el error presenta un valor fundamental que muchas veces no se entiende y no es aleatorio porque, gracias a la opcionalidad que propone, exige algo de racionalidad. Hay que ser inteligentes para reconocer un resultado favorable y saber qué descartar y hacia dónde dirigirnos. Cada ensayo y cada error nos acerca a algo, suponiendo, obviamente, que sepamos hacia donde vamos. Con cada intento que acaba en error podemos averiguar un poco más hacia donde ir. ¿Coincidís? ¿Tu historia como emprendedora y empresaria en cuánto se conecta con estas aseveraciones de Taleb? ¿Los errores, en tus emprendimientos, te enseñaron?

Natali Aun Santiago(1)

NAS: Desde ya. El universo emprendedor, empresarial está en constante movimiento. Si bien, como mencionás, cada “pruebaerror” debe tener un objetivo concreto y un propósito final, es innegable la existencia de cambios para finalmente lograr el objetivo.

Muchas veces sucede que se tiene un pensamiento muy claro del producto o servicio que se quiere lanzar al mercado y la respuesta no es la esperada por una infinidad de variantes que, incluso a veces, son ajenas al producto en sí mismo o al servicio “per se”. Desde mi punto de vista, allí radica la sabiduría emprendedora-empresarial. En mi opinión es muy importante la percepción y la lectura del mercado. También es primordial la autocrítica inmediata para rápidamente detectar qué sucedió con eso y adaptarlo. Es importante leer lo que el mercado está pidiendo o respondiendo.

  1. Natali Aun Santiago es abogada (Universidad Austral). Senior en el estudio “Santiago & Asoc.”. Presidente en FLEX Energy. Cofounder Mujeres Argentinas Emprendedoras –MAE– y WE Ballet Fitness. Entre sus antecedentes profesionales podemos situarla en la Jefatura Legal y Técnica en la Empresa Argentina de Navegación Aérea –EANA–, también en la Jefatura de Gabinete (área de infraestructuras). Se desempeñó también como Gerente de Legales y Compliance de Latinoamérica en Grupo Televisa S.A.B.

En esos momentos es donde, en mi opinión, radica el gran aprendizaje del “error” o “cambio”. Esos tipos de errores o cambios son aprendizaje. Desde empezar a pensar estratégicamente hasta entender también que a veces lo que uno proyecta en la teoría puede ser muy distinto a lo que sucede en la práctica.

Para darte un ejemplo personal, con mi empresa WE Ballet Fitness, cofundada junto con Mauara Mariussi hace más de 9 años, lanzamos en 2020 la certificación en el método. El método, conocido como ballet fitness o barre fusiona el entrenamiento tradicional con posiciones del ballet. Inicialmente, y con motivo de pandemia, lanzamos la certificación 100% on demand. Es decir, con más de 8 h de videos pregrabados en alta calidad y acceso a más de 50 clases de nuestra plataforma WE ON Demand(2).

Luego de dos meses del lanzamiento notamos que no teníamos las ventas esperadas. Rápidamente, advertimos que la gente interesada en este producto quería un seguimiento mayor, con clases también en vivo por Zoom, encuentros presenciales, etc. En definitiva, la gente estaba cansada –quizás motivo de la pandemia– de consumir videos pregrabados por plataformas de streaming. Y allí, diseñamos un esquema híbrido con 4 ediciones del instructorado por año con encuentros y clases por Zoom y luego también encuentros presenciales en nuestras sedes en CABA.

Ese “adicional”, ese plus de acompañamiento personalizado es lo que logró que hoy hayamos logrado los objetivos de venta propuestos.

En definitiva, estos “errores” o productos que no empiezan como uno imaginó es lo que enseñan la forma de readecuarlos. Muchas veces la teoría difiere mucho de la práctica y es esencial “redireccionar” sin caer en la frustración.

También, por supuesto, soy de la idea de que cuando algo no va, lamentablemente no va. Hay un momento que se tiene que ser sumamente racional, analizar las métricas, números y tomar decisiones. No siempre uno puede readaptarse con facilidad. Y es una cuestión de costo-beneficio.

DI&DS: Volviendo al juego de las coincidencias: un abogado joven de la UCA me confió –hace un tiempo–que habiendo vivido un par de años largos en España pudo comprobar que en la Argentina se emprendía más que en la península. Pero que, a diferencia de los españoles, los argentinos éramos de priorizar lo creativo antes que las limitaciones legales de lo que se disponen a crear puedan ser. En España, me decía, al emprendedor se lo sepul-ta en papelerío. No acá en la Argentina, donde solemos, me decía, poner el carro delante de los caballos, ahora viene la pregunta reiterada: ¿coincidís?, ¿te pasó algo parecido?

NAS: En primer lugar, no puedo opinar directamente de la experiencia emprendedora en España, porque recién este año estamos por iniciar operaciones con WE Ballet Fitness en España. Por lo que actualmente no me encuentro en condiciones como para hacer esa comparación. Esperemos que pronto sí. De todas formas, sí me consta el empuje de los argentinos a la hora de emprender.

  1. https://weballetfitness.uscreen.io/pages/instructorado-we-ballet-fitness

https://weballetfitness.uscreen.io/

Con Agustina Morán hemos creado Mujeres Argentinas Emprendedoras –MAE–(3). MAE es empresa de impacto social cuyo objetivo en conectar, capacitar y mentorear a mujeres emprendedoras. Generamos, entre otras acciones, capacitaciones, encuentros e incluso eventos en conjunto con empresas afines a MAE como Santander, Banco Galicia, Zurich, etc.

Además, recientemente lanzamos una plataforma que conecta a emprendedores con proveedores de servicio (MAE MARKET). En definitiva, con MAE nos conectamos con más de 4000 emprendedoras argentinas y es impresionante ver la potencia, energía y pasión que cada una de ellas tiene por su negocio. Hay algo que tenemos de hacer, darle para adelante, poner en marcha las cosas y seguir. Luego, vemos cómo reacomodamos.

Con respecto a lo creativo, me parece que mucho tiene que ver el contexto en el que vivimos. Los cambios son tantos (a veces no tan buenos como pueden ser variables económicas o legales) que en algún punto no nos queda otra alternativa que ser creativos. Un poco lo que mencionaba anteriormente, esa adaptabilidad o la tan nombrada resiliencia es necesaria en contextos como los de Argentina. Por lo que esto de ser creativos tiene mucho que ver con nuestro país y hasta diría que a veces es obligatoria en nuestros contextos.

DI&DS: Un país como Argentina, con poco más de 126% de inflación estimada en 2023, ¿puede ofrecer un contexto venturoso para emprender?

NAS: La realidad de Argentina está a la luz de todos y es innegable que el contexto macroeconómico hace que uno tenga que estar en constante cambio.

Emprender hoy en Argentina es una tarea ardua. A veces escucho o leo frases como “la independencia emprendedora”, “emprender es para cualquiera”, “trabajá de lo que amás y nunca más trabajarás”, “emprendé y no tendrás más jefes”, etc.

En mi opinión ha habido en este último tiempo una cierta tendencia a idealizar el universo emprendedor y la realidad es que a la hora de emprender uno debe tener mucha claridad de todo lo que ello conlleva (además de mucha perseverancia y orden). Hay que tener objetivos y concretos, saber con qué capital cuento, cuál es mi plan de crecimiento, cuál es mi equipo, cuán flexible es mi estructura para sostener procesos inflacionarios como el que vivimos, entre otras preguntas.

Tener algunas de estas respuestas en la mente es lo que hace que igualmente y dentro del contexto de Argentina, el universo emprendedor tenga resultados positivos.

Desde MAE notamos que el “ADN” emprendedor está en crecimiento. Crecimiento, por un lado, por interés personal y por otro claramente por una necesidad económica. Para ponerlo en números, según el informe Global Entrepreneurship Monitor –GEM–, el 23,3% de los adultos argentinos está involucrado en algún tipo de actividad emprendedora. Esto significa que casi 1 de cada 4 argentinos es emprendedor.

Pero creo que es bueno que quienes ya emprendemos hace más de 10 años comentemos la realidad. Emprendamos, sí. Generemos nuestras propias empresas porque no hay nada más gratificante que generar valor a la sociedad, dar empleo, ayudar a la cadena productiva de nuestro país. Pero sepamos que hay un lado B, avisemos que atrás de cada emprendimiento o empresa argentina hay una infinidad de sacrificios.

De hecho, MAE nace con este objetivo. Le dije a Agustina en la cocina de su casa allá por el 2020 “Agus, hay que crear una empresa que ayude a la gente a emprender. Tenemos que ayudar a las mujeres a crear sus propios negocios”. Y Agustina –abogada como yo– con todo su vasto conocimiento y experiencia en materia legal en el mundo PYME y multinacional no dudó un segundo. Creo que de eso se trata emprender independientemente del contexto. Es aportar tu grano de arena en la sociedad y sumar.

DI&DS: Mucho se habla de un empoderamiento en crecimiento, pero igual busco datos que me puedas ofrecer, por eso te lo pregunto pues como profesor universitario observo una mayor presencia femenina que masculina en las aulas. ¿Cómo ha sido la absorción de la mujer en el mundo empresarial en los últimos diez años? ¿Creés que puede tener un efecto mayor en el futuro?

NAS: Siguiendo un poco con el informe que comentaba (GEM), de este universo emprendedor, el 53,7% son

  1. https://maemprendedoras.com/

hombres y el 46,3% son mujeres. La presencia femenina en el mundo emprendedor está. Nosotras, como te comentaba, la vemos en MAE.

Ahora bien, por otro lado, lamentablemente ese porcentaje no se sostiene en el tiempo y de cada 5 emprendimientos consolidados, sólo 1 es de mujeres. La pregunta es: ¿qué pasa que los emprendimientos femeninos no escalan?

Lo mismo en el mundo corporativo. Según la Organización Internacional del Trabajo –OIT– a nivel mundial, aproximadamente el 50% de las mujeres en edad de trabajar forman parte de la población activa, frente al 75% de los hombres. Pero, la presencia femenina en los cargos altos de las empresas es baja.

En la actualidad, según el último estudio de Grant Thornton, sólo el 34% de los puestos directivos están ocupados por mujeres a nivel global; en Argentina el porcentaje se ubica en el 29%.

En definitiva, la presencia femenina está y mucho. Pero la preocupación es la escalabilidad de eso.

En mi opinión, fomentar el crecimiento de la mujer en las aulas, los emprendimientos, organizaciones públicas y el mundo corporativo hacen por un lado a la diversidad y por el otro a la equidad y equilibrio.

La participación laboral femenina no sólo es un tema de diversidad de pensamientos, que sin duda es un beneficio para cualquier organización, sino también es un beneficio económico.

Según el Banco Interamericano de Desarrollo –BID–, aplicar políticas que incrementen en un 10% la productividad promedio femenina produciría un impacto considerable en el PIB per cápita que podría aumentar entre 15% y 25%.

En contraparte, la brecha de género en la participación laboral tiene un costo significativo en términos de crecimiento económico pero políticas que abordan estas brechas pueden jugar un rol importante en su achicamiento. Según el BID, por ejemplos, la aplicación de políticas de cuidado infantil se traduciría en un incremento del PIB per cápita de entre un 4% y un 6%.

DI&DS: ¿Qué le puede ofrecer el mundo emprendedor al graduado universitario recién recibido? ¿Debería tener habilidades adyacentes a su título de grado para poder emprender o trabajar en un espacio gestado y gestionado por emprendedores? Entendiendo que la afirmativa es la mejor respuesta, ¿cuáles serían esas habilidades requeridas?

NAS: El mundo emprendedor puede ofrecer mucho. De hecho, desde MAE hemos realizado varias charlas para universidades y colegios para empezar a conversar del emprendedorismo desde niveles iniciales de educación.

Hoy en día, se habla más de emprender. Pero antes no era muy común escuchar en colegios o universidades estas temáticas. De hecho, nosotras advirtiendo esta ausencia, desde MAE desarrollamos el Programa Gestión Integral de Negocio donde abarcamos las temáticas más concretas a la hora de emprender: desarrollo de marca, marketing, legales –societario y derecho de propiedad intelectual– y económico financiero –armado de cash flow–. Creo que el universo emprendedor trae algo de lo cocreto, la ejecución, la práctica. Es decir, ejecutar, poner en marcha.

El graduado universitario obviamente depende en qué se gradúe tendrá más o menos capacidades en diferentes temáticas. No es lo mismo un graduado en medicina que en ingeniería. Pero hay algo que es innegable: la energía y las ganas de emprender. Independientemente de la profesión o la especialización universitaria, quien quiere emprender debe tener esa cualidad. Como mencionaba, es un camino con altos y bajos, y si las ganas no están, se hace difícil. Luego hay varias habilidades que uno también puede ir adquiriendo: el liderazgo, el trabajo en equipo, herramientas técnicas dependiendo de la formación, etc. Pero la energía, ganas, perseverancia tienen que estar. Para ser un líder de una empresa uno tiene que poder transmitir exactamente eso: visión positiva, empatía y perseverancia.

DI&DS: Contame, concretamente, ¿de qué se tratan las empresas Flex Energy, donde sos la CEO, y WE Ballet Fitness, tus emprendimientos?

NAS: Flex Energy es una empresa que se dedica al dimensionamiento, instalación y puesta en marcha de centrales solares. Nuestra misión es acelerar y promover la transición del mundo hacia la energía sostenible.

Actualmente contamos con más de 300 instalaciones solares en todo el país y varios proyectos solares de mayor escala para empresas comprometidas con las energías renovables.

WE Ballet Fitness es la primera empresa de fitness de Argentina que se especializa en el método de entrenamiento ballet fitness o barre. El método adapta las posturas básicas del ballet al fitness para un entrenamiento innovador. WE nace en 2015 y contamos 3 locales fitness boutique en CABA y próximamente desembarcaremos en España. Además, contamos como comenté con una plataforma WE on demand con alcance mundial y la certificación en el método WE Ballet Fitness.

DI&DS: Contame de las organizaciones donde hacés foco para expandir tus ideas y negocios: ¿qué es MAE?

NAS: Como mencioné anteriormente MAE es una empresa de impacto que fomenta el liderazgo femenino. Capacitamos, mentoreamos y conectamos a través de nuestra RED MAE a más de 4000 emprendedoras. Asimismo, contamos con alianzas estratégicas del sector privado y público con el que cocreamos acciones con el propósito de impulsar a la mujer en el desarrollo de nuevos negocios.

Como nos gusta a decir con Agustina Morán –cofundadora de MAE– atrás de cada emprendimiento hay una mujer con una gran historia que contar. Emprender es mucho más que vender un producto o servicio, es independencia económica, es libertad, es contribución económica al país y mucho más.

Mucho de eso se ve en MAE con las acciones que realizamos: encuentros con la RED MAE, concurso de pitch entre emprendedoras, eventos, capacitaciones, programas como el Programa Manos a la Obra (que desarrollamos negocios de cero con las emprendedoras) o Club de Emprendedoras. Además, actualmente desarrollamos una plataforma que conecta a emprendedoras con proveedores de servicios (MAE MARKET)(4).

DI&DS: Se habla mucho de la economía del conocimiento y de la Argentina de los 11 unicornios: ¿sos de las que piensan en que esta economía podrá ayudar al país?

NAS: Sí, claro. La tecnología y la innovación son factores claves para el crecimiento económico y el desarrollo. La economía del conocimiento puede contribuir al desarrollo social al facilitar el acceso a la información, la

  1. https://maemprendedoras.com/mae-market/

educación y los servicios, lo que puede reducir la brecha digital y mejorar la inclusión social, entre otros beneficios.

DI&DS: Cinco cosas que le dirías a alguien que desea emprender…

NAS: Un poco lo que comentaba anteriormente:

  1. Que se anime, que emprenda. Que sepa que es un camino único lleno de satisfacción y felicidad. Que no hay nada más gratificante que pensar en una simple idea y hacerla. Ejecutarla y mirar para atrás y decir “lo logré”, “lo hice realidad”, “generé x cantidad de ventas”, “generé x cantidad de empleos”. Aporté mi granito de arena a la sociedad. Pasé de una simple idea a tener mi propia empresa.

Ahora bien, también le diría:

  1. Que sea perseverante. Que hay que intentar 1000 para lograr 1. Que no hay que bajar los brazos y seguir. El camino emprendedor requiere de mucha constancia y perseverancia.
  2. Que sea paciente. Las empresas no nacen y crecen de un día para el otro. Hay que saber que todo requiere de tiempo, de procesos, de muchas pruebas y error como hablamos y de mejoras constantes. Hay que tener mucha paciencia.
  3. Que sea organizado pero que ejecute. Los procesos hacen a las empresas. Que delimite sus objetivos, que tengan procesos. Que se tome un tiempo semanal para planificar bien qué es lo que quiere esa semana, ese mes y ese año. La claridad de pensamientos ayuda a la ejecución posterior. Pero que ejecute. La ejecución es clave: motiva, mide. Es aprendizaje puro. Los proyectos no pueden quedar en un perfecto PDF o Excel. Hay que hacerlas realidad. Y en la cancha se ven los resultados.
  4. Que forme equipo. Que conozca muy bien sus virtudes, debilidades y las equilibre con personas que necesite en su equipo. Con equipo también me refiero a redes de contención, networking, etc. Estar conectado es imprescindible para crecer, para generar alianzas, para estar actualizado y para que en los momentos difíciles haya alguien que esté ahí para escuchar y aconsejar.
  5. Y extra: Que sea positivo. El mundo emprendedor puede resultar frustrante e inestable. Si uno quiere emprender tiene que mantenerse positivo, pensar que, como comentamos, de los errores se aprende. Y que toda situación sirve para algo mejor que está por venir. Y creo que esto de ser positivo se extiende a la vida misma. Necesitamos tener pensamientos positivos y visualizar que las cosas buenas suceden.

Gracias por tu participación, Natali. Estuvo muy bueno conocer lo que hacés y cómo lo lograste. Ojalá inspire.

VOCES: DERECHO – TECNOLOGÍA – INTERNET – INTELIGENCIA ARTIFICIAL – INFORMÁTICA – DAÑOS Y PERJUICIOS – RESPONSABILIDAD CIVIL – ESTADO – EDUCACIÓN – CULTURA – DERECHOS Y GARANTÍAS CONSTITUCIONALES – PODER JUDICIAL – ECONOMÍA – COMERCIANTES – ACTOS DE COMERCIO – ACCESO A LA JUSTICIA – PROTECCIÓN DE DATOS PERSONALES – DERECHOS HUMANOS – TRATADOS INTERNACIONALES – SOCIEDADES – DERECHOS HUMANOS – PERSONAS JURÍDICAS – EMPRESA – COMERCIO E INDUSTRIA – GRUPOS ECONÓMICOS.