IA generativa en la praxis legal: responsabilidad profesional y doble control en el uso de LLMs

0
806
ia y doble control

IA generativa en la praxis legal: responsabilidad profesional y doble control en el uso de LLMs.

Karina Vanesa Salierno[1] y Gastón Enrique Bielli[2]

Sumario: 1. Introducción. 2. IA Generativa y LLMs. Estado actual de la materia sobre el campo legal en Argentina. 3. Riegos en el uso de IAGEN. 4. Las alucinaciones. 5. Responsabilidad del operador jurídico en el uso de IA. 6. 6. Solución: el doble control humano especializado (SICURA-JUS). 7. Jurisprudencia comparada sobre responsabilidad del profesional. 8. Jurisprudencia loca. El primer antecedente 9. El desafío para los operadores jurídicos. Reformulación del perfil del especialista. 10. Conclusiones.

1. Introducción.

La irrupción de la inteligencia artificial generativa (IAGEN) —y, en particular, de los modelos lingüísticos grandes (LLM) como ChatGPT— ha acelerado la automatización de tareas en la práctica jurídica: redacción de documentos, investigación juridica y síntesis de información compleja.

En Argentina, al igual que en otras jurisdicciones, la adopción ha sido veloz y, a veces, acrítica. Ello convive con riesgos ya constatados: alucinaciones (citas y argumentos inexistentes pero verosímiles), sesgos persistentes y posibles afectaciones a la confidencialidad y a la protección de datos.

Dado que estos sistemas producen texto plausible y no conocimiento validado, su empleo sin controles adecuados impacta de lleno en los deberes profesionales de diligencia, competencia y lealtad[3].

Pues bien, este trabajo persigue un doble objetivo:

(i) determinar cuál es la responsabilidad jurídica del operador legal frente al uso erróneo de herramientas de IAGEN —con especial atención al régimen argentino de responsabilidad civil, a los deberes deontológicos y a eventuales consecuencias administrativas—.

(ii) fundamentar la necesidad de un protocolo de doble control humano que mitigue esos riesgos. Sostendremos que la verificación previa y posterior al uso (control de inputs y de outputs) no es una buena práctica opcional, sino una exigencia jurídica derivada del estándar de diligencia profesional y del deber general de prevención del daño.

En esa línea, proponemos un marco operativo —SICURA-JUS— que ordena la intervención humana en dos momentos críticos: la confección responsable de instrucciones (evitando datos sensibles, acotando jurisdicción y contexto, y explicitando el formato de respuesta esperado) y la auditoría exhaustiva del resultado, con contraste de fuentes normativas, doctrinales y jurisprudenciales válidas.

El hilo conductor del artículo es, pues, inequívoco: la IAGEN puede aumentar la eficiencia, pero no desplaza la responsabilidad; por el contrario, la intensifica y exige doble verificación para asegurar decisiones confiables y respetuosas del marco jurídico vigente.

2. IA Generativa y LLMs. Estado actual de la materia sobre el campo legal en Argentina.

Dentro de las ramas actuales de la IA, la Generativa es particularmente relevante para este análisis. Se refiere a sistemas diseñados no solo para reconocer patrones, sino para generar contenido nuevo siguiendo dichos patrones. Esto incluye la creación de imágenes (por ejemplo, con modelos como DALL-E, MidJourney o Stable Diffusion), la síntesis de audio o música, e incluso la generación de vídeos o código fuente.

En el terreno textual que nos convoca, destacan los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) como GPT-4 de OpenAI, que han ganado protagonismo. Un LLM es esencialmente un modelo estadístico enorme capaz de procesar, entender y generar lenguaje humano de manera similar a como lo haría una persona. Estos modelos se entrenan mediante aprendizaje profundo, exponiéndolos a cuerpos gigantescos de texto (bibliotecas enteras de libros, hemerotecas de artículos, conversaciones de internet, documentación técnica, etc.) para que aprendan las regularidades del lenguaje.

En términos simples, un LLM aprende a predecir cuál debería ser la siguiente palabra en una oración dada una secuencia previa de texto. Por supuesto, detrás de esta tarea aparentemente sencilla se esconden matices complejos: los LLM capturan distribuciones estadísticas del lenguaje, relaciones semánticas, contexto, e incluso cierta “comprensión” factual basada en la información con la que fueron entrenados.

Como sostuvimos supra, las aplicaciones más comunes de la IA generativa en el sector legal se centran en la automatización de tareas rutinarias y de gran volumen. Entre ellas destacan la redacción de borradores de documentos legales, como contratos y escritos judiciales, así como la correspondencia con clientes y otras partes.

Otras áreas de uso intensivo son la investigación jurídica preliminar, donde los LLMs pueden identificar casos y normativas relevantes, y el resumen de grandes volúmenes de texto, como expedientes judiciales o extensos contratos.

Esta rápida integración tecnológica ha dado lugar a una paradoja.

Por un lado, existe un marcado optimismo sobre las ganancias de productividad y la posibilidad de liberar tiempo para tareas de mayor valor estratégico. Por otro, comienzan a consolidarse serias preocupaciones sobre la fiabilidad de los resultados, la ética en su aplicación y, de manera crucial, la seguridad de los datos confidenciales de los clientes.

Esta dualidad entre la promesa de eficiencia y el temor al riesgo define el momento actual y subraya la necesidad de un análisis jurídico riguroso.

2.1. Plataformas más utilizadas por los operadores jurídicos.

Entre los LLMs de creación de texto más utilizados en la actualidad se encuentran ChatGPT, Gemini y las herramientas desarrolladas por Meta, todas ellas desempeñando un papel destacado en el avance de la IA aplicada a diversos campos, incluyendo –últimamente– el judicial.

ChatGPT es un producto de OpenAI, una empresa con sede en San Francisco, Estados Unidos. Este modelo pionero (basado inicialmente en GPT-3.5 y luego GPT-4) ganó popularidad a fines de 2022 debido a su capacidad de generar respuestas detalladas y coherentes a prácticamente cualquier consulta. Desde proporcionar asistencia en tareas cotidianas hasta ayudar a empresas a mejorar su atención al cliente, ChatGPT[4]  se convirtió en una herramienta esencial para millones de usuarios. Su versatilidad le permite adaptarse a diferentes necesidades, ya sea respondiendo preguntas, apoyando procesos educativos o sirviendo como base para desarrollos de asistentes virtuales especializados.[5]

Gemini es la familia de modelos de lenguaje de Google DeepMind (división de Alphabet/Google dedicada a la investigación en IA, con sede también en EE. UU.). Anunciado a fines de 2023, Gemini se concibió como sucesor de los modelos previos de Google (LaMDA, PaLM 2) y fue presentado explícitamente como competidor de GPT-4. A diferencia de ChatGPT (enfocado principalmente en texto), Gemini nació con un enfoque multimodal, buscando procesar no solo lenguaje sino también imágenes y otros tipos de datos.

Google ha aprovechado su vasta infraestructura tecnológica para hacer de Gemini una herramienta poderosa, integrándola en servicios como su chatbot Bard (el cual fue actualizado con la tecnología de Gemini) y en aplicaciones de búsqueda y productividad. De hecho, Google integró funciones generativas en su buscador (la Search Generative Experience) y en Google Workspace (funciones de redacción asistida en Gmail, Documentos, etc.), todo ello potenciado por LLMs.[6]

Por su parte, Meta, radicada en Menlo Park, California, ha desarrollado sus propios modelos de lenguaje de gran escala, destacándose por una estrategia de apertura y accesibilidad. En 2023 lanzó LLaMA (y su sucesor LLaMA 2) como modelos de código abierto para la comunidad investigadora, y hacia fines de ese año anunció la integración de Meta AI Assistant –un asistente conversacional basado en LLM– directamente en sus aplicaciones cotidianas como WhatsApp, Instagram, Facebook y Messenger.

Meta ha apostado por interfaces familiares (por ejemplo, un icono dentro del chat de WhatsApp para “hablar con la IA”) que permiten a los usuarios interactuar con estas herramientas de manera intuitiva. El asistente de Meta es capaz de responder preguntas en tiempo real dentro de los chats, proporcionar recomendaciones (por ejemplo, sugerir restaurantes o destinos turísticos), ayudar con estudios o incluso generar imágenes a pedido del usuario (vía un modelo generativo de imágenes integrado). Esta estrategia de llevar la IA generativa al día a día de las personas a través de plataformas sociales ha ampliado enormemente el alcance de la IA.[7]

A este ecosistema se suma Claude, la serie de modelos desarrollada por Anthropic. Claude 2 —presentado a mediados de 2024— se distingue por una ventana de contexto sustancialmente mayor (hasta 200 000 tokens en su versión Opus) y por una política de alineación centrada en la seguridad y el control de sesgos. Anthropic promueve a Claude como un asistente orientado a empresas que requieren respuestas extensas, capacidad de manejar documentos voluminosos y garantías reforzadas de confiabilidad. Su API ha sido adoptada por varios proveedores de soluciones jurídicas para tareas de resumen de expedientes, generación de borradores y análisis de contratos.

2.2. Algunas aclaraciones sobre las LLM.

Ahora bien, pese a sus logros impresionantes, es importante señalar que estos modelos, al día de hoy, carecen de un entendimiento genuinamente “humano” del mundo. Su funcionamiento se basa en correlaciones estadísticas, no en raciocinio consciente. En palabras llanas: un LLM no “sabe” en el sentido humano, sino que más bien “predice”.

Como señala el especialista Andrew Ng[8], modelos como ChatGPT “solo han aprendido a predecir la próxima palabra”, quedando aún lejos de una inteligencia artificial general autónoma.

Esto implica que pueden cometer errores factuales o lógicos, presentando información incorrecta con total aplomo y verosimilitud lingüística.

A este fenómeno se le denomina “alucinación” de la IA: el sistema inventa respuestas que suenan convincentes, pero que son falsas o inexactas. El modelo no miente deliberadamente; simplemente, si no encuentra datos suficientes, rellena los vacíos con contenido plausible estadísticamente.

Estas alucinaciones representan un riesgo, especialmente en contextos profesionales: una IA puede generar referencias jurídicas que no existen, diagnosticar una enfermedad imaginaria o dar instrucciones técnicas erróneas, si no es cuidadosamente supervisada en dos momentos básicos de la interacción humana: in put y out put.

3. Riegos en el uso de IAGEN.

Aclarado lo anterior, haremos mención a los riesgos que son necesarios tener en cuenta al momento de utilizar IAGen en la profesional legal.

Falta de transparencia en el entrenamiento de los modelos: la falta de transparencia en el entrenamiento de los LLMs implica que, a menudo, no se sabe exactamente cómo se ha entrenado el modelo ni qué datos se han utilizado. Esta opacidad puede generar desconfianza, ya que no se puede garantizar que la información que el modelo proporcione sea imparcial o adecuada para el contexto específico de un proceso judicial.[9]

Imposibilidad de auditar: al dia de hoy existe una imposibilidad de auditar los resultados y el proceso que lleva a ellos. Estos modelos de lenguaje están construidos sobre millones de parámetros y, a menudo, es difícil desentrañar cómo un determinado input lleva a un output específico.[10]

Esto se debe a que los modelos de lenguaje funcionan a través de complejas redes neuronales y algoritmos de aprendizaje profundo que procesan enormes cantidades de datos, lo cual dificulta enormemente trazar el razonamiento exacto que se haya efectuado. La llamada «caja negra» de la inteligencia artificial implica que incluso los desarrolladores de estos sistemas no pueden explicar de manera directa cómo se formó una respuesta específica a partir de un conjunto de entradas.

En el contexto actual, esta falta de transparencia representa un gran obstáculo. Sería extremadamente difícil para un juez argentino pedirle a OpenAI o cualquier otra empresa desarrolladora una auditoría exhaustiva sobre el razonamiento realizado por la plataforma ChatGPT, especialmente en situaciones donde se ha utilizado la información proporcionada por la IA para fundamentar una escrito judicial.

Lo anterior se debe tanto a las complejidades técnicas inherentes a estos modelos como a las limitaciones legales y jurisdiccionales que existen entre los tribunales nacionales y empresas con sede en otros países.

Entonces, dicha incapacidad para auditar adecuadamente estas herramientas supone un riesgo considerable, ya que impide el control y la validación del contenido tanto por el juez como por los profesionales del derecho, lo que podría comprometer la equidad en las decisiones a tomarse.

Variabilidad de los resultados: debido a su naturaleza probabilística y a los procesos internos de generación de texto, los LLMs pueden producir respuestas diferentes ante las mismas consultas en momentos distintos o en diferentes contextos. Esta variabilidad puede afectar la consistencia y confiabilidad de la información obtenida.

En primer lugar, en base a que el entrenamiento de la LLM es continuo en el tiempo. La información utilizada para entrenar la IA no se actualiza automáticamente, lo que puede generar respuestas desactualizadas.

En segundo lugar, en base al contexto brindado en la instrucción.  Las respuestas de herramientas de inteligencia artificial como es el caso de ChatGPT varían según el contexto proporcionado y las instrucciones específicas. Por ejemplo, la plataforma arroja respuestas distintas si se le informa que la consulta proviene de un juez, un estudiante o si no se proporciona contexto. Esta sensibilidad al contexto, según el fallo, se observó en una diligencia donde las respuestas de ChatGPT cambiaron al modificar la información de fondo proporcionada.

Riesgo de generar alucinaciones: otro aspecto crítico es el riesgo de generar alucinaciones, este término se refiere a la tendencia de los modelos a generar información que parece plausible pero que es completamente incorrecta o inventada. Las alucinaciones pueden tener consecuencias graves, especialmente si el juez o los abogados no tienen los medios para verificar la veracidad de la información proporcionada por el modelo.[11]

No son pocos los fallos que se han visto a la fecha donde se sancionan abogados que citan normativa, jurisprudencia o doctrina generada por una LLM y que luego es verificada como inexistente. Mencionaremos algunos en los acápites siguientes.

Presencia de sesgos inherentes: los LLMs están sujetos a los sesgos presentes en los datos con los cuales son entrenados. Los LLMs son entrenados en grandes volúmenes de datos que incluyen información proveniente de diversas fuentes, lo cual implica que los sesgos presentes en esos datos se trasladan al modelo.[12]

 Estos sesgos pueden estar relacionados con prejuicios raciales, de género, económicos o culturales, y se trasladan a los resultados proporcionados por la IA.

Lo anterior podría influir negativamente en la objetividad del proceso judicial, si los profesionales no son conscientes de estos sesgos y no aplican un filtro crítico a la información generada por la herramienta.

Protección de datos personales: finalmente existe un último tema crítico que se debe considerar. Nos referimos al cuidado necesario al ingresar datos sensibles en estas herramientas.[13]

Los LLMs funcionan procesando grandes cantidades de información, lo cual implica que cualquier contenido introducido en el sistema puede potencialmente ser utilizada para mejorar futuros resultados por parte de las empresas privadas titulares de las mismas, si no se toman los recaudos necesarios.

4. Las alucinaciones.

Un riesgo inherente y particularmente peligroso en el uso de la IAGEN en el ámbito del derecho es el fenómeno conocido como «alucinación».

Lejos de ser un delirio en sentido clínico, una alucinación de la IA se produce cuando el modelo genera información que es factualmente incorrecta, no verificable o directamente inventada, pero la presenta con la misma sintaxis pulcra y el mismo tono de autoridad que usaría para exponer datos verídicos.

Esta característica, derivada de su naturaleza probabilística, representa una de las mayores amenazas para la praxis legal.

La raíz del problema no es la malicia, sino la matemática. Un LLM no «conoce» el derecho; predice secuencias de texto. Si un operador le solicita jurisprudencia para un caso difícil, y su vasto corpus de datos no contiene un precedente directo, el modelo no responderá «no lo sé». En su lugar, construirá la respuesta que sea estadísticamente más plausible, ensamblando nombres de partes, fechas, números de expediente y extractos de supuestas sentencias que, aunque estilísticamente perfectos, carecen de toda base en la realidad.

Existen factores de riesgo que disparan alucinaciones: prompts genéricos (“dame cinco fallos”), ausencia de jurisdicción y fuero, pedidos en idioma distinto del original, consultas sobre derecho muy reciente o muy local, y escenarios con presión de tiempo sin acceso a navegación o a un corpus jurídico controlado. También aumentan el riesgo las solicitudes que exigen volumen (“diez precedentes”) o “citas exactas” cuando el modelo no tiene cómo recuperarlas.

Pues bien, la manifestación más documentada de este fenómeno es la invención de jurisprudencia.

Un LLM es capaz de generar citas completas de fallos ficticios, con nombres de partes verosímiles («Gómez c/ Transportes del Sur S.A. sobre despido indirecto»), tribunales, fechas y hasta números de publicación en repertorios conocidos. El texto de estos «fallos» suele ser coherente y argumentalmente sólido, lo que agrava el engaño, pues a simple vista parece un recurso jurídico valioso y pertinente.

No menos grave es la fabricación o tergiversación de normativa.

Un modelo de IAGEN puede inventar un artículo dentro de una ley, citar incorrectamente el contenido de una norma vigente o, de manera aún más sutil, presentar como derecho positivo una ley que fue derogada hace años. Para un profesional que no tiene la totalidad del plexo normativo memorizado, una referencia a un «Decreto 345/98» puede parecer lo suficientemente plausible como para no ser verificada de inmediato, introduciendo un error grave en la fundamentación de un escrito.

Este fenómeno crea lo que podríamos denominar la «trampa de la verosimilitud semántica».

Las alucinaciones jurídicas no suelen ser disparatadas; por el contrario, están diseñadas para encajar perfectamente en el contexto de la consulta. Si un abogado busca argumentos sobre la interrupción de la prescripción, la IA puede llegar a inventar un fallo que trata precisamente sobre eso.

Esta pertinencia temática es lo que vuelve al engaño tan efectivo y a la verificación humana tan indispensable.

5. Responsabilidad del operador jurídico en el uso de IA

Ante la verificación de un actuar incorrecto por parte del profesional en el uso de IAGen, ¿Cuál sería el marco normativo aplicable para el caso en Argentina? La situación regulatoria de la IA en Argentina ha sido caracterizada como fragmentada, inercial y reactiva, carente de una estrategia nacional unificada.

Desde 2018, se han presentado en el Congreso Nacional diversos proyectos de ley con objetivos variados: la creación de consejos federales de IA, la modificación de la Ley N° 25.467 de Ciencia, Tecnología e Innovación para incorporar principios éticos y registros obligatorios, y el establecimiento de regímenes de control inspirados en modelos internacionales.

Sin embargo, hasta la fecha, ninguna de estas iniciativas ha logrado consolidarse en una ley integral.

Ante este vacío, la regulación de la responsabilidad del abogado por el uso de IA debe buscarse en el derecho común y en la normativa especial preexistente. Las siguientes disposiciones resultan de aplicación directa y constituyen el fundamento del deber de doble control.

5.1. Marco normativo.

5.1.1. Código Civil y Comercial de la Nación (CCCN).

Artículo 1725 – Valoración de la conducta: esta norma es la piedra angular del sistema. Establece que «cuanto mayor sea el deber de obrar con prudencia y pleno conocimiento de las cosas, mayor es la diligencia exigible al agente y la valoración de la previsibilidad de las consecuencias». Al ser el abogado un profesional con conocimientos especializados, se le exige un estándar de diligencia agravado. Se argumentará que este estándar impone el deber de verificar exhaustivamente los resultados de una herramienta que se sabe falible[14].

Artículo 1768 – Profesiones liberales: clarifica que la responsabilidad del profesional liberal es, en principio, subjetiva (basada en la culpa) y se rige por las reglas de las obligaciones de hacer. Esto significa que el abogado no promete un resultado exitoso, pero sí se compromete a emplear todos los medios idóneos y a actuar con la máxima diligencia posible, lo cual incluye el control sobre las herramientas que utiliza.

5.1.2. Ley 25.326 de Protección de Datos Personales.

El deber de secreto profesional encuentra un correlato directo en esta ley. El artículo 10 impone un «deber de confidencialidad» a quienes tratan datos personales, obligación que subsiste incluso después de finalizada la relación. Introducir información confidencial de un cliente en un LLM público sin su consentimiento informado constituye una clara violación de esta norma.

5.1.3. Códigos de Ética Profesional.

Los códigos deontológicos, como el del Colegio Público de la Abogacía de la Capital Federal (CPACF), consagran deberes de actuar con probidad, lealtad, y celo en la defensa de los intereses del cliente.[15] La «Guía para el uso de Inteligencia Artificial» emitida por el CPACF ya advierte que la responsabilidad final es siempre del abogado y que la IA «puede sugerir, nunca decidir».[16]

5.2. Análisis.

Pues bien, el régimen general de responsabilidad para las profesiones liberales, establecido en el artículo 1768 del CCCN, es de carácter subjetivo, basado en la culpa[17]. La omisión del doble control configura claramente la culpa profesional en sus tres manifestaciones clásicas:

Negligencia: al omitir la verificación de los datos, citas y razonamientos generados por la IA, el abogado incumple un deber de cuidado elemental.

Imprudencia: al utilizar los resultados de la IA en un escrito judicial, un contrato o un asesoramiento al cliente sin haberlos contrastado previamente con fuentes fiables, el profesional actúa de manera temeraria.

Impericia: al emplear una herramienta tecnológica compleja sin comprender sus limitaciones fundamentales, sus riesgos inherentes y los protocolos necesarios para su uso seguro, el abogado demuestra una falta de aptitud o conocimiento técnico exigible para su profesión en el contexto actual.

Si bien la obligación del abogado es de medios[18] y no de resultado —es decir, se compromete a actuar con diligencia, no a ganar el caso—, la doctrina es conteste en que el estándar de diligencia para poner esos medios se eleva al incorporar herramientas automatizadas que, si bien pueden aumentar la eficiencia, también introducen nuevos y graves vectores de riesgo.

En este sentido la guía de uso de herramientas de IA confeccionada por el CPACF[19] establece » Partimos de la base que la IA es sólo un instrumento, y nunca debe ser considerada como un fin en sí mismo, razón por la cual la IA no exime de responsabilidad, el abogado sigue siendo el responsable último del contenido que presenta o firma sea o no generado por IA. Recuerde que la IA no decide y sólo el criterio humano es el que evalúa y adopta la decisión final, conforme a la ley y la ética, razón por la cual la IA nunca reemplaza el análisis jurídico, pues si bien puede considerarse una ayuda de importancia para la profesión, es incapaz de interpretar normas por sí sola y mucho menos decidir qué es lo justo».

El ordenamiento jurídico argentino impone a toda persona un deber general de prevención del daño. El artículo 1710 del Código Civil y Comercial de la Nación (CCyCN) establece que “… Toda persona tiene el deber, en cuanto de ella dependa, de: a) evitar causar un daño no justificado; b) adoptar, de buena fe y conforme a las circunstancias, las medidas razonables para evitar que se produzca un daño, o disminuir su magnitud; […] c) no agravar el daño, si ya se produjo”[20]. Esta norma consagra la función preventiva de la responsabilidad civil[21], obligando a anticiparse a los riesgos y a tomar medidas proactivas para impedir daños o atenuar sus consecuencias[22].

Aplicado al uso de IA generativa por operadores jurídicos, el deber de prevención implica extremar la diligencia en el manejo de estas herramientas[23]. Por un lado, el profesional debe evitar causar un daño no justificado (por ejemplo, perjuicios a un cliente por información errónea suministrada por la IA). Por otro, debe adoptar medidas razonables para prevenir resultados lesivos previsibles, lo cual se traduce en verificar la confiabilidad de las respuestas de la IA antes de actuar en base a ellas.

Si a pesar de las cautelas iniciales se produce algún error o daño, subsiste la obligación de mitigar su magnitud y no agravar las consecuencias. En suma, el marco normativo argentino ya impone una obligación activa de seguridad y prudencia que es plenamente aplicable al uso de tecnologías de IA: el operador jurídico tiene el deber de conducirse con la diligencia de un buen profesional técnico, anticipando riesgos y evitando actuaciones negligentes con estas herramientas innovadoras[24].

Cabe recordar que el incumplimiento del deber general de prevención puede acarrear responsabilidades civiles y disciplinarias. En sede resarcitoria, el operador jurídico responderá por los perjuicios causados cuando haya mediado negligencia, imprudencia o impericia en el uso de sistemas de IA, conforme al estándar de diligencia agravado del art. 1725 CCyCN.

Asimismo, el ordenamiento prevé tutela ex ante: la acción preventiva del art. 1711 CCyCN —que no exige factor de atribución— habilita al juez a disponer, según el art. 1713, medidas de cese o inhibición y obligaciones de dar, hacer o no hacer, aplicando el criterio de menor sacrificio posible, cuando una conducta antijurídica torna previsible un daño inminente.

En el contexto de la IA, ello se traduce en instaurar protocolos internos, doble verificación y buenas prácticas antes de emplear estas herramientas, a fin de minimizar y gestionar riesgos.

Si bien algunos autores han explorado la vía del art. 1757 CCyCN (‘actividades riesgosas’) para el uso de IA en la praxis legal, el art. 1768 excluye expresamente a los profesionales liberales de dicho régimen, salvo daño proveniente del vicio de una cosa empleada en la prestación. Dado que los LLMs constituyen típicamente bienes inmateriales (no ‘cosas’), la hipótesis del ‘vicio de la cosa’ sólo sería pertinente frente a hardware u otros objetos materiales defectuosos.

En consecuencia, el uso erróneo de IA por abogados se encuadra, prima facie, en responsabilidad subjetiva (culpa) por falta de diligencia —especialmente si se omite el doble control-.

Es así como el deber de doble control encuentra su anclaje principal en el estándar de diligencia agravada exigido al profesional del derecho por el artículo 1725 del CCCN. La IA es una herramienta, un medio para un fin, pero el abogado es y será siempre el responsable final del producto que presenta ante un tribunal, un cliente o un tercero. La delegación de tareas cognitivas en una máquina no implica una delegación de la responsabilidad.

Como han advertido diversas asociaciones profesionales, el abogado no puede abdicar de su juicio crítico ni de su deber de supervisión. Utilizar los resultados de un LLM sin verificarlos equivale a firmar un escrito redactado por un tercero en quien no se puede confiar, un acto de manifiesta negligencia profesional.

Esta idea no es novedosa, sino la manifestación contemporánea del deber de diligencia tradicional en el contexto de las nuevas tecnologías.

Históricamente, un abogado diligente siempre ha verificado las citas en un repertorio de jurisprudencia, consultado el texto actualizado de una ley y revisado críticamente el trabajo de un asistente o pasante.

El uso de un LLM es análogo a consultar a un «pasante digital» que es extraordinariamente rápido y elocuente, pero también notoriamente poco fiable, propenso a la invención y carente de criterio jurídico. Por lo tanto, el deber de verificar exhaustivamente el trabajo de este «pasante digital» es una extensión lógica y directa del deber de diligencia preexistente.

No se necesita una nueva ley para exigir el doble control; la obligación ya reside en el corazón del artículo 1725 del CCCN. El cambio no es normativo, sino fáctico: la naturaleza de la herramienta exige que esta verificación sea más rigurosa y sistemática que nunca.

En otro orden, más allá de la norma jurídica, la necesidad de verificación se impone por la propia naturaleza de la tecnología.

Como se explicó anteriormente, los LLMs son sistemas probabilísticos que generan texto plausible, no fáctico. Su arquitectura no les permite distinguir entre verdad y falsedad. Por lo tanto, desde un punto de vista puramente lógico, cualquier afirmación de hecho, cita o razonamiento generado por un LLM debe ser tratado como una hipótesis que requiere una validación externa e independiente. Aceptar sus resultados como ciertos sin verificación es un error epistemológico fundamental.

5.3. Otras pautas aplicables a la responsabilidad del profesional.

Además de la responsabilidad civil por daños y perjuicios, el uso indebido de la IA puede acarrear otras consecuencias:

Responsabilidad administrativa: la violación del deber de confidencialidad al introducir datos de clientes en LLMs públicos puede dar lugar a sanciones por parte de la Agencia de Acceso a la Información Pública, en el marco de la Ley 25.326 de Protección de Datos Personales.

Responsabilidad deontológica: los colegios profesionales pueden iniciar procesos disciplinarios por la violación de los deberes de diligencia, competencia y secreto profesional, que pueden resultar en sanciones que van desde el apercibimiento hasta la suspensión de la matrícula.

6. Solución: el doble control humano especializado (SICURA-JUS).

Entones, es fundamental reflexionar sobre el desafío que presentan, para los operadores jurídicos, la utilización de esta herramienta y de los datos generados.

Los sistemas de aprendizaje automatizado y los modelos decisionales se entrenan con los datos existentes y con ellos, generan textos bastantes coherente, incluso son capaces de reconocer el sentido de las palabras, y dar respuestas, no ya como lo haría un buscador, sino respuestas elaboradas, aparentemente coherentes y útiles.

El modelo no tiene conocimiento del mundo sino simplemente del que aglutina las redes neuronales internas de los millones y millones de datos introducidos, con todo lo bueno y todo lo malo, sin filtros, o tal vez con algún filtro ex post. La IA generativa tiene la capacidad procesar alto volumen de datos y elaborar contenido nuevo, original, coherente y contextualizado de manera rápida y relevante.

Es un generador de textos que encadena datos desde una perspectiva probabilística. También es un asistente que puede resultar de herramienta útil en el estudio jurídico, tribunales o en la universidad.

Sin embargo, es cierto es que esta herramienta no fue diseñada con fines jurídicos ni fue pensada y desarrollada por un grupo interdisciplinario de profesionales u operadores del derecho. Por ello, la utilización de la IA generativa en entornos jurídicos nos desafía y posiciona frente a una gran responsabilidad en el desarrollo de aptitudes, competencias y habilidades en operadores jurídicos para analizar los desafíos ex -ante y ex – post.

La lógica consecuencial que se busca es la coherencia de las respuestas de la IA generativa, las que dependen, básicamente, en la forma en que se formula la pregunta. Si el prompt o la instrucción no está bien formulada es posible que la respuesta no sea adecuada o no cumpla con las expectativas del requerimiento. En este escenario que se nos presenta nos preguntamos ¿Cuáles son entonces las implicancias negativas de esta herramienta tan poderosa para los operadores jurídicos?.

La evolución de la IA de nivel inicial nos enfrenta, incluso desde el discurso de sus propios creadores, a dilemas éticos y sociales, jurídicos, educativos y culturales, pero principalmente a la posible generación y difusión de contenido falso o manipulado, a las alucinaciones o dificultades de manejo de datos subyacentes con la consecuente generación como resultado, de datos sesgados, falsos, erróneos, virales y posiblemente dañinos.

Lo cierto es que estas herramientas no sustituyen el pensamiento crítico, la lógica jurídica relacional y la argumentación circunstancial del caso que es propia del operador jurídico, sino que requieren un doble esfuerzo o interacción más especializada.

La IAGEN nos desafía constantemente a elaborar la pregunta correcta para obtener la respuesta satisfactoria, a interpretar el texto generado y cotejarlo con la realidad. Nos desafía como operadores jurídicos. ¿Estamos dispuestos a invertir nuestro tiempo en discernir lo falso de lo verdadero? ¿Estamos dispuestos a asumir nuestro rol de custodios de la verdad y del pensamiento crítico?. El modelo no tiene conocimiento del mundo sino el que aglutina las redes neuronales internas de los millones y millones de datos introducidos, con todo lo bueno y todo lo malo, no hay forma de filtrarlo ex ante. Por ello, es fundamental resaltar la necesaria intervención humana ex – ante y ex – post.

Esta necesidad de supervisión humana ha sido conceptualizada en el campo de la ingeniería y la ética de la IA bajo la doctrina del «Human-in-the-Loop» (HITL). El paradigma postula que en sistemas de IA que operan en dominios de alto riesgo —como la medicina, la aviación o la justicia—, la intervención humana significativa no es un obstáculo para la eficiencia, sino un componente esencial para la seguridad, la fiabilidad y la legitimidad del sistema.

La práctica del derecho es, por definición, un dominio de alto riesgo, ya que sus resultados afectan directamente los derechos, el patrimonio y la libertad de las personas. El doble control es la materialización práctica del principio HITL en el ejercicio de la abogacía. En consecuencia, afirmamos que la intervención humana especializada debe ser imprescindible en dos momentos clave del proceso de automatización. En el input y en el output de los datos que son facilitados al modelo y en el resultado de su procesamiento matemático.

Tomando el caso de sistemas de IA generativa como puede ser ChatGPT o Gémini, la intervención especializada es condición sine que non del proceso. Lejos del temor al reemplazo, la mayor intervención del jurista especializado, es y será la piedra fundamental en la construcción de cualquier modelo de lenguaje.

Por ello, proponemos un doble sistema de intervención y control jurídico para el uso responsable de algoritmos (SICURA-JUS) que nos permita intervenir en los dos momentos fundamentales a enunciarse.

En este sentido afirma Faliero «… resulta claro que con Prompting legal/Legal Prompting podemos obtener mejores respuestas de la IA Generativa/IAGen, si otorgamos en las instrucciones mayor contexto, mayor claridad, mayor personalización, mayores especificaciones, mayor cantidad de información relevante, etc. (¿Casi la respuesta buscada?)»[25]. Con esto, queremos destacar que las instrucciones que se introducen en el sistema deben ser claras, contextualizadas y creadas de tal forma por el operador jurídico que permitan una devolución precisa y correcta a lo que queremos lograr.

Esto podría significar que en definitiva la mayor especificidad de la instrucción nos exige más diligencia, tiempo y conocimiento. Y si, es verdad, para utilizar la herramienta de forma responsable es necesario cualificar la instrucción, pero de esta forma, la devolución no será ni más ni menos que una respuesta inducida por una pregunta humana inteligente.

6.1. Control de los ingresos (inputs).

 Pues bien, la primera fase de control en el modelo que proponemos (SICURA-JUS) se centra en el input o la instrucción que el operador jurídico introduce en el sistema.

Sin embargo, este control no se limita a una función meramente preventiva, como evitar la carga de datos sensibles, sino que abarca una dimensión proactiva y constructiva: la pericia en la formulación de instrucciones.

La calidad, precisión y profundidad del resultado generado por una IA generativa es directamente proporcional a la calidad, precisión y profundidad del prompt que lo origina. Por tanto, la habilidad para dialogar eficazmente con el modelo se convierte en la primera manifestación de la diligencia profesional en la era digital. El acto de redactar un prompt debe dejar de ser visto como una simple pregunta a un buscador para ser entendido como un acto jurídico-técnico de instrucción.

Cada instrucción es un vector que guía al modelo a través de su vasto espacio de datos probabilísticos. Un vector mal definido o ambiguo inevitablemente conducirá a un resultado impreciso, sesgado o, en el peor de los casos, a una «alucinación» jurídica.

El pilar fundamental de un prompt legal efectivo es la claridad y precisión terminológica. El lenguaje jurídico es, por naturaleza, técnico y específico. El operador debe utilizar términos jurídicos con rigor, evitando la ambigüedad y el lenguaje coloquial que puedan ser interpretados de múltiples maneras por el modelo. Es crucial recordar que la IA no «comprende» en sentido humano, sino que predice la siguiente palabra más probable.

Inseparable de la precisión es la contextualización. Una norma o un concepto jurídico carece de sentido si no se lo enmarca en un contexto fáctico, normativo y jurisdiccional adecuado. Un prompt robusto debe proveer este marco. Esto implica especificar la jurisdicción aplicable (v.g., federal, provincial), el fuero (civil, comercial, laboral), la normativa específica de referencia y un resumen sucinto pero completo de los hechos relevantes del caso. Sin este contexto, el modelo podría ofrecer una respuesta genérica, basada en derecho comparado o en doctrina no aplicable al caso concreto.

Una técnica avanzada y de alta efectividad es la asignación de un rol o «persona» a la IA dentro de la propia instrucción. Al iniciar un prompt con una frase como «Actúa como un abogado especialista en derecho administrativo argentino con 20 años de experiencia», se condiciona al modelo para que restrinja sus respuestas al estilo, tono y corpus de conocimiento asociado a dicho perfil.

Esta simple directiva incrementa notablemente la relevancia y la calidad técnica del texto generado, filtrando información irrelevante y adoptando un enfoque más profesional y adecuado.

Asimismo, la estructura de la instrucción es determinante. En lugar de formular una única pregunta extensa, es preferible desglosar la requisitoria en partes lógicas. Se puede indicar explícitamente el formato deseado para la respuesta, como por ejemplo: «Elabora un borrador de dictamen que contenga: I. Hechos, II. Cuestión a resolver, III. Normativa aplicable, IV. Análisis del caso, V. Conclusión». Esta técnica, conocida como zero-shot chain of thought, guía al modelo para que razone paso a paso, mejorando la coherencia y la lógica interna del resultado. Con esto queremos remarcar que la formulación de prompts no es un acto único, sino un proceso dialógico e iterativo.

Luego, el primer resultado de la IA debe ser considerado un borrador o punto de partida.

El operador jurídico debe analizar críticamente esa respuesta, identificar sus carencias o imprecisiones y, en consecuencia, refinar su prompt inicial con nuevas instrucciones, pedidos de aclaración o la adición de más contexto. Esta interacción continua es donde reside el verdadero control humano, transformando a la IA de un oráculo a una herramienta de asistencia colaborativa.

El primer control del sistema SICURA-JUS es eminentemente activo y demanda una nueva competencia profesional. La construcción de un prompt legal correcto es la piedra angular de un uso responsable de la IA generativa, la primera y más importante barrera de contención contra la generación de contenido erróneo y la garantía inicial de que la tecnología operará como un verdadero asistente al servicio del criterio experto del jurista, y no como su sustituto azaroso.

6.2. Control de los resultados (outputs).

La segunda etapa crítica es la revisión exhaustiva de la respuesta generada por la IA antes de utilizarla o incorporarla a un trabajo jurídico. Aunque el output producido por un modelo de lenguaje como ChatGPT puede parecer pulido y coherente, no es más que una secuencia de texto creada estadísticamente, por lo cual puede contener errores sutiles o falsedades.

Por ello, siempre debe ser verificado y complementado por el profesional humano, quien conserva la responsabilidad última sobre cualquier documento o argumento empleado.

Este “doble control” de salida exige constatar la veracidad y pertinencia de cada dato proporcionado por la IA, reduciendo significativamente el riesgo de incorporar información inexacta o engañosa en la labor jurídica. En la práctica, esto implica corroborar de manera independiente todas las citas, referencias normativas o conclusiones que la IA sugiera.

Por tanto, el operador jurídico debe asumir una postura activa de editor y revisor, tras recibir una respuesta inicial del modelo, el profesional debería realizar un segundo –e incluso tercer– cotejo de los datos con fuentes confiables. Este enfoque de verificación múltiple es especialmente crítico cuando la información se utilizará en presentaciones ante tribunales, contratos u otros documentos formales.

Solo después de este control humano riguroso, podría darse por válido el output de la IA. En palabras de un reciente trabajo de Pablo Salas[26], «… la IA debe funcionar como un “copiloto” y nunca en piloto automático, pues “los resultados deben ser validados con criterio profesional humano… ”.

Esta segunda etapa de intervención es aún más compleja e importante ya que se trata de una función de responsabilidad de control y supervisión de alucinaciones, edición y constatación con las fuentes fidedignas que puede llegar a consumir o superar ampliamente todo el tiempo y esfuerzo que ahorramos en su generación[27]. Sin embargo, la capacidad única de procesamiento de datos que tiene el modelo representa una ventaja para el jurista ya que puede encontrarse con perspectivas, legislaciones, modelos, doctrina, jurisprudencia o argumentos que no ha tenido en cuenta a la hora de la resolución del caso, y que con la debida intervención especializada puede coadyuvar a la argumentación humana.

7. Jurisprudencia comparada sobre responsabilidad del profesional.

Veamos algunos casos de jurisprudencia comparada donde se han suscitado estas cuestiones y como fueron resueltas.

7.1. Mata v. Avianca (2023, EE.UU.)

El caso Mata v. Avianca, Inc. en la corte federal de Nueva York se volvió famoso por ilustrar los riesgos de usar ChatGPT sin verificación en escritos judiciales.

En febrero de 2022 Roberto Mata demandó a Avianca por lesiones en un vuelo, y sus abogados utilizaron ChatGPT para redactar un escrito de oposición al desistimiento que incluía múltiples citas de jurisprudencia inexistente.

Los supuestos casos citados —que involucraban aerolíneas ficticias y citas textuales falsas— fueron detectados cuando la defensa de Avianca y el juez P. Kevin Castel no pudieron encontrar esas referencias en ningún repertorio legal.

Ante ello, el juez ordenó a los abogados de Mata presentar copias de las sentencias citadas; los profesionales entregaron documentos falsos generados por ChatGPT, convencidos por la herramienta de que las sentencias “sí existían” en bases de datos como LexisNexis o Westlaw.

En una audiencia en mayo de 2023, los abogados admitieron que ChatGPT había producido las referencias. El juez Castel calificó el análisis legal presentado como “disparatado” y señaló incoherencias obvias en los resúmenes de las sentencias ficticias.

Determinó que los abogados actuaron con mala fe subjetiva al no verificar sus fuentes y luego mantener las falsedades incluso después de ser cuestionados.

El 22 de junio de 2023, el juez desestimó la demanda por prescripción y emitió una sanción de $5.000 dólares contra los abogados de Mata, bajo la regla 11 de procedimiento civil. Además, ordenó que dentro de 14 días enviaran cartas adjuntando la sentencia sancionatoria a Mata (su propio cliente) y a cada juez cuyo nombre aparecía en las falsas sentencias creadas por la IA.

El juez Castel enfatizó que no hay nada inherentemente impropio en usar herramientas de IA fiables, pero recalcó que las normas existentes imponen a los abogados un rol de guardianes de la veracidad de sus escritos.

En este caso, consideró que los profesionales “abandonaron sus responsabilidades” al presentar opiniones judiciales inexistentes con citas falsas generadas por ChatGPT y luego persistir en defenderlas aun cuando órdenes judiciales ponían en duda su autenticidad.

Según el tribunal, esa conducta causó múltiples perjuicios: hizo perder tiempo y dinero a la parte contraria en exponer el engaño; desperdició recursos judiciales; privó al cliente de argumentos basados en precedentes reales; dañó la reputación de los abogados y del sistema judicial; e incluso podría fomentar desconfianza futura en la autenticidad de decisiones reales.

Este caso se ha convertido en un hito emblemático sobre el uso de IA en el derecho. Fue ampliamente difundido como advertencia: expertos señalaron que los abogados no pueden confiar ciegamente en la exactitud o validez del contenido generado por herramientas de IA.

A raíz de episodios como Mata v. Avianca, la Asociación de Abogados de EE.UU. (ABA) emitió en 2024 una opinión de ética profesional específica sobre el uso de IA generativa (GAI) por abogados, recordando que las obligaciones de competencia, diligencia y veracidad requieren verificar cualquier información provista por estas herramientas

7.2. Prakazrel “Pras” Michel vs. Estados Unidos (2023–2024, EE.UU.)

El rapero Prakazrel “Pras” Michel (miembro del grupo Fugees) enfrentó en 2023 un sonado juicio penal en Washington D.C. por cargos de conspiración para influir ilegalmente en el gobierno de EE.UU. con fondos extranjeros.

Fue declarado culpable en abril de 2023 por múltiples delitos relacionados con contribuciones políticas encubiertas, manipulación de testigos y cabildeo extranjero no registrado, vinculados al financista malasio Jho Low.

Sin embargo, tras el veredicto condenatorio, salió a la luz que su abogado defensor principal, David Kenner, había utilizado un programa de IA generativa experimental (EyeLevel.AI) para ayudar a redactar su alegato final ante el jurado. Michel, con un nuevo equipo legal, alegó que esa asistencia de IA derivó en un cierre de juicio incoherente y deficiente, vulnerando su derecho a una defensa efectiva.

Según el escrito de solicitud de nuevo juicio presentado en octubre de 2023 por los nuevos abogados de Michel (firma ArentFox Schiff), el alegato de clausura generado en parte por IA fue un “rotundo fracaso”.

Afirmaron que el abogado Kenner, confiando en la herramienta de IA, ofreció argumentos frívolos, confundió elementos jurídicos clave, mezcló teorías de defensa de forma incoherente y omitió debilidades cruciales del caso de la fiscalía.

En suma –sostiene el escrito– “la herramienta de IA le falló a Kenner, y Kenner le falló a Michel”, pues el alegato final resultante fue deficiente, poco útil y una oportunidad desperdiciada que prejudicó la defensa. Este sería el primer juicio penal federal conocido en que un abogado utiliza IA para redactar parte de un alegato final, y el resultado dejó una lección aleccionadora.

Más grave aún, la moción reveló un potencial conflicto de intereses: el abogado Kenner y un co-defensor (Alon Israely) aparentemente tenían interés financiero en una empresa llamada CaseFile Connect, socio tecnológico de EyeLevel.AI. De hecho, tras el juicio, EyeLevel emitió un comunicado de prensa jactándose de la “primera utilización de IA generativa en un juicio federal”, citando a Kenner alabando que la IA “convirtió horas o días de trabajo legal en segundos”.

El escrito de Michel acusó a sus exabogados de usar el juicio como vitrina para promover la herramienta de IA en lugar de servir lealmente los intereses del cliente. Este alegato se reforzó con una publicación en redes de un ejecutivo de EyeLevel confirmando el uso de la plataforma durante el juicio. En esencia, Michel argumentó que su abogado sacrificó calidad y rigor en su defensa al experimentar con IA, incumpliendo estándares profesionales.

El caso llegó ante la jueza federal Colleen Kollar-Kotelly, quien en agosto de 2024 denegó la petición de nuevo juicio.

En su detallada opinión, la jueza confirmó que efectivamente una porción del alegato de clausura fue generada por IA, incluyendo la cita errónea de una letra musical. No obstante, la corte concluyó que Michel no logró demostrar un perjuicio concreto derivado de ese error. Aplicando el test de Strickland (inefectividad de defensa), la jueza señaló que Michel no explicó cómo la atribución equivocada de una canción de Puff Daddy –o las frases genéricas de empatía generadas por la IA– “socavaron suficientemente su caso”.

Dado que el contenido aportado por la IA no se refirió a la evidencia específica del juicio sino solo a declaraciones generales y una cita lírica, no había una probabilidad razonable de que el veredicto hubiese sido diferente si el abogado no hubiese cometido ese desliz. Por tanto, no se cumplió el estándar de prejuicio necesario para anular la condena por asistencia letrada ineficaz.

La jueza Kollar-Kotelly también examinó el alegado conflicto de intereses.

Si bien se confirmó que Kenner e Israely eran dueños de CaseFile Connect (empresa asociada con EyeLevel), el tribunal encontró que no tenían participación financiera directa en EyeLevel.AI, y su vínculo amistoso con los fundadores de esa empresa no bastaba para probar un conflicto real que afectara la defensa. No se evidenció que los abogados hubiesen subordinado la defensa de Michel a sus intereses en la tecnología.

En definitiva, la corte concluyó que Michel no demostró violación de su derecho a una asistencia letrada efectiva ni por deficiencias del alegato final ni por conflicto de interés.

7.3. Zachariah C. Crabill (2023, Colorado, EE.UU.)

El abogado Zachariah C. Crabill, de Colorado, fue sancionado por razones similares al caso Mata v. Avianca, tras confiar en ChatGPT para hacer investigación jurídica.

En abril de 2023, Crabill –quien nunca antes había redactado una moción de anulación de juicio– fue contratado para intentar dejar sin efecto una sentencia en un caso civil. Presionado por la novedad de la tarea, recurrió a la plataforma de IA ChatGPT para encontrar jurisprudencia de apoyo y citó en su borrador varias decisiones obtenidas allí.

No leyó las supuestas sentencias que la IA le proporcionó ni verificó si las citas eran precisas. En mayo de 2023, presentó la moción ante el tribunal con esas referencias. Días después, antes de la audiencia, descubrió que los casos sugeridos por ChatGPT eran incorrectos o directamente ficticios, es decir, no existían en la jurisprudencia real.

Pese a ese descubrimiento, Crabill no alertó de inmediato al tribunal del error.

En la audiencia, cuando el juez expresó dudas sobre la veracidad de las citas, el abogado mantuvo su escrito sin retractarse ni retirarlo. Es más, mintió al juez atribuyendo las referencias falsas a un supuesto pasante legal (intern) para excusar la situación. Solo seis días después de la audiencia, quizás consciente de la gravedad, Crabill presentó un affidavit admitiendo que había usado ChatGPT al redactar la moción y que ese fue el origen de los casos apócrifos.

Este caso refuerza las lecciones de Mata v. Avianca en otro frente jurisdiccional. Muestra que incluso abogados en distintos estados de EE.UU. enfrentan consecuencias disciplinarias si utilizan herramientas de IA sin el cuidado debido. Crabill admitió haberse sentido abrumado por su carga de trabajo y haber buscado ahorrar tiempo con ChatGPT, pero la falta de verificación y la posterior deshonestidad le costaron caro.

La orden disciplinaria advirtió que tales herramientas no eximen al abogado de su obligación de garantizar la exactitud de lo que presenta.

7.4. Smith vs. Farwell (2024, Massachusetts, EE.UU.)

En Smith v. Farwell, et al. (Tribunal Superior de Massachusetts, 2024) otro abogado fue sancionado por apoyarse en una IA que le proporcionó jurisprudencia inexistente.

Se trató de un caso de muerte por negligencia en el cual, al responder a las mociones de desistimiento presentadas por los demandados (entre ellos Matthew Farwell), el abogado de la parte actora presentó tres memoranda legales que citaban al menos cuatro casos judiciales “fabricados” por una IA.

El abogado (y un equipo de asistentes) habían utilizado herramientas como ChatGPT (y Google Bard) para preparar sus escritos de oposición, y las IA generaron referencias a decisiones judiciales totalmente ficticias sobre los elementos de la causa de muerte por negligencia. Al leer los escritos, el juez no pudo localizar las supuestas sentencias citadas, lo que levantó de inmediato las alarmas sobre su autenticidad.

En la vista oral de las mociones de archivo, celebrada el 1 de noviembre de 2023, el juez anunció que había descubierto citas jurisprudenciales falsas en los escritos de la parte actora (identificó tres casos ficticios) y pidió explicaciones al abogado.

Sorprendido, el profesional afirmó no reconocer esos casos y dijo “no tener idea” de dónde habían salido. Ante semejante respuesta, el tribunal le ordenó presentar por escrito el origen de esas citas inventadas. Días después, el 6 de noviembre, el abogado remitió una carta admitiendo que las “sentencias” no existían en realidad y que se habían incluido inadvertidamente en los escritos.

Explicó que la investigación y borradores estuvieron a cargo de un asociado junior y dos egresados de derecho (aún sin licencia), quienes habrían obtenido esas referencias de una plataforma de IA generativa El abogado asumió la responsabilidad, pidió disculpas al juzgado y reconoció que no ejerció la debida diligencia para verificar la autenticidad de los casos antes de presentar los escritos.

En su fundamento, el tribunal reflexionó extensamente sobre los riesgos éticos del uso de IA en el ámbito legal. Señaló que, aunque en este caso se violó principalmente el deber de competencia profesional (por presentar información no válida), el uso indiscriminado de IA podría conllevar violaciones a otras obligaciones: la diligencia en el manejo de asuntos; la confidencialidad de la información del cliente (pues ingresar datos sensibles en sistemas de IA puede exponerlos); el deber de candor y veracidad con los tribunales; la responsabilidad de supervisión de socios sobre abogados jóvenes; e incluso podría rayar en facilitar el ejercicio no autorizado del derecho si se delegan tareas propias del abogado a sistemas automatizados.

El juez subrayó que las IA generativas pueden generar citas de fallos totalmente apócrifos con apariencia auténtica (nombres de partes, números de reporte y fechas verosímiles). Por ello, afirmó categóricamente: “Cualquier información proporcionada por un sistema de IA debe ser verificada antes de poder ser confiable”. Reprochó que en este caso “no hubo investigación alguna, lo cual dista de ser una investigación razonable”.

La omisión absoluta de revisar las citas o al menos asegurarse de que otra persona en el despacho las revisara antes de presentarlas fue una violación clara de la obligación de realizar una indagación razonable. Este caso sirvió así de advertencia local, alineándose con precedentes como Mata v. Avianca, y estableciendo en la jurisprudencia de Massachusetts que la negligencia tecnológica no exime de responsabilidad profesional.

7.5. Daniel Jaiyong An v. Archblock, Inc. – Corte de Cancillería de Delaware (Estados Unidos, 4 de abril de 2025).[28]

En abril de 2025, la Vicecanciller Lori Will emitió la primera decisión de la Corte de Cancillería de Delaware relativa al uso de inteligencia artificial generativa en escritos judiciales.

El caso surgió cuando un litigante pro se presentó una moción para obligar a entregar documentos que contenía citas inventadas y referencias inexactas, aparentemente generadas por una herramienta de redacción de IA.

La corte verificó de manera independiente que las citas no existían en ninguna base de datos jurisprudencial y concluyó que el programa había ‘alucinado’ contenidos plausibles pero falsos.

Este hallazgo provocó una reflexión sobre los peligros de confiar ciegamente en la IA para redactar documentos legales.

No obstante, la Vicecanciller reconoció que la inteligencia artificial tiene potencial para beneficiar a litigantes y tribunales.  Destacó que las herramientas generativas pueden agilizar la investigación jurídica, la redacción de escritos y la revisión documental, facilitando el acceso a la justicia, especialmente para litigantes sin representación.

Al mismo tiempo, advirtió que el uso imprudente de tales herramientas puede generar daños: desperdicio de tiempo y recursos, desinformación y daño reputacional al sistema judicial. Señaló que la presentación de citas inexistentes es sancionable y recordó que incluso los litigantes se deben asegurar de la veracidad de sus referencias.

Como medida correctiva, ordenó al litigante que, en futuras presentaciones, certificara el uso de IA generativa, identificara la tecnología empleada y confirmara la exactitud de todas las autoridades citadas.  También advirtió que el incumplimiento podría conllevar sanciones, entre ellas multas, eliminación de escritos o incluso desestimación del caso.

El fallo estableció pautas de buenas prácticas para la utilización de IA generativa en el ejercicio jurídico, dejando claro que los abogados y litigantes deben revisar críticamente cualquier contenido generado.

La decisión combina la apertura a la innovación con la exigencia de responsabilidad profesional y anticipa que los tribunales exigirán transparencia y verificación cuando se empleen herramientas de IA en la práctica forense.

7.6. Tribunales de Columbia Británica (Canadá, 2024).

En Canadá ocurrió un incidente similar al de Mata/Smith, con un matiz pedagógico.

Una abogada de Vancouver usó ChatGPT para sustentar la petición de un cliente en una disputa familiar y presentó dos decisiones inexistentes de la Corte Suprema de Columbia Británica que en realidad la IA había inventado.

Al ser confrontada, la abogada retiró las citas, pero no explicó inmediatamente la causa del error a la contraparte.

En una decisión de 2024, el juez D. Masuhara impuso a la letrada una sanción en costas personales: deberá pagar el equivalente a dos días de juicio perdidos por la confusión generada.

Si bien no se le impusieron multas punitivas mayores (debido a que el juez consideró que actuó sin malicia deliberada, fue “ingenua” y sufrió ya un fuerte escarnio público), el fallo incluyó una seria amonestación.

Masuhara escribió: “Como lamentablemente ha dejado en claro este caso, la IA generativa sigue sin ser sustituto de la pericia profesional que el sistema de justicia exige de los abogados. La competencia en la elección y uso de herramientas tecnológicas, incluidas las impulsadas por IA, es crítica”.

También ordenó a la abogada revisar todos sus expedientes para detectar y corregir cualquier otra inserción de resúmenes hechos por IA.

7.7. Sentencia T-323 de 2024 (Corte Constitucional de Colombia)

En la Sentencia T-323 de 2024, la Corte Constitucional de Colombia abordó por primera vez de manera integral el tema del uso de IA en la administración de justicia, estableciendo límites y pautas. El caso se originó en una acción de tutela (recurso de amparo constitucional) presentada por la madre de un niño con trastorno del espectro autista contra una entidad de salud (EPS).

La madre solicitaba la protección de los derechos fundamentales de su hijo a la salud y a la vida digna, argumentando que la EPS se negaba a: (i) exonerarlo del pago de copagos, (ii) cubrir los gastos de transporte para asistir a terapias, y (iii) brindarle un tratamiento integral para su condición.

El caso llegó al máximo tribunal constitucional, que dividió su estudio en dos temas principales: por un lado, analizar si se vulneró el derecho al debido proceso por el uso de inteligencia artificial en la sentencia de segunda instancia de tutela; y por otro, examinar de fondo la posible afectación de los derechos a la salud, vida digna y seguridad social del menor.

El aspecto novedoso fue el primero: la Corte debía decidir si el uso de ChatGPT por parte de un juez en una instancia inferior había violado garantías procesales. Concretamente, se supo que el juez de segunda instancia de la tutela empleó ChatGPT para formular preguntas jurídicas sobre el derecho a la salud de menores con autismo y luego incorporó tanto las preguntas como las respuestas de la IA en la motivación de su fallo.

Esto generó preocupación sobre si el juez delegó indebidamente parte de su función decisoria a una máquina.

La Corte Constitucional, al respecto, fue categórica: reafirmó que el derecho fundamental a un juez natural implica que el juzgador sea un ser humano, condición esencial e insustituible en el diseño institucional vigente.

Actualmente la normativa no contempla la posibilidad de un “juez-máquina”, señaló la Sala, por lo que la inteligencia artificial no puede reemplazar al juez en la toma de decisiones judiciales, sin importar la complejidad del asunto sometido a consideración. El acto de juzgar conlleva interpretación de hechos y normas, valoración de pruebas y discrecionalidad, elementos propios de la racionalidad humana que no pueden ser delegados en un algoritmo.

No obstante, la Corte no proscribió totalmente el uso de IA en el ámbito judicial, sino que estableció un marco de admisibilidad limitado y bajo condiciones. Consideró lícito emplear tecnologías de IA con fines administrativos y de gestión documental en la rama judicial (por ejemplo, para organizar expedientes, buscar precedentes, generar resúmenes), e incluso como apoyo a la función jurisdiccional en tareas que no impliquen creación de contenido decisorio ni interpretación sustantiva.

Mencionó actividades como la corrección de estilo o la síntesis de textos, siempre y cuando el resultado sea supervisado exhaustivamente por el operador jurídico (juez o magistrado) para garantizar su precisión, coherencia y correcta aplicación al caso concreto. En cambio, dejó claro que no sería admisible delegar en la IA labores medulares de la función judicial: la interpretación jurídica de los hechos o de los textos normativos, la evaluación de pruebas, ni la emisión misma de la decisión sobre el caso.

En síntesis, la Corte delineó un modelo de uso complementario de la IA: como herramienta de apoyo logístico o intelectual, pero nunca como sustituto del discernimiento humano en la decisión.

La sentencia también impuso salvaguardas para proteger el debido proceso en cualquier empleo de IA.

En primer lugar, reiteró la garantía de independencia e imparcialidad judicial: ninguna herramienta (sea un poder estatal, particular o una IA) puede interferir en la libre formación del convencimiento del juez. Si un juez usa IA, debe hacerlo de modo que no ceda su criterio ni permita que sesgos o contenidos prejuiciosos presentes en la herramienta influyan en el fallo. Advirtió que las decisiones judiciales no pueden estar determinadas por sesgos o prejuicios que pudiera arrastrar la IA, pues ello generaría irregularidades, discriminaciones o parcialidad prohibidas.

Otra subgarantía que destacó fue la de la motivación de las decisiones: el uso de IA conlleva el riesgo de las ya mencionadas “alucinaciones”, es decir, información inexacta o falsa que la IA presente con apariencia de verdad. Esto podría contaminar la fundamentación de una sentencia. Por ende, el juez debe velar porque la motivación del fallo provenga de un análisis crítico propio, y que cualquier insumo de IA sea verificado y no contenga falsedades que vicien la decisión.

Finalmente, la Corte enfatizó la necesidad de proteger los datos personales y la privacidad de los usuarios de la justicia: si se utiliza IA, debe garantizarse que el tratamiento de información sensible se haga con salvaguardas plenas, evitando exponer datos íntimos a sistemas fuera del control judicial.

Tras este análisis, la Corte concluyó que en el caso concreto no se vulneró el debido proceso, pues si bien el juez usó ChatGPT indebidamente al incluir sus respuestas en la motivación, esto no sustituyó la función judicial ni determinó el sentido del fallo final (que de hecho reconoció los derechos de salud del niño).

No obstante, aprovechó para sentar una doctrina general innovadora en Colombia: el uso ponderado y razonable de la IA en la justicia es admisible, siempre que se haga con enfoque de protección de derechos fundamentales, aplicando criterios éticos y respetando mandatos superiores.

Reiteró como presupuesto esencial el “criterio de no sustitución de la racionalidad humana” en la administración de justicia. Y estableció cargas para los jueces que recurran a tales apoyos tecnológicos: transparencia (deben informar cómo se usó la IA), responsabilidad (asumir consecuencias de su uso) y respeto a la privacidad.

8. Jurisprudencia local. El primer antecedente.

En la causa “GIACOMINO, CESAR ADRIAN Y OTROS c/ MONSERRAT, FACUNDO DAMIAN Y OTROS s/ DAÑOS Y PERJUICIOS” (CUIJ 21-11893083-2), la Cámara de Apelación en lo Civil y Comercial de Rosario (Sala II) resolvió sobre los efectos de un convenio transaccional incumplido.

Un aspecto relevante del pronunciamiento se centró en la conducta del letrado de la parte actora, quien fundamentó parte de sus agravios en citas jurisprudenciales inexistentes, proporcionadas por un sistema de inteligencia artificial generativa. La Cámara, si bien reconoció la probable buena fe del profesional, emitió un severo llamado de atención, subrayando que tal accionar compromete su responsabilidad profesional.

Se enfatizó que el uso de estas herramientas no exime al abogado de su deber de cotejar diligentemente las fuentes, pues es de público conocimiento el riesgo de «alucinaciones» o información inventada.

Esta conducta fue calificada como una posible transgresión a las normas de ética profesional, específicamente al deber de probidad, lealtad y veracidad.

Se ordenó oficiar al Colegio de Abogados de Rosario para ponerlo en conocimiento de la situación, con el objetivo de que adopte las medidas pertinentes para advertir a sus colegiados sobre los riesgos asociados al uso irreflexivo de la inteligencia artificial generativa en la práctica profesional y la imperiosa necesidad de verificar la información obtenida a través de dichos sistemas antes de su presentación en sede judicial.

9. El desafío para los operadores jurídicos. Reformulación del perfil del especialista.

 Pues bien, en esta etapa del planteo se hace necesario reformular el perfil de los operadores jurídicos.

En las últimas décadas, la multiplicidad de ramas del derecho marcaba la necesidad de la especialización del operador jurídico. Así se fue cristalizando la idea del operador especialista.

Por muchos años el profesional que egresa de una carrera tradicional responde a la justicia formada sobre los principios clásicos, con reglas inmodificables, con estructuras procedimentales formalistas e incapaces de mutar asertivamente, que tienen como fin último una sentencia judicial producto de un proceso sumamente prolongado, litigioso y extraño, despersonalizado y objetivo.

La irrupción de la IA generativa no ocurre en un vacío, sino en un ecosistema profesional marcado por vulnerabilidades críticas que la propia tecnología agrava.

En primer lugar, existe una profunda brecha de competencias: la formación jurídica tradicional no ha preparado a los operadores para la ingeniería de prompts, la evaluación de la fiabilidad algorítmica o la comprensión de la naturaleza probabilística de los LLMs.

A esta falta de capacitación endémica se suma la carencia de herramientas jurídicamente aptas; los profesionales a menudo recurren a modelos de lenguaje de propósito general que no fueron diseñados con las salvaguardas de confidencialidad, precisión y verificabilidad que exige la praxis legal.

Esta confluencia —un profesional insuficientemente entrenado utilizando una herramienta inadecuada— genera un escenario de riesgo que debe ser mitigado, donde la probabilidad de errores, violaciones al secreto profesional y mala praxis se incrementa.

Por ello, abordar estas vulnerabilidades no es una mera cuestión de actualización técnica, sino un imperativo ético. El abordaje complejo de la IA debe partir de esta realidad, aplicando la perspectiva pro persona[29] para garantizar que la protección y capacitación del profesional redunde, en última instancia, en la salvaguarda de los derechos de los justiciables.

Asimismo, la preocupación por la responsabilidad en el uso de la IA es objeto de numerosas iniciativas internacionales que orientan sobre las buenas prácticas y marcos regulatorios emergentes.

Entre los más destacados se encuentra la Recomendación sobre la Ética de la Inteligencia Artificial adoptada por UNESCO en 2021, primer instrumento normativo global en la materia.

Dicho documento enfatiza que debe asegurarse siempre la “supervisión y determinación humanas” sobre la IA, es decir, que “los humanos son ética y legalmente responsables de todas las etapas del ciclo de vida de los sistemas de IA”.[30]

Este principio internacional coincide plenamente con la noción aquí analizada de doble control humano especializado ex – ante y ex – post: el desarrollo, despliegue y uso de IA jamás debe implicar abdicar la responsabilidad en la máquina.

Asimismo, la Recomendación UNESCO subraya la importancia de respetar los derechos humanos vigentes (incluyendo privacidad, no discriminación, libertad de expresión) en todo el ciclo de vida de la IA.[31]

En el ámbito del Derecho comparado, la Unión Europea está a la vanguardia de la regulación sobre IA. El Parlamento Europeo ha destacado que los sistemas de IA deben ser seguros, transparentes, trazables, no discriminatorios, y –muy importante– “deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales.”[32]

El doble control humano ex ante y ex post en la utilización de herramientas de IA generativa dentro del ecosistema jurídico es un deber que se enmarca dentro de los principios de responsabilidad preventiva y del deber de mitigar el daño a la que estamos sometidos todos los operadores jurídicos.

10. Conclusiones.

La conclusión central de este trabajo es nítida: la IA generativa (IAGEN) puede elevar la productividad de la praxis legal, pero también intensifica —no reduce— los deberes profesionales.

En este contexto, el doble control humano deja de ser una recomendación para convertirse en una carga jurídica exigible cuando están en juego la diligencia, la competencia y la lealtad debidas al cliente y al tribunal.

El marco argentino ya provee las bases normativas para esta exigencia. El estándar agravado del art. 1725 CCyCN, la responsabilidad de medios del profesional del art. 1768, y el deber general de prevención del art. 1710 —reforzado por las acciones preventivas de los arts. 1711 y 1713— imponen implementar protocolos que eviten daños previsibles.

Usar IAGEN sin controles razonables se traduce en negligencia, imprudencia o impericia.

La evidencia comparada es consistente: tribunales de EE. UU., Canadá y Colombia han sancionado o amonestado el uso acrítico de IAGEN, y han fijado expectativas claras de verificación independiente y transparencia. La lección es universal: ninguna herramienta automatizada desplaza el deber del profesional de corroborar fuentes y proteger el proceso.

El modelo SICURA-JUS operacionaliza el deber de diligencia en dos hitos: control de inputs (jurisdicción, fuero, hechos relevantes, exclusión de datos sensibles, formato y rol) y control de outputs (auditoría de citas y normativa en bases confiables, revisión técnica y jurídica, y adecuación al caso). Esta arquitectura convierte a la IAGEN en un copiloto útil, no en un piloto automático.

En la asignación de responsabilidades, el operador jurídico conserva la rendición de cuentas final por lo que firma o presenta.

Los descargos basados en “lo dijo la IA” no eximen de culpa. Ello no impide explorar responsabilidades concurrentes de estudios y proveedores cuando existan defectos del producto o incumplimientos contractuales; pero tales vías no desplazan el deber de verificar y prevenir.

Finalmente, el doble control no es solo un escudo de responsabilidad: es también una ventaja competitiva. Alinea la práctica con estándares internacionales, mejora la calidad argumental y protege derechos.

[1] Abogada (UBA). Notaria en ejercicio. Doctoranda en Ciencias Jurídicas. Magister en Derecho de Familia, Infancia y Adolescencia (Universidad de Barcelona). Posgraduada en Derecho de familia, infancia y adolescencia (UBA) y en Derecho y tecnología (UBA-IALAB). Posgraduada en derecho de niños, niñas y adolescentes por la Universidad de Salamanca (USAL); secretaria general de la Universidad Notarial Argentina (UNA); miembro de AJUFRA; docente de grado y de posgrado (UBA-UNA-UCA), escritora, ponente e investigadora.

[2] Abogado (UNLZ). Magister en Derecho Procesal (UNR). Presidente del Instituto Argentino de Derecho Procesal Informático (IADPI). Subdirector del Instituto de Derecho Informático del Colegio Público de la Abogacía de Capital Federal (CPACF). Miembro del Foro de Derecho Procesal Electrónico (FDPE – E Procesal). Presidente de la Comisión de Derecho Informático del Colegio de Abogados de Lomas de Zamora (CALZ). Autor de numerosas publicaciones y libros vinculados a la tecnología. Docente universitario de grado y posgrado (UBA – Univ. Austral – UCA – UNLZ -, entre otras).

[3] Para ampliar estas nociones, ver BIELLI, G. E. INTELIGENCIA ARTIFICIAL EN EL PODER JUDICIAL. USO DE LLMS POR PARTE DE LOS JUECES AL MOMENTO DEL DICTADO DE LA SENTENCIA. Publicado en el Diario La Ley de Thomson Reuters Argentina | LEGAL – 21 de noviembre de 2024. Cita online: TR LALEY AR/DOC/2984/202. BIELLI, G. E. y SALIERNO, K. V. INTELIGENCIA ARTIFICIAL Y FUNCIÓN NOTARIAL. Publicado en el Diario de Thomson Reuters La Ley de fecha 8 de mayo de 2025. Cita online: TR LALEY AR/DOC/1035/2025.

[4] Recuperado de: https://openai.com/index/chatgpt/

[5] Recuperado de: https://openai.com/index/chatgpt/

[6] Recuperado de: https://blog.google/technology/ai/google-gemini-ai/

[7] Recuperado de: https://ai.meta.com/meta-ai/

[8] Recuperado de: https://medium.com/academy-team/unlocking-generative-ai-impressions-from-andrew-ngs-generative-ai-for-everyone-course-by-51243ea295df

[9] Q. VERA LIAO – WORTMAN VAUGHAN, J. AI Transparency in the Age of LLMs: A Human-Centered Research Roadmap. Harvard Data Science Review. Mayo de 2024. Link: https://hdsr.mitpress.mit.edu/pub/aelql9qy/release/2

[10] CASPER, S. – EZELL, C. Black-Box Access is Insufficient for Rigorous AI Audits. Link: https://ar5iv.labs.arxiv.org/html/2401.14446

[11] DAHL, Matthew, MAGESH, Varun, SUZGUN, Mirac, HO, Daniel E. Hallucinating Law: Legal Mistakes with Large Language Models are Pervasive. Stanford University Stanford University HAC Human-Centered Artificial Intelligence. Enero de 2024. Link: https://hai.stanford.edu/news/hallucinating-law-legal-mistakes-large-language-models-are-pervasive

[12] MANVI, R. – KHANNA, S. Large Language Models are Geographically Biased. Link: https://ar5iv.labs.arxiv.org/html/2402.02680

[13] Large language models and data protection. Privacy International. Agosto de 2024. Link: https://privacyinternational.org/explainer/5353/large-language-models-and-data-protection

[14] Audiencia Provincial de Málaga, 13-01-1996, en Revista General de Derecho, año LIInro. 619, Valencia, Augusto Vicente y Almela, 1996, p. 4725. Sentencia de la Audiencia Provincial de Madrid que resolvió que “la diligencia exigiblea un abogado en el ejercicio de su función no es la exigible a un hombre medio, sino otra superior, que hace surgir su responsabilidad cuando antela duda suscitada en torno a la inhabilidad del mes de agosto para el ejercicio de la acción de despido, no salvaguarda el derecho de su cliente ypresenta la demanda sobre la inhabilidad discutida de dicho mes, provocando que se declare la caducidad de la acción”; también es correcta la sentencia de la Audiencia Provincial de Málaga que entendió que existía culpa del letrado que no peticionó el 20% de intereses previsto en la ley que regula los accidentes de la circulación, no obstante que a la época enque la demanda se interpuso existían dos posiciones encontradas sobre el tema». Citado por Kemelmajer de Carlucci, Aída, Responsabilidad del abogado, del escribano y del juez” (obra originalmente publicada en Lecciones y Ensayos, N° 72, 73 y 74, 1998/1999), pp. 119-176131 Disponible en https://www.derecho.uba.ar/publicaciones/lye/revistas/numero-extraordinario-60-aniversario/responsabilidad-del-abogado-del-escribano-y-del-juez.pdf

[15] Recuperado de: https://new.cpacf.org.ar/noticia/5142/codigo-de-etica

[16] Recuperado de: https://www.cpacf.org.ar/public/uploads/files/com/08082513_GUIA1.pdf

[17] Kemelmajer de Carlucci, Aída, Responsabilidad del abogado, del escribano y del juez” (obra originalmente publicada en Lecciones y Ensayos, N° 72, 73 y 74, 1998/1999), pp. 119-176131 “… Tratándose de la responsabilidad del abogado, hay que aplicar, enprincipio, el viejo adagio pas de responsabilité sans faute (no hay responsabilidad sin culpa). En esta línea de pensamiento, la Comisión de reflexión número 5 del III Congreso Internacional de Derecho de Daños,1993, recomendó: “es presupuesto de la responsabilidad civil del abogadola existencia de una culpa, calificada por la impericia o negligencia…”. Disponible en https://www.derecho.uba.ar/publicaciones/lye/revistas/numero-extraordinario-60-aniversario/responsabilidad-del-abogado-del-escribano-y-del-juez.pdf

[18] Kemelmajer de Carlucci, Aída, Responsabilidad del abogado, del escribano y del juez” (obra originalmente publicada en Lecciones y Ensayos, N° 72, 73 y 74, 1998/1999), pp. 119-176131 «… La jurisprudencia española y argentina es conteste en que el abogadoen ejercicio no promete el éxito de la gestión encomendada y, consecuentemente, solo puede exigírsele una conducta conforme a la lex artis ad hoc. Por eso, en los supuestos de responsabilidad por infracción de debe-res profesionales la inversión de la carga de la prueba no es de aplicación generalizada. En otros términos, no puede partirse de una presunción de negligencia, pero este punto de partida no niega que el abogado asuma ciertas obligaciones de resultado; así por ejemplo, puede comprometerse a entregar un contrato redactado en una fecha determinada, a suscribir ypresentar los escritos en término, etc… «. Ob. Cit.

[19] Guía para el uso de Inteligencia Artificial para Abogados. Documento elaborado por el Laboratorio Fintech y Legaltech. Unidad de Innovación y Transformación Digital del CPACF, Buenos Aires, julio de 2025, disponible en https://www.cpacf.org.ar/public/uploads/files/com/08082513_GUIA1.pdf#page=2.08

[20] Código Civil y Comercial de la Nación. TITULO V. Otras fuentes de las obligaciones
CAPITULO 1 Responsabilidad civil. SECCIÓN 2ª Función preventiva y punición excesiva, art. 1710, https://www.enre.gov.ar/web/bibliotd.nsf/58d19f48e1cdebd503256759004e862f/f1d7b39cbdc321bd03258064004e03e9?OpenDocument

[21] Alterini, Juan Martín, Las funciones de lal responsabilidad civil en el Código Civil y Comercial de la Nación, disponible en https://www.derecho.uba.ar/docentes/pdf/estudios-de-derecho-privado/alterini.pdf (ultimo acceso 16/8/2025).

[22] Sobrino, Waldo Augusto, El ‘Deber de Prevención’ (art. 1710 del Código Civil y Comercial) y su aplicación a los seguros, 23 de Junio de 2017, www.saij.gob.ar, SISTEMA ARGENTINO DE INFORMACIÓN JURÍDICA, Id SAIJ: DACF170272, https://www.saij.gob.ar/waldo-augusto-sobrino-deber-prevencion-art-1710-codigo-civil-comercial-su-aplicacion-seguros-dacf170272-2017-06-23/123456789-0abc-defg2720-71fcanirtcod?&o=14&f=Total%7CTipo%20de%20Documento/Doctrina%7CFecha%5B250%2C1%5D%7COrganismo%7CPublicaci%F3n%7CTema/Derecho%20comercial/seguros%7CEstado%20de%20Vigencia%7CAutor%5B50%2C1%5D%7CJurisdicci%F3n&t=124 (ultimo acceso 16/8/2025).

[23]Guía para el uso de Inteligencia Artificial para Abogados. Documento elaborado por el Laboratorio Fintech y Legaltech. Unidad de Innovación y Transformación Digital del CPACF. Buenos Aires, julio de 2025, disponible en https://aldiaargentina.microjuris.com/wp-content/uploads/2025/08/CPACF-IA-GUIA.pdf (último acceso 16/8/2025).

[24] Hernández Terán, Miguel, Neuroderechos, sesgos, daños, inteligencia artificial y otros problemas jurídicos, Corporación de estudios y publicaciones, Ecuador, 2024, disponible en https://cijur.mpba.gov.ar/files/articles/6512/NEURODERECHOS__SESGOS__DA%C3%91OS__INTELIGENCIA_ARTIFICIAL_Y_OTROS_PROBLEMAS_JUR%C3%8DDICOS.pdf (último acceso 16/8/2025).

[25] Faliero, Johana Caterina, La obsolescencia del oportunismo del Prompting Legal/Legal Prompting e IA Generativa/IAGen Jurídica, Revista Jurídica Rubinzal-Culzoni, Cita: RC D 329/2025

[26] Salas, Pablo, Comercio y Justicia Inteligencia artificial legal: lo que sí y lo que no, Publicado el 30-06-2025, Universidad Católica de Córdoba, https://www.ucc.edu.ar/notas/inteligencia-artificial-legal-si-no

[27] Faliero, Johana Caterina, La obsolescencia del oportunismo del Prompting Legal/Legal Prompting e IA Generativa/IAGen Jurídica, Revista Jurídica Rubinzal-Culzoni, Cita: RC D 329/2025

[28] Recuperado de: https://www.damiencharlotin.com/hallucinations/?utm_source=chatgpt.com

[29] Puede compulsarse en profundidad el trabajo del autor en http://www.derechoshumanos.unlp.edu.ar/assets/files/documentos/la-perspectiva-pro-persona-el-criterio-contemporaneo-para-la-interpretacion-y-aplicacion-de-los-instrumentos-internacionales-de-derechos-humanos.pdf  (última consulta 20/09/2021).

[30] UNESCO, Recomendación sobre la ética en la Inteligencia Artificial,  https://unesdoc.unesco.org/ark:/48223/pf0000380455_spa (útimo acceso 16/8/2025)

[31] Ministerio de Asuntos exteriores, Unión Europea y cooperación, La UNESCO da un gran paso hacia el primer instrumento normativo sobre la ética de la IA,

https://www.exteriores.gob.es/RepresentacionesPermanentes/unesco/es/Comunicacion/Noticias/Paginas/Articulos/La-UNESCO-da-un-gran-paso-hacia-el-primer-instrumento-normativo-sobre-la-%C3%A9tica-de-la- IA.aspx#:~:text=El%20potencial%20de%20la%20inteligencia,y%20la%20propagaci%C3%B3n%20de%20estereotipos (ultimo acceso 16/8/2025).

[32]Parlamento Europeo, Ley de IA de la UE: primera normativa sobre inteligencia artificial, El uso de la inteligencia artificial en la UE está regulado por la Ley de Inteligencia Artificial, la primera ley integral sobre IA del mundo. Aquí más información sobre cómo funciona. Publicado: 12-06-2023Última actualización: 24-02-2025 – 16:35  https://www.europarl.europa.eu/topics/es/article/20230601STO93804/ley-de-ia-de-la-ue-primera-normativa-sobre-inteligencia-artificial#:~:text=La%20prioridad%20del%20Parlamento%20era,automatizaci%C3%B3n%2C%20para%20evitar%20resultados%20perjudiciales (último acceso 16/8/2025).