GOBERNANZA ÉTICA DE LA IA EN LOS PROCESOS NOTARIALES
Principios, responsabilidades institucionales y desafíos para el Notariado Argentino
-
Introducción
La incorporación de herramientas de inteligencia artificial (IA) a la práctica notarial plantea desafíos de magnitud que trascienden lo meramente tecnológico. El notario, en tanto funcionario público investido de fe pública, desempeña una función que por su naturaleza exige la más alta certeza, trazabilidad, confidencialidad y responsabilidad en el manejo de datos personales sensibles. La irrupción de la IA en este escenario requiere un marco de gobernanza ética que oriente tanto a los notarios individualmente como a las instituciones que los nuclean.
El presente trabajo analiza los principios básicos de gobernanza ética de la IA aplicables a los procesos notariales, con especial atención a la responsabilidad institucional de los colegios de escribanos y del Consejo Federal del Notariado Argentino (CFNA), el fenómeno de la IA en las sombras (shadow AI)[1], los riesgos de fuga de datos personales, y la necesidad de estructurar programas serios de alfabetización digital para el colectivo notarial.
El análisis tiene como base el estudio previo que formalizamos sobre aplicaciones de IA a procesos notariales, y se sustenta en tres fuentes principales: el marco de los cinco principios para la IA en la sociedad elaborado por Floridi y Cowls (2019); la Recomendación del Consejo de la OCDE sobre Inteligencia Artificial (2019) y el principio precautorio en materia de responsabilidad civil (Aída Kemelmajer de Carlucci, 2014) y el Reglamento de Inteligencia Artificial (AI Act, Reglamento UE 2024/1689)[2].
-
El marco internacional de principios éticos para la IA
2.1. Los cinco principios de Floridi y Cowls
El estudio de Floridi y Cowls (2019)[3], publicado en el Harvard Data Science Review, constituye uno de los trabajos de referencia más citados en materia de ética de la IA. Sus autores analizaron seis conjuntos de principios de alto perfil, los Principios de Asilomar[4], la Declaración de Montreal[5], las directrices del IEEE[6], la declaración del Grupo Europeo de Ética en Ciencia y Nuevas Tecnologías[7], el informe de la Cámara de los Lores del Reino Unido y los Principios de la Partnership on[8] AI, e identificaron un alto grado de convergencia en torno a cinco principios fundamentales: beneficencia (beneficence); no maleficencia (non-maleficence); autonomía (autonomy); justicia (justice) y explicabilidad (explicability) En procesos notariales, la explicabilidad es condición sine qua non de la fe pública: un resultado producido por un algoritmo opaco es incompatible con la certeza jurídica que el instrumento público debe garantizar. Estos cinco principios fueron adoptados también como base por la Guía Ética para la IA Confiable de la Comisión Europea y, a su vez, influyeron en la Recomendación de la OCDE sobre IA de 2019 por lo cual constituyen la base del análisis ético aplicado al ejercicio de la función notarial.
2.2. La Recomendación de la OCDE sobre Inteligencia Artificial (2019)[9]
La Recomendación del Consejo de la OCDE sobre IA, adoptada el 22 de mayo de 2019, constituye el primer estándar intergubernamental en materia de IA y fue posteriormente incorporada por los líderes del G20 en la Cumbre de Osaka. Sus cinco principios de gestión responsable son: 1. crecimiento inclusivo, desarrollo sostenible y bienestar; 2. valores centrados en el ser humano y equidad (human in the loop); 3. transparencia y explicabilidad; 4. robustez, seguridad y protección (safety and security) y 5. responsabilidad (accountability).
Adicionalmente, la recomendación establece cinco orientaciones para los Estados en materia de políticas nacionales y cooperación internacional: inversión en investigación y desarrollo en IA; fomento de un ecosistema digital para la IA; configuración de un entorno regulatorio habilitante; formación de capital humano y preparación para la transformación del mercado de trabajo; y cooperación internacional.
De particular relevancia para el notariado es el principio de robustez, seguridad y protección, que exige que los sistemas de IA sean seguros durante todo su ciclo de vida, incluida la trazabilidad de datos, procesos y decisiones. La Recomendación requiere también la aplicación de una gestión sistemática de riesgos en cada fase del ciclo de vida del sistema de IA, incluidos los riesgos de privacidad, seguridad digital, safety y sesgo algorítmico.
3. El principio precautorio de la responsabilidad como herramienta de gobernanza
3.1. Concepto y fundamento
El principio precautorio, analizado en profundidad por Kemelmajer de Carlucci (2014)[10], constituye un instrumento de gestión de riesgos que se activa ante la incertidumbre científica cuando existe la perspectiva de un daño grave o irreversible. La precaución difiere de la prevención en que actúa sobre el riesgo potencial, no verificado, y requiere una respuesta anticipatoria antes de contar con certeza plena sobre la materialización del daño.»Instrumento de gestión de riesgos que se utiliza en una situación de incertidumbre científica y que expresa una exigencia de actuar frente a un riesgo potencialmente grave, sin que sea necesario esperar los resultados de la investigación científica.» (Kemelmajer de Carlucci, 2014, p. 11)
Sus condiciones de aplicación comprenden: (a) incertidumbre científica fundada; (b) perspectiva de daño grave o irreversible; (c) proporcionalidad de las medidas adoptadas; (d) transparencia y no discriminación; y (e) posibilidad de revisión de las medidas conforme avance el conocimiento disponible.
3.2. Aplicación a los procesos notariales
La incorporación de IA en los procesos notariales replica el esquema típico al que responde el principio precautorio: se trata de una tecnología disruptiva cuyas consecuencias a largo plazo, en términos de sesgos algorítmicos, fuga de datos, responsabilidad y afectación de los derechos fundamentales, no están aún completamente determinadas por la ciencia.
Conforme el principio precautorio, no se deben esperar resultados dañosos en un caso concreto (como por ejemplo, la filtración masiva de datos de un instrumento público o la vulneración de datos de una parte) para adoptar medidas. El principio de precaución ordena actuar preventivamente, con proporcionalidad y sobre la base del mejor conocimiento disponible. Kemelmajer de Carlucci subraya que el principio precautorio no implica inacción ni riesgo cero, sino que promueve la adopción de medidas racionales, proporcionales y revisables: «No es ni la inacción ni la deliberación sin fin. Es un modo de acción de un tipo particular requerido por el contexto de incertidumbre en el cual la decisión debe tomarse.» (Kemelmajer de Carlucci, 2014, p. 41).
4. El riesgo de shadow IA
4.1. Definición y alcance del fenómeno
Se denomina shadow AI (IA en las sombras) al uso de herramientas y aplicaciones de inteligencia artificial por parte de empleados u operadores de una organización sin conocimiento, autorización ni supervisión de la institución a la que pertenecen.
El fenómeno es el equivalente tecnológico del llamado shadow IT, el uso de software o hardware no aprobado, pero con consecuencias potencialmente más graves dado el nivel de autonomía y de procesamiento de datos que involucra la IA generativa moderna.
En el contexto notarial, la shadow AI puede manifestarse, entre otras formas, cuando un notario o su equipo administrativo utiliza un asistente de IA generativa público (ChatGPT, Gemini, Copilot, Claude, u otros) para redactar borradores de escrituras o contratos, volcando en el prompt datos personales de las partes, valores de operaciones y demás información sensible contenida en el instrumento; emplea herramientas de reconocimiento de voz en línea para transcribir consultas notariales; utiliza plataformas de análisis documental externas, no auditadas ni aprobadas por el colegio, para realizar estudios de título o revisión de antecedentes registrales o carga documentos públicos en plataformas de traducción automática o resumen en la nube.
4.2. Riesgos específicos de la shadow AI en la escribanía
Los riesgos de la IA en las sombras en el ámbito notarial son de diversa naturaleza:
- a) Fuga de datos personales y violación del secreto profesional
La mayoría de las plataformas de IA generativa de acceso público utilizan los datos ingresados por los usuarios para el entrenamiento de sus modelos, salvo que el usuario haya configurado expresamente lo contrario (opción que frecuentemente no está disponible en cuentas gratuitas). Un notario que introduce el nombre, CUIT, domicilio, estado civil, datos patrimoniales o perfiles transaccionales de sus clientes en una herramienta de este tipo está potencialmente transfiriendo datos personales sensibles a un procesador de datos radicado fuera del país, sin el consentimiento del titular y sin las garantías que exige la Ley 25.326 de Protección de Datos Personales.
La gravedad de esta situación se multiplica si se tiene en cuenta que los instrumentos notariales suelen contener datos de múltiples personas: vendedores, compradores, herederos, donatarios, mandantes, fiadores y otros, quienes no han prestado consentimiento para que su información sea procesada por terceros.
- b) Incompatibilidad con los principios de la función pública notarial
El notario de tipo latino es autor del documento público, califica la legalidad del acto, verifica la identidad de las partes y da fe de la voluntad expresada. El uso de herramientas de IA generativa para la redacción de instrumentos públicos, cuando no es controlado ni documentado, introduce un vector de error no trazable que puede socavar la autenticidad y la eficacia probatoria del instrumento.
- c) Ausencia de auditoría y trazabilidad
Conforme el principio de robustez, seguridad y protección de la Recomendación OCDE (2019), los sistemas de IA deben garantizar la trazabilidad de los procesos y decisiones durante todo su ciclo de vida. Las herramientas de shadow AI, por definición, no han sido auditadas por la institución notarial, no cuentan con registros de uso accesibles al colegio, y no están integradas en los sistemas de control de calidad de la profesión.
- d) Indefinición de responsabilidades
Cuando un notario utiliza una herramienta de IA no institucional para asistir en la elaboración de un instrumento que luego resulta defectuoso, la cadena de responsabilidades se vuelve opaca.
5. Responsabilidad institucional
5.1. El rol de la institución colegiada en la gobernanza de la IA
El desarrollo tecnológico en el ámbito notarial debe articularse a través de la institución colegiada. Así como se involucró en las plataformas de actuación remoto donde es requisito indispensable para asegurar los derechos fundamentales de los usuarios del servicio notarial a distancia, la utilización de una plataforma informática segura, suministrada, aprobada, administrada y controlada por la institución notarial, esta misma lógica debe extenderse a todas las herramientas de IA que se utilicen en el marco de los procesos que se ejecuten como consecuencia de los actos pre y post escriturarios que se desarrollan como parte del iter del proceso notarial
La responsabilidad institucional en materia de IA implica al menos los siguientes deberes:
- Aprobar, auditar y mantener un registro de herramientas de IA habilitadas para su uso en la función notarial.
- Establecer los requisitos mínimos de seguridad informática, protección de datos y trazabilidad que deben cumplir dichas herramientas.
- Diseñar e implementar protocolos de uso responsable de la IA adaptados a los distintos procesos del iter notarial.
- Asumir la responsabilidad primaria por las plataformas institucionales de IA, liberando a los notarios individuales de asumir riesgos tecnológicos que exceden su capacidad de evaluación.
- Articular redes institucionales con el Estado (ARBA, ARCA, UIF, RPI, RENAPER) para garantizar la compatibilidad e interoperabilidad de los sistemas.
5.2. El problema de la responsabilidad individual no asumida por la institución
Uno de los riesgos más graves del panorama actual es que el notario individual adopte herramientas de IA para la gestión de su escribanía, buscando eficiencia operativa, reducción de costos o agilización de procesos, asumiendo de facto una responsabilidad tecnológica que en ningún caso debería ser exclusivamente suya.
El notario no es un especialista en ciberseguridad, en contratos de procesamiento de datos, en arquitectura de modelos de lenguaje ni en auditoría algorítmica. Exigirle que evalúe individualmente si una herramienta de IA es segura, confiable y compatible con sus obligaciones legales equivale a exigirle que evalúe la seguridad estructural del edificio donde funciona su escribanía. Ese es un deber institucional.
El principio de accountability de la Recomendación OCDE (2019) establece que «los actores de IA deben ser responsables del correcto funcionamiento de los sistemas de IA». La institución colegiada, como entidad que organiza y regula la función, está en mejor posición que el notario individual para asumir esa responsabilidad: cuenta con recursos económicos para contratar auditorías técnicas, tiene poder de negociación frente a proveedores tecnológicos, puede establecer estándares colectivos y dispone de los canales disciplinarios para hacer cumplir las normas que apruebe.
La situación opuesta, es decir, cada notario negociando individualmente con proveedores de IA, adoptando herramientas no auditadas y asumiendo una responsabilidad que no está en condiciones de gestionar adecuadamente, es la que debe prevenirse.
5.3. Rol específico del Consejo Federal del Notariado Argentino (CFNA)
El CFNA, como organización asociativa de segundo grado que nuclea a los 24 colegios notariales del país, está llamado a desempeñar un papel central en la gobernanza de la IA para el notariado argentino. Entre sus responsabilidades específicas podrían identificarse:
- Elaborar y aprobar un Marco de Gobernanza ética de IA para el Notariado Argentino, con principios, estándares mínimos y protocolos de uso, armonizado con los principios de la OCDE y los estándares internacionales del notariado (UINL).
- Coordinar con los colegios provinciales la adopción uniforme de estándares tecnológicos que eviten la fragmentación del sistema y la creación de asimetrías entre notarios con distintas capacidades de acceso tecnológico y conocimiento.
- Articular con la Agencia de Acceso a la Información Pública (AAIP) y con los organismos reguladores pertinentes los aspectos de protección de datos personales implicados en el uso de IA en procesos notariales.
6. Alfabetización digital
6.1. El estado actual del problema
Los procesos tecnológicos en el notariado deben desarrollarse mediante una gran capacitación del notariado en tecnologías, reconociendo las simetrías y asimetrías, incentivando la alfabetización digital y el acompañamiento de las instituciones. Esta afirmación, aparentemente simple, contiene un programa de acción institucional de considerable alcance. La brecha de alfabetización digital en el notariado no es un problema de voluntad individual, es estructural. Los planes de estudio universitarios de derecho, base de la formación notarial, no incorporan sistemáticamente contenidos de ciencias de la computación, seguridad informática, ética de la IA o gestión de datos. Los notarios que hoy ejercen la profesión fueron formados en un paradigma analógico y enfrentan una transformación tecnológica sin precedentes, frecuentemente sin los recursos conceptuales para evaluarla críticamente.
6.2. Componentes de un programa serio de alfabetización digital
Un programa de alfabetización digital para notarios que sea coherente con los principios éticos analizados debería incluir, como mínimo, los siguientes componentes:
- a) Fundamentos de IA para no especialistas
Los notarios deben poder comprender qué es un modelo de lenguaje, cómo se entrena, qué significa que un sistema sea estocástico (y por tanto no determinista), y qué implica el fenómeno de las alucinaciones de los modelos de IA generativa. Este conocimiento es el presupuesto indispensable para evaluar críticamente los resultados que una herramienta de IA produce.
- b) Protección de datos personales y secreto profesional en el entorno digital
Los notarios deben conocer las obligaciones que impone la Ley 25.326 y su marco reglamentario respecto del tratamiento de datos de terceros, especialmente en relación con el uso de servicios en la nube y plataformas de IA. La formación debe incluir el análisis concreto de los contratos de servicio y las políticas de privacidad de las principales herramientas de IA que circulan en el mercado, evaluando su compatibilidad con el deber de confidencialidad notarial.
- c) Evaluación crítica de resultados de IA
Consistente con el principio de autonomía de Floridi y Cowls, el notario debe ser entrenado en la práctica de la revisión crítica de los productos generados por herramientas de IA. Ningún borrador producido por un sistema de IA debe ser incorporado a un instrumento público sin revisión sustantiva por parte del notario autorizante.
- d) Principios del notariado latino en el entorno digital
La alfabetización digital debe integrarse con los principios clásicos de la función notarial: inmediación, autoría, fe pública, legalidad y rogación. El notario debe poder identificar en qué puntos del iter notarial la IA puede asistir sin comprometer estos principios, y en cuáles su uso sería incompatible con ellos.
7. Aplicaciones concretas en los procesos notariales y sus implicancias en la gobernanza
7.1. Las propuestas
En el trabajo sobre aplicación de IA a procesos notariales ya trabajamos sobre un conjunto de aplicaciones concretas de IA a procesos notariales que resultan de particular interés para ilustrar los principios de gobernanza analizados:
- Plataforma notarial a distancia con biometría y georreferenciación para la actuación notarial remota.
- Automatización de la lectura temprana de copias de escrituras públicas mediante PLN (procesamiento del lenguaje natural) para el control de obligaciones tributarias y aportes.
- Notarybot: asistente virtual para la atención de consultas de los usuarios del servicio notarial.
- Estadísticas estandarizadas a partir de los datos procesados por las plataformas institucionales.
- Registro electrónico de testimonios digitales.
- Análisis documental para la detección de clusters y anomalías en el marco de las obligaciones de información ante la UIF.
7.2. Análisis desde los principios de gobernanza
Todas las propuestas mencionadas tienen en común un rasgo relevante desde la perspectiva de la gobernanza: son aplicaciones diseñadas para ser implementadas por la institución colegiada, no por el notario individual. Esta es precisamente la arquitectura de gobernanza correcta.
La plataforma de actuación notarial a distancia es desarrollada, aprobada y controlada por el colegio de escribanos, no por cada notario por separado; el sistema de lectura automática de copias debe operar sobre la infraestructura del colegio y sus datos institucionales; el Notarybot debe ser una herramienta institucional del colegio o del CFNA; el registro de testimonios digitales debe ser administrado por el colegio. En cada caso, la institución colegiada asume la responsabilidad tecnológica, audita la herramienta y controla su funcionamiento.
Este modelo contrasta directamente con el escenario de shadow AI: en lugar de que cada notario busque individualmente una solución de IA en el mercado, la institución provee herramientas validadas, auditadas y compatibles con las obligaciones legales de la profesión.
Desde la perspectiva del principio de explicabilidad de Floridi y Cowls, el modelo institucional también ofrece ventajas claras: la institución puede exigir a sus proveedores tecnológicos niveles de explicabilidad que el notario individual no estaría en posición de negociar o de evaluar técnicamente.
-
Hacia un marco de Gobernanza Ética de la IA para el Notariado Argentino
8.1. Principios de Gobernanza Ética de la IA en la función notarial
Sobre la base del análisis realizado, proponemos un conjunto de principios articuladores para un Marco de Gobernanza Ética de la IA para el Notariado Argentino, coherente con los estándares internacionales examinados:
- Beneficencia: La IA debe ser desarrollada y desplegada para promover el bienestar de todos. En el ámbito notarial, este principio se traduce en el imperativo de que cualquier herramienta de IA contribuya a mejorar la calidad del servicio al ciudadano, la seguridad jurídica y la eficiencia del sistema documental.
- Trazabilidad obligatoria: Los sistemas de IA institucionales deben garantizar la trazabilidad completa de sus operaciones, compatible con el régimen de responsabilidad notarial.
- No maleficencia: La IA no debe causar daño. Esto abarca la protección de la privacidad personal, la protección de los derechos humanos, la prevención del uso indebido de datos sensibles contenidos en escrituras públicas, y la neutralización de riesgos de seguridad informática.
- Autonomía y subsidiariedad de la IA: La IA es una herramienta auxiliar de la función notarial, nunca sustitutiva de la calificación, autoría y responsabilidad del notario. Debe mantenerse un equilibrio entre la delegación de decisiones a sistemas de IA y la preservación del juicio humano. En la función notarial, el notario no puede abdicar su responsabilidad de calificación, identificación y autoría del documento público en favor de un algoritmo. La automatización debe ser auxiliar, no sustitutiva.
- Aprendizaje continuo: Los colegios y el CFNA tienen el deber de proveer formación continua y obligatoria en materia de IA ética, protección de datos y uso responsable de tecnología. Los beneficios de la IA deben distribuirse equitativamente, evitando discriminaciones y sesgos. En el contexto notarial argentino, este principio exige que las herramientas tecnológicas sean accesibles para todos los notarios, y que no amplíen brechas existentes de capacidad institucional.
- Proporcionalidad y precaución: Las medidas de habilitación o restricción del uso de herramientas de IA deben ser proporcionales al riesgo potencial, revisables conforme avance el conocimiento y aplicadas con transparencia.
- Responsabilidad institucional diferenciada: La responsabilidad por el correcto funcionamiento de las plataformas institucionales de IA es de la institución colegiada, sin perjuicio de la responsabilidad individual del notario por el acto autorizado.
-
Conclusiones
La incorporación de inteligencia artificial a los procesos notariales es un escenario ya en marcha, cuya aceleración es previsible en el corto y mediano plazo. La pregunta que enfrenta el notariado argentino no es si adoptar IA o no, sino cómo gobernar su adopción de manera responsable, coherente con los principios que fundan la función notarial y respetuosa de los derechos fundamentales de los ciudadanos que acuden al servicio de fe pública.
El análisis realizado permite extraer las siguientes conclusiones principales:
- Los principios internacionales de ética de la IA, tanto el marco de Floridi y Cowls (2019) como la Recomendación OCDE (2019), proporcionan una base robusta y legitimada para construir un marco de gobernanza específico para el notariado argentino. La aplicación de estos principios al contexto notarial no requiere forzar categorías: la beneficencia, la no maleficencia, la autonomía, la justicia y la explicabilidad encuentran una correspondencia natural con los principios clásicos del notariado de tipo latino.
- El principio precautorio, es directamente aplicable al campo de la IA notarial: ante la incertidumbre sobre los efectos a largo plazo de estas tecnologías sobre la seguridad jurídica y los derechos humanos, la institución notarial debe adoptar medidas anticipatorias proporcionales, sin esperar a que se produzca un daño concreto.
- El fenómeno de la shadow AI representa el riesgo más inmediato y menos visible del proceso de digitalización notarial. Su prevención requiere medidas institucionales concretas: desarrollo y propuestas de herramientas habilitadas, canales de consulta y reporte accesibles para los notarios.
- La responsabilidad por la gobernanza tecnológica de la IA en el notariado es, en primera instancia, institucional, de los colegios de escribanos y del CFNA, y no individual. El notario no puede ni debe asumir en soledad la evaluación técnica, jurídica y ética de las herramientas de IA que utiliza en los diferentes procesos que desarrolla en el marco de su función pública.
- El aprendizaje continuo y la alfabetización digital de los notarios no es un complemento deseable sino una condición de posibilidad para el ejercicio responsable de la función en el entorno tecnológico actual. Debe ser planificada, financiada y certificada institucionalmente, con contenidos mínimos comunes a nivel nacional.
El notariado se encuentra ante un virtuoso y positivo movimiento de transformación tecnológica. Que ese movimiento sea efectivamente virtuoso dependerá en gran medida de la solidez de las estructuras de gobernanza ética que la institución notarial construya en los próximos años.
Referencias bibliográficas y normativa
Doctrina:
Álvarez Sáenz, H. Una breve historia entre saberes jurídicos y no jurídicos. En Corvalán, J. (Dir.), Tratado de Inteligencia Artificial y Derecho, Thomson Reuters, La Ley, 2021, Tomo II, p. 37.
Floridi, L. & Cowls, J. (2019). A Unified Framework of Five Principles for AI in Society. Harvard Data Science Review, Issue 1.1, Summer 2019. DOI: https://doi.org/10.1162/99608f92.8cd550d1
Kemelmajer de Carlucci, A. (2014). El principio precautorio. Rosario. Recuperado de https://rephip.unr.edu.ar/server/api/core/bitstreams/327048d1-d960-408e-a782-68efe4e39cf3/content
OCDE (2019). Recommendation of the Council on Artificial Intelligence. OECD/LEGAL/0449. Adoptada el 22 de mayo de 2019. https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
Salierno, G. & Bielli, G. Aplicación de IA a procesos notariales: Notar-IA. Thomson Reuters, La Ley.
Savoie, R. & Cinalli, C. Atención al cliente 4.0. Los chatbots. En Corvalán, J. (Dir.), Tratado de Inteligencia Artificial y Derecho, Thomson Reuters, La Ley, Buenos Aires, 2021, p. 17.
Torres Jarrín, M. (2021). La UE & la gobernanza ética de la inteligencia artificial: Inteligencia Artificial & Diplomacia. Cuadernos Salmantinos de Filosofía Vol 48, 2021, 213-234.
https://revistas.upsa.es/index.php/cuadernossalmantinos/article/view/302
UINL (2021). Decálogo para las escrituras notariales con comparecencia en línea. Adoptado en Asamblea de Notariados Miembros el 3 de diciembre de 2021. https://www.uinl.org/documents/20181/339555/ES+Comparecencia+en+linea/1440629c-956f-4c94-86c9-6ad490c3ce6d
Otras referencias
Ramos, G (2023). El debate de la ética de la IA no es tecnológico sino social
https://news.un.org/es/interview/2023/05/1520557
Naciones Unidas (2023). La inteligencia artificial precisa de una regulación para que beneficie a todos
https://news.un.org/es/story/2023/07/1522542
World Economic Forum (2023). ¿Qué es la inteligencia artificial y qué no es?
https://es.weforum.org/agenda/2023/03/que-es-la-inteligencia-artificial-y-que-no-es/
Base de datos y publicaciones:
Unión Europea
https://www.consilium.europa.eu/en/documents-publications/publications/
https://edps.europa.eu/press-publications/publications_en
Parlamento Europeo
EU AI Act
Foro Económico Mundial
https://www.weforum.org/publications/?page=1
OCDE AI
https://oecd.ai/en/ai-principles
UNESCO
https://www.unesco.org/en/artificial-intelligence/recommendation-ethics
European Institute of International Studies
https://www.ieeiweb.eu/publications
[1] Shadow IA, que es y porque la representa un riesgo y como gestionarla eficazmente. Recuperado de https://isotools.org/2025/10/30/shadow-ai-que-es-por-que-representa-un-riesgo-y-como-gestionarla-eficazmente/ (última consulta 13-3-2026).
[2] Reglamento UE AI Act 2024. Recuperado de https://www.boe.es/doue/2024/1689/L00001-00144.pdf
[3] Floridi, L. & Cowls, J. (2019). A Unified Framework of Five Principles for AI in Society. Harvard Data Science Review, 1(1). https://doi.org/10.1162/99608f92.8cd550d1
[4] Los Principios de IA de Asilomar, coordinados por FLI y desarrollados en la conferencia Beneficial AI 2017, son uno de los primeros y más influyentes conjuntos de principios de gobernanza de la IA. Recuperado de https://futureoflife.org/es/open-letter/ai-principles/ (última consulta 13-3-2026).
[5] DECLARACIÓN DE MONTREAL PARA UN DESARROLLO RESPONSABLE DE LA INTELIGENCIA ARTIFICIAL, 2018. Recuperado de https://declarationmontreal-iaresponsable.com/wp-content/uploads/2023/01/ES-UdeM_Decl-IA-Resp_LA-Declaration_v4.pdf (última consulta 13-3-2026).
[6] Directrices del IEEE sobre Inteligencia Artificial. Recuperado de https://cis.ieee.org/publications/ieee-transactions-on-artificial-intelligence (última consulta 13-3-2026).
[7] Comisión Europea. Grupo Europeo sobre Ética de la Ciencia y las Nuevas Tecnologías. Declaración sobre Inteligencia artificial, robótica y sistemas “autónomos”. Recuperado de https://www.bioeticayderecho.ub.edu/archivos/pdf/EGE_inteligencia-artificial.pdf (última consulta 13-3-2026).
[8] Partnership on AI, “Partnership on AI is bringing together diverse voice from across the AI community,” Partnershiponai.org. Disponible: https://partnershiponai.org/ https://philarchive.org/archive/MORAEI-11
[9] OCDE (2019). Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449. https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
[10] Kemelmajer de Carlucci, A. (2014). El principio precautorio. Rosario. Recuperado de https://rephip.unr.edu.ar/server/api/core/bitstreams/327048d1-d960-408e-a782-68efe4e39cf3/content


