Ética de la IA generativa en la formación legal universitaria

 

Ethics of generative AI in university legal education

 

https://doi.org/10.47606/ACVEN/PH0375  

 

Eliana del Rocío Rodríguez Salcedo[1]*               Doménica Jasiel Molina Hurtado1

https://orcid.org/0000-0001-5062-0441                   https://orcid.org/0009-0003-5894-9577

edr.rodriguez@uta.edu.ec                                               dmolina9451@uta.edu.ec

Yennifer Tatiana Morocho Sáez1                                 Kerly Abigail Lema Vaca1

https://orcid.org/0009-0006-7934-4106            https://orcid.org/0009-0004-0142-5577
ymorocho4880@uta.edu.ec               klema0330@uta.edu.ec

Mathew Abraham Morales Alvarado1              Martha Carolina Espinosa Rodríguez1
https://orcid.org/0009-0000-6383-4983                 https://orcid.org/0009-0006-8342-5849  
mmorales3996@uta.edu.ec               mespinosa5702@uta.edu.ec

Alex David Guangasi Lagua1          Marlon Alejandro Centeno Chiguano1
https://orcid.org/0009-0008-0310-6501              https://orcid.org/0009-0007-5754-7700  
aguangasi9918@uta.edu.ec           mcenteno5970@uta.edu.ec

Bryan Henry Zamora Paredes1
https://orcid.org/0009
-0002-5447-94353  
bzamora2048@uta.edu.ec

Recibido: 27/06/2025                                                     Aceptado: 29/08/2025

 

RESUMEN

La incorporación de la inteligencia artificial generativa (IAG) en la formación jurídica universitaria de América Latina abre oportunidades y tensiones éticas, pedagógicas y regulatorias. Objetivo: analizar cómo las instituciones universitarias están abordando la integración de la IAG desde la transparencia, la responsabilidad y la supervisión humana. Método: revisión sistemática de documentos institucionales, marcos normativos y guías universitarias (2019–2025) siguiendo PRISMA. Se consultaron bases académicas y repositorios en español, portugués e inglés; de 142 registros iniciales se incluyeron 38 documentos. Resultados: se identifican brechas entre instituciones públicas y privadas en infraestructura y políticas; carencias de formación docente y guías de uso; riesgos para la integridad académica (plagio, delegación del razonamiento) y limitaciones de detectores de IA con sesgos lingüísticos. A la par, emergen buenas prácticas: alfabetización crítica en IA, rediseño de evaluaciones auténticas, declaración del uso de IAG y comités de gobernanza. Discusión: persisten tensiones entre vigilancia y confianza, y entre innovación y equidad; sin políticas inclusivas la IAG podría ampliar desigualdades. Una gobernanza participativa y sensible al contexto favorece la legitimidad y la adopción ética. Conclusiones: se requiere un marco institucional que articule ética, pedagogía y gobernanza, con formación docente continua, lineamientos claros de autoría y protección de datos, y evaluaciones centradas en pensamiento crítico. La IAG debe operar como apoyo a la agencia humana y no como sustituto, promoviendo una cultura académica responsable e inclusiva.

 

Palabras clave: Inteligencia artificial; educación superior; ética; enseñanza del derecho; gobernanza; américa latina.

 

ABSTRACT

 

The integration of generative artificial intelligence (GAI) into legal higher education in Latin America creates both opportunities and ethical, pedagogical, and regulatory tensions. Objective: to examine how universities are incorporating GAI based on transparency, responsibility, and human oversight. Method: a systematic review of institutional documents, regulatory frameworks, and university guidelines (2019– 2025) following PRISMA. Academic databases and repositories were searched in Spanish, Portuguese, and English; out of 142 records, 38 documents were included. Results: we found gaps between public and private institutions in infrastructure and policies; limited faculty training and usage guidelines; threats to academic integrity (plagiarism, outsourced reasoning) and limitations of AI detectors with linguistic bias. Concurrently, good practices are emerging: critical AI literacy, authentic assessment redesign, disclosure of GAI use, and governance committees. Discussion: tensions persist between surveillance and trust, and between innovation and equity; without inclusive policies, GAI may widen educational inequalities. Participatory, contextsensitive governance fosters legitimacy and ethical adoption. Conclusions: universities need institutional frameworks aligning ethics, pedagogy, and governance, including ongoing faculty development, clear authorship and dataprotection guidelines, and assessments focused on critical thinking. GAI should support rather than replace human agency, advancing a responsible and inclusive academic culture.

 

Keywords: artificial intelligence; higher education; ethics; legal education; governance; latin America

 

INTRODUCCIÓN

 

La acelerada expansión de la inteligencia artificial generativa (IAG) está redefiniendo los pilares de la educación superior, especialmente en disciplinas que requieren razonamiento crítico, argumentación compleja e interpretación normativa, como el derecho. Como expresan Jarquín-Ramírez et al., (2025) esta tecnología permite la creación autónoma de textos, análisis y resoluciones jurídicas a partir de grandes volúmenes de datos, lo que plantea oportunidades inéditas y desafíos significativos. Para Acosta-Enriquez et al., (2025) en América Latina, su incorporación ocurre en un contexto marcado por desigualdades estructurales, brechas tecnológicas y ausencia de marcos regulatorios sólidos, factores que condicionan la equidad en el acceso y el uso de estas herramientas. Este escenario exige una evaluación crítica que no se limite a lo técnico, sino que incorpore perspectivas éticas, pedagógicas y sociales.

En el ámbito jurídico universitario, la IAG se presenta como un instrumento de doble filo. Por un lado, puede potenciar el análisis doctrinal, la redacción de documentos jurídicos y el acceso a fuentes normativas complejas, fortaleciendo la formación profesional. Por otro, su uso indiscriminado puede propiciar el plagio automatizado, la pérdida de habilidades argumentativas y la dependencia de procesos automatizados (Ricoy-Casas et al., 2025). Estas tensiones obligan a repensar los modelos pedagógicos y a establecer criterios éticos que regulen su implementación. Sin una gestión responsable, el valor formativo de la educación jurídica podría verse seriamente comprometido, afectando tanto la calidad académica como la confianza pública en las instituciones (Gómez et al., 2025).

De acuerdo con Pokrovskaya, (2025) las respuestas institucionales frente a la IAG en América Latina son heterogéneas. Algunas universidades han comenzado a elaborar directrices para su uso responsable, mientras que otras carecen de políticas claras, dejando la decisión a la discrecionalidad de docentes y estudiantes. A la vez, según Arriazu, (2025) esta fragmentación provoca desigualdades en la aplicación de la tecnología y en el acceso a recursos formativos, lo que incrementa la brecha entre instituciones públicas y privadas. Además, la falta de lineamientos comunes dificulta el desarrollo de una cultura académica coherente que garantice transparencia, responsabilidad y equidad. Ante ello, se hace necesario promover marcos normativos que orienten la integración de la IAG en la enseñanza del derecho.

La gobernanza institucional se convierte, así, en un factor clave para garantizar que la incorporación de la IAG respete principios de integridad académica y derechos digitales. Según Vidal y da Cunha (2025) los modelos de gobernanza participativa, que incluyan a docentes, estudiantes y autoridades, pueden generar normas más inclusivas y eficaces. Tales políticas para Jaramillo et al., (2025) deben abordar no solo la regulación técnica, sino también la capacitación en competencias digitales y éticas, esenciales para un uso crítico de la tecnología. La equidad en el acceso, la diversidad cultural y la protección de datos personales deben ser ejes centrales de cualquier estrategia.

En este contexto, la alfabetización crítica en inteligencia artificial se perfila como una competencia transversal imprescindible para estudiantes y docentes. Esta formación debe permitir comprender el funcionamiento de la IAG, sus limitaciones, riesgos y potencialidades, así como su impacto en la creación y validación del conocimiento jurídico. Un enfoque pedagógico que integre el uso ético de la IAG en tareas académicas puede fomentar la reflexión crítica y reducir la dependencia tecnológica. Esto implica rediseñar evaluaciones, promover la autoría compartida y desarrollar estrategias que potencien la creatividad y el pensamiento crítico.

El presente estudio tiene como objetivo examinar las respuestas institucionales frente a la creciente presencia de la IAG en la educación jurídica universitaria en América Latina. A partir de una revisión sistemática de documentos normativos, políticas académicas y directrices internacionales, se identifican tendencias, buenas prácticas y vacíos regulatorios. Con ello, se pretende aportar al diseño de marcos de gobernanza inclusivos y adaptados a la realidad regional, que permitan incorporar la IAG de forma ética, equitativa y orientada al fortalecimiento de una pedagogía crítica. La finalidad última es que esta tecnología complemente, y no sustituya, la agencia intelectual de los futuros profesionales del derecho.

 

 

MARCO TEÓRICO

 

La inteligencia artificial generativa (IAG) ha inaugurado una etapa inédita en la producción y gestión del conocimiento, alterando los procesos tradicionales de aprendizaje y creación académica. De acuerdo con Goyibova et al., (2025) en el campo jurídico, su capacidad para elaborar textos, analizar normas y proponer soluciones plantea nuevos escenarios para la formación universitaria. Según Ledesma y Rodríguez (2025) el impacto de estas herramientas no se limita al plano técnico; también incide en la manera en que se conciben la autoría, la interpretación de datos y la validación del saber. Esta situación obliga a revisar críticamente las bases teóricas que sustentan la enseñanza del derecho, considerando sus implicaciones éticas y sociales.

El concepto de autonomía intelectual ocupa un lugar central en este debate. Como expresan Flores et al., (2025) esta noción implica que el estudiante construya criterios propios, argumente con fundamento y evalúe con rigor la información disponible. El empleo sin control de la IAG puede debilitar estas destrezas, transfiriendo el esfuerzo cognitivo a sistemas automáticos. Varias investigaciones como la de van Berkel et al., (2023) mencionan que, al reducirse la intervención reflexiva, disminuye la capacidad para enfrentar casos complejos y adaptarse a contextos cambiantes. La preservación de esta autonomía requiere guías pedagógicas claras y prácticas que estimulen el análisis independiente.

El estudio de Jurado et al., (2020) plantean que la incorporación de tecnologías emergentes en la universidad exige una transformación profunda de los métodos de enseñanza y evaluación. No se trata únicamente de introducir herramientas digitales, sino de garantizar que estas promuevan procesos formativos orientados al pensamiento crítico y la reflexividad. Desde esta perspectiva, la pedagogía crítica en el ámbito legal adquiere relevancia, ya que busca que la inteligencia artificial generativa actúe como un catalizador para la autonomía intelectual y no como un recurso que debilite las capacidades cognitivas del estudiante. De este modo, el uso de la IA en el aula no debería limitarse a simplificar tareas, sino a estimular competencias complejas que permitan enfrentar escenarios jurídicos cambiantes.

La ética, como principio regulador, establece los límites y responsabilidades asociados al uso académico de tecnologías emergentes. Para Novozhilova et al., (2024) la transparencia en la declaración de herramientas utilizadas y el respeto por la integridad intelectual son elementos esenciales para evitar conflictos de autoría. Instituciones y organismos internacionales coinciden en la necesidad de protocolos que definan usos aceptables, medidas de supervisión y procedimientos para resolver infracciones. En este contexto, Bojic (2024) menciona que dichos lineamientos deben adaptarse a los distintos entornos culturales y académicos, evitando enfoques rígidos que obstaculicen la innovación.

En el estudio realizo por Zambrano et al., (2018) se evidencia cómo la ausencia de capacitación y acompañamiento docente en el uso de plataformas virtuales generó desigualdades significativas en el acceso educativo, ampliando la brecha digital. Esto demuestra que la adopción de tecnologías sin condiciones de justicia y equidad puede producir exclusión en lugar de inclusión. Desde el plano pedagógico, la resistencia y falta de habilidades digitales por parte de los docentes afectaron directamente la calidad del proceso de enseñanza-aprendizaje, evidenciando que la integración de la IA no es un asunto meramente técnico, sino un cambio metodológico que exige formación docente. En términos de gobernanza, la ausencia de políticas claras y de un marco institucional sólido para acompañar la innovación tecnológica revela la necesidad de estructuras académicas que regulen y orienten el uso de la IA generativa.

Para Häyry y Takala (2024) la gobernanza tecnológica ofrece un marco para armonizar innovación y responsabilidad. No se trata únicamente de regular, sino de habilitar estructuras participativas en las que estudiantes, docentes y autoridades contribuyan a la toma de decisiones. Según Alshurideh et al., (2024) este modelo favorece políticas flexibles, capaces de responder a transformaciones rápidas y a demandas específicas de cada institución. En América Latina, donde las desigualdades en infraestructura y acceso persisten, la gobernanza inclusiva adquiere especial relevancia como herramienta para reducir brechas y garantizar oportunidades equitativas.

Integrar la IAG de forma responsable implica coordinar tres ejes interdependientes: la autonomía intelectual, la ética académica y la gobernanza institucional. Para van Berkel et al., (2023) el primero busca garantizar que el aprendizaje conserve su carácter reflexivo; el segundo protege los derechos y deberes de quienes participan en el proceso educativo; y el tercero asegura la coherencia normativa y organizativa. Analizar su interacción permite comprender cómo una tecnología con gran potencial puede, al mismo tiempo, generar riesgos si se aplica sin un marco regulador sólido.

Los estudios revisados revelan experiencias donde la incorporación de la IAG ha fortalecido la enseñanza jurídica gracias a la capacitación docente, la inclusión de competencias digitales en el currículo y la creación de comités especializados (Ricoy-Casas et al., 2025). En estos casos, la tecnología se emplea como herramienta de apoyo y no como sustituto del trabajo intelectual. Este enfoque fomenta la confianza de la comunidad académica y fortalece la reputación institucional, demostrando que la innovación puede integrarse sin comprometer los valores educativos.

 

METODOLOGÍA

 

La presente investigación se realizó a través de un método de revisión sistemática de documentos, con la finalidad de identificar, examinar y sintetizar pruebas académicas, normativas e institucionales asociadas con la integración ética de la inteligencia artificial generativa (IAG) en la educación jurídica universitaria en Latinoamérica. El modelo PRISMA fue seleccionado como marco metodológico, dado que proporciona parámetros transparentes y replicables para la elección y análisis de fuentes de resultados, especialmente en investigaciones no experimentales centradas en las ciencias sociales y la educación superior (YepesNuñez et al., 2021). Este enfoque metodológico facilitó el examen crítico de los documentos analizados, respetando los principios de transparencia y trazabilidad intrínsecos a la investigación científica.

La recopilación de datos se llevó a cabo en el intervalo temporal de abril a junio de 2025, utilizando bases de datos académicas y repositorios institucionales pertinentes, tales como Scopus y Web of Science (Sánchez et al., 2022). Los criterios de inclusión consideraron documentos publicados en el intervalo temporal de 2019 a 2025, redactados en español, portugués o inglés, que se enfocaban en al menos uno de los siguientes ejes: 1) la implementación de la inteligencia artificial generativa en el ámbito de la educación superior; 2) la ética de la Inteligencia Artificial en contextos educativos; 3) las políticas universitarias sobre tecnologías emergentes; y 4) la educación jurídica en América Latina. Se eliminaron artículos de carácter técnico carentes de contenido pedagógico o ético, junto con documentos normativos que no están disponibles en su versión completa. El procedimiento de selección se llevó a cabo en tres fases consecutivas: 

 

1)    inicialmente, se identificaron 142 documentos de potencial relevancia mediante la combinación de palabras clave (tales como "inteligencia artificial generativa", "ética educativa", "formación jurídica", "universidad", "América Latina"; 

2)    se implementaron filtros de pertinencia y calidad metodológica, lo que resultó en una reducción del corpus a 68 textos; 

3)    se llevó a cabo una lectura crítica y analítica, seleccionando 39 documentos que satisfacían los criterios de relevancia temática, contemporaneidad y profundidad analítica necesarios para la investigación.

 

La adopción de la triangulación entre categorías temáticas se utilizó como una estrategia para garantizar la validez interpretativa del análisis cualitativo. Este método permitió la detección de interrelaciones entre los ejes analizados: ética, gobernanza, pedagogía e implementación institucional, identificando tanto convergencias como tensiones en los hallazgos obtenidos. Se adoptó un enfoque sistemático basado en una matriz de datos elaborada en Excel, que incluyó campos como autor, año, tipo de estudio, categorías asignadas, subtemas emergentes y citas clave. La codificación temática adoptó un enfoque inductivo, permitiendo la generación directa de temas basándose en el contenido de los 39 artículos, en lugar de recurrir a categorías preestablecidas.

El proceso de codificación y agrupación temática resultó en la configuración de una estructura analítica que se compone de cuatro categorías fundamentales: ética, pedagogía, gobernanza e implementación. Estas categorías facilitaron una organización coherente de los estudios escogidos, promoviendo la comparación entre enfoques y la detección de patrones conceptuales. Además, se identificaron intersecciones significativas entre categorías, particularmente entre la ética y la pedagogía, lo que pone de manifiesto la complejidad inherente al fenómeno en estudio. La cuantificación de la frecuencia de aparición de cada categoría se resume en la tabla 1.

 

Tabla 1. 

Categorías temáticas.

Categoría Temática

Número de artículos

Ética

32

Pedagogía

26

Gobernanza

20

Implementación

19

Nota: algunos artículos fueron codificados en más de una categoría temática, por lo cual la suma total excede los 39 estudios analizados.

 

Se llevó a cabo un análisis comparativo entre las propuestas, normativas institucionales y las directrices internacionales, evaluando el grado de congruencia entre ellos. Este método facilitó la construcción de una visión más integrada del fenómeno y fomentó la síntesis argumental del estudio. Así, la triangulación se consolidó como un mecanismo de validación interna, aceptado metodológicamente en revisiones cualitativas cuando se documenta de forma estructurada y transparente, los artículos que fueron tomados en consideración para el estudio se encuentran en la tabla 2.

 

Figura 1PRISMA.

 

 

RESULTADOS

En base a la base de datos obtenida y a las categorías de estudio se obtuvo la siguiente base de datos

 

Tabla 2. 

Artículos para el análisis.

Título

Autor

Año

Base de datos

Tipo de estudio

Categorías temáticas

Sistemas emergentes

Citas o comentarios

1

Perceptions                 of ChatGPT

(George-

Reyes         et

al., 2025)

2024

Scopus

Empírico

(cuantitativo, encuestas estudiantiles)

Ética, Pedagogía, Implementación

Percepción                 estudiantil, autonomía,                 formación ética, apoyo académico

Se destaca la percepción positiva de ChatGPT en cuanto a motivación y autonomía, aunque se mencionan riesgos éticos y de dependencia tecnológica.

2

Inteligencia artificial     en                 la administración universitaria

(Téllez         et

al., 2024)

2023

Scopus

Teórico-analítico

Gobernanza,

Implementación

Gestión universitaria, transformación digital, liderazgo, IA institucional

La IA es vista como un agente de transformación en la administración universitaria, pero se requieren marcos de gobernanza claros para su implementación ética.

3

Gobernanza, poder y autonomía universitaria en la era           de                 la

innovación

(Silva,

2022)

2022

Scopus

Teóricoargumentativo

Gobernanza, ética

Autonomía universitaria, control tecnológico, ética institucional

El artículo analiza críticamente cómo el avance tecnológico puede debilitar la autonomía de las universidades si no se establecen principios éticos sólidos.

4

On                  Data

Protection

Regulations,       Big

Data                 and

Sledgehammers in

Higher Education

(García-

Vélez et al.,

2019)

2019

Scopus

Empírico

(análisis    con redes neuronales

MLP)

Ética, gobernanza

Protección de datos, uso excesivo de Big Data, irrelevancia de datos socioeconómicos

El estudio revela que el uso indiscriminado de datos sin fundamento ético ni valor predictivo puede ser contraproducente para la gestión educativa.

5

Neuro-rights,                 a demand for justice in the Neuralink

era

(Ticona,

2025)

2025

Scopus

Teóricoargumentativo (bioética personalista)

Ética, gobernanza

Neuroderechos, privacidad mental, IA y dignidad humana

Propone los neuroderechos como exigencia de justicia frente a las amenazas de la neurotecnología y la IA sobre la autonomía y privacidad.

6

Towards    the ethical regulation of                 the                 use                 of

artificial

intelligence           in

scientific research

(Antonio Breceda

Pérez,

2025)

2025

Scopus

Cualitativo documntal

Ética, gobernanza

Normas     académicas, transparencia, uso ético de                 IA,                 regulación

institucional

Diseña lineamientos éticos para el uso de IA en universidades públicas mexicanas; enfatiza la declaración del uso de IA y buenas prácticas.

7

Impact      of generative artificial intelligence                 in scientific integrity:

A           bibliometric

analysis

(Toia et al., 2025).

2025

Scopus

Empírico (análisis bibliométrico)

Ética,

Implementación

Integridad científica, plagio,       liderazgo                 ético, detección de IA

Identifica riesgos de plagio y mala conducta con IA; urge mejorar regulaciones y formación ética para el uso responsable de ChatGPT en investigación.

8

Regulatory burdens,

innovation,

artificial intelligence: regulatory dilemmas

(Font, 2025)

2025

Scopus

Teórico-jurídico

Gobernanza, ética

Cargas      normativas, innovación                 tecnológica, regulación proporcional

Aborda los dilemas entre regulación y desarrollo de IA; propone regulación flexible considerando riesgos y tamaño empresarial.

9

Computational

Neuroscience                 in Higher Education

(Adauto-

Medina        et

al., 2025)

2025

Scopus

Revisión sistemática

Pedagogía, implementacón

Neuroeducación, personalización del aprendizaje, barreras

tecnológicas

Revisión de CNS aplicada a educación superior; sugiere potencial en mejora del aprendizaje, pero requiere marcos éticos y reguladores claros.

10

Generative

Artificial

Intelligence                 and Transversal

Competencies       in

Higher Education

(DeronceleAcosta                 et

al., 2025)

2025

Scopus

Revisión sistemática

(PRISMA)

Pedagogía, Ética, Implementación

Competencias

transversales, alfabetización en IA, innovación curricular,

ética digital

Identifica 15 competencias transversales clave como pensamiento crítico, autorregulación, liderazgo; destaca procesos estratégicos como desarrollo docente y transformación curricular para la adopción ética de IA.

11

ChatGPT   and academic writing in                 university

students

(Ledesma

Pérez           &

Rodríguez

Paredes,

2025

Scopus

Empírico

cualitativo

(fenomenológico hermenéutico)

Pedagogía, ética

Redacción académica, percepción                 estudiantil, monitoreo docente

Docentes y estudiantes valoran ChatGPT como herramienta útil; mejora redacción y eficiencia académica, pero plantea riesgos de

 

 

2025)

 

 

 

 

 

plagio y dependencia.

Literature Review on the Use of Emerging

12

Technologies for Industrial Process

Automation

(Espinoza et al., 2025)

2025

Scopus

Revisión sistemática

(PRISMA)

Implementación, ética

Automatización industrial, IA aplicada, sostenibilidad

Analiza 73 estudios; IA y robótica son tecnologías clave; resalta ahorro de costos, eficiencia y retos éticos en su implementación

             Education         for

Sustainability:

Integrating

    13      Sustainable

Development into the University

Curriculum

(Newton &

Jones,

2024)

2025

Scopus

Documental teórico

Pedagogía, ética

Currículo   sostenible, enfoque     crítico,

colaboración interdisciplinaria

Propuesta de currículo con enfoque sostenible; enfatiza acción crítica y trabajo interdisciplinario como clave educativa

             Digitalisation     to

Improve

14

Automated Agro-

Export Logistics

(Cortez-

Clavo et al., 2025).

2025

Scopus

Análisis bibliométrico                 y

revisión sistemática

Implementación, gobernanza

Digitalización,

automatización logística, políticas públicas

IA mejora logística agroexportadora; propone integración tecnológica y políticas públicas para eficiencia en comercio transfronterizo

Exploring the Determinants of the Sustainable

Use of Artificial 15

             Intelligence        in

Peruvian

University

Teachers

(AcostaEnriquez,

ReyesPerez,                 et

al., 2025)

2025

Scopus

Empírico

cuantitativo

(modelo         de

ecuaciones estructurales)

Ética,

Implementación,

Pedagogía

Actitud hacia IA, prejuicio,

condiciones institucionales,

sostenibilidad, percepción ética

Estudio transversal con 368 docentes peruanos; actitud, condiciones y prejuicios son determinantes clave; la percepción ética se asocia con uso de IA.

Higher Education in    virtual environments:

             educational    risks

16 of the use of private AI technology in the service of digital capitalism

(DíezGutiérrez &

JarquínRamírez,

2025)

2025

Scopus

Teórico crítico

Gobernanza, ética

Capitalismo               digital, control de datos, sesgo, autonomía educativa

Analiza cómo las BigTech condicionan la educación superior; IA como herramienta de expropiación del conocimiento; riesgo de currículum oculto y pérdida de autonomía.

Ethical

Implications

Related to the Use of Artificial

17

Intelligence in the

             Generation       of

Academic

Research

(Usquiano

Yepes      et

al., 2025)

2025

Scopus

Cualitativo documental descriptivo

Ética, implementación

Plagio, originalidad, monitoreo ético,

responsabilidad académica

Revisión de 50 estudios y 45 procesos legales; IA puede optimizar tareas investigativas pero implica riesgos de fraude, pérdida de originalidad y falta de transparencia.

Disruptive

Technologies in the University 18

Curriculum: Use of

Artificial

Intelligence

(Huapaya et al., 2025)

2025

Scopus

Revisión sistemática

cualitativa

(PRISMA)

Pedagogía,

Implementación

Currículo   universitario, alfabetización            en                 IA, educación disruptiva

IA como tecnología disruptiva; urgencia de adaptar currículo universitario; destaca9necesidad de formación docente y adecuación institucional.

Generative

Artificial

Intelligence in the 19

Teaching Process of University

Teachers

JuradoEnríquez et al.

2025

Scopus

Empírico cuantitativo (descriptivo transversal)

Pedagogía, Ética, Implementación

Formación docente, TPACK,                 uso           de                 IA generativa,                 calidad

educativa

63 docentes peruanos; 66.7% integra IA de forma alta; destaca la brecha formativa, preocupaciones éticas, y necesidad de apoyo institucional.

Fostering AI literacy: A

    20       teaching practice

reflection

Lynette Pretorius

2023

WoS

Reflexiivo teórico                 estudio de caso

Pedagogía ética

Alfabetización            en                 IA, formación                 docente,

integridad académica

Propone la alfabetización en IA como competencia clave; rechaza vigilancia y promueve prácticas formativas; IA como herramienta educativa positiva

             The    impact

Generative

Artificial

Intelligence

21 higher educati a focus on ethics and    academic

integrity

of

in on:

(Gallent-

Torres     et

al., 2023)

2023

WoS

Revisión crítica documenal

Ética, gobernanza, implementación

Plagio,      privacidad, sostenibilidad, normativas institucionales

Examina riesgos y oportunidades de IA; propone integrar ética, innovación e integridad; sugiere guías claras y formación docente

Governing

Academic

Integrity: Ensuring the Authenticity of

22

Higher Thinking in the Era of

Generative

Artificial

(Coates    et

al., 2025)

2025

WoS

Normativo analítico

porpuesta de gobernanza

Gobernanza, ética

Integridad académica, evaluación auténtica, indicadores, reformas

institucionales

Propone marcos e indicadores de gobernanza; destaca limitaciones de vigilancia; urge reformas sistémicas por GenAI.

 

 

Intelligence

 

 

 

 

 

 

 

23

Student perspectives                 on the                 use                 of generative artificial intelligence

technologies                 in higher education

(Johnston et al., 2024)

2024

WoS

Empírico

cuantitativo

(encuesta        y

focus group)

Pedagogía, ética

Percepción estudiantil, confianza académica,

políticas inclusivas

2555 estudiantes; mayoría rechaza uso completo de IA en ensayos; demandan políticas claras; uso relacionado con confianza en escritura.

24

AI-Based     Digital

Cheating          At

University, and the

Case     for    New

Ethical

Pedagogies

(Leaton

Gray et al.,

2025)

2025

WoS

Teórico crítico

Ética, pedagogía, gobernanza

Plagio digital, rediseño pedagógico,                 agencia

estudiantil

Critica vigilancia; propone pedagogías éticas basadas en agencia; IA no causa la crisis de integridad, pero la amplifica.

25

GenAI      et      al:

Cocreation,

Authorship,

Ownership,

Academic Ethics and Integrity in a

Time                 of

Generative 

(Bozkurt,

2024)

2024

WoS

Ensayo    teórico

analítico

 

Ética, gobernanza,

integridad académica

Autoría, propiedad intelectual, co-creación, transparencia

Plantea el dilema entre producción orgánica vs. sintética; aboga por transparencia y nuevas formas de evaluación ética en el uso de IA generativa.

26

International

Students         and

Generative

Artificial

Intelligence:        A

Cross-Cultural

Exploratory

Analysis of Higher Education

Academic Integrity

Policy

Bannister,

Alcalde

Peñalver,

Santamaría

2024

WoS

Empírico cualitativo

(análisis documental

políticas)

de

Gobernanza, Ética, Inclusión

Estudiantes

internacionales,                 sesgos, políticas inclusivas

Revela ausencia de inclusión en políticas GenAI para estudiantes internacionales; llama a reformas inclusivas y sensibles al contexto culturalG.

27

Education

Training

Assessment

Artificial

Intelligence.

Pragmatic    G

for Educators

and and

A uide

(Newton &

Jones,

2024)

2025

WoS

Revisión crít práctica

ica

Pedagogía, Ética, Evaluación

Diseño      de                 evaluación, efectividad,                IA                 y

aprendizaje

Proporciona guías para rediseñar evaluaciones resistentes a IA; destaca impacto de ChatGPT en evaluaciones tipo test y el rol formativo de las pruebas.

28

Strategies for eAssessments                 in the                 Era                 of

Generative

Artificial

Intelligence

(Gundu,

2024)

2025

WoS

Revisión sistemática literatura

de

Pedagogía, ética, gobernanza

E-assessment, autenticidad,                 diseño

adaptativo, trampa digital

Sugiere evaluación basada en proyectos, portafolios y tareas creativas; urge rediseño centrado en pensamiento crítico y habilidades aplicadas.

39

Examining Recommendations for                 Generative

Artificial

Intelligence                 Use with Integrity from a Scholarship of Teaching   and

Learning Lens

(Moya      &

Eaton,

2023)

2023

WoS

Conceptualanalítico

 

Ética, gobernanza, pedagogía

Niveles de intervención (micro-macro), liderazgo educativo, marcos

integrados

Identifica recomendaciones para uso ético de GenAI desde enfoque de integridad; detecta vacíos en niveles meso/macro y llama a liderazgo educativo activo.

30

Student

Perceptions

Generative

Artificial

Intelligence:

Investigating

Utilization,

Benefits,         a

Challenges

Higher Education

of

nd in

 

(Almassaad et al., 2024)

2024

WoS

Empírico cuantitativo (encuesta)

 

Pedagogía, Ética, Implementación

Percepciones estudiantiles,                 uso           de

ChatGPT, barreras éticas

Revela uso frecuente de GenAI por estudiantes, beneficios percibidos y preocupaciones éticas; urge políticas de integridad académica y uso responsable.

31

Generative

artificial

intelligence                 in higher education: Guidelines                 for overcoming teaching,                 ethical and                 legal

dilemmas

(Divino,

2024)

2024

WoS

Compilación

normativa y práctica (ensayo multidisciplinar)

Ética, Gobernanza, Pedagogía

Agencia             docente-

estudiantil,           dilemas

normativos, creatividad

Promueve educación centrada en el ser humano, con IA como colaborador creativo; aboga por marcos éticos adaptativos.

32

Digital

competencies     in

(Zhang     &

Tian, 2025)

2025

WoS

Análisis documental

Gobernanza,

Implementación,

Competencias digitales, brechas institucionales,

Revela carencias en competencias comunicativas y de colaboración;

student learning with generative

artificial

intelligence: Policy implications from world-class universities

 

 

 

cualitativo

Ética

DigComp

propone políticas inclusivas y éticas con enfoque en competencias emergentes.

Academic integrity and artificial

33      intelligence: is ChatGPT      hype, hero or heresy?

(Currie,

2023)

2023

WoS

Revisión crítica y ensayo

 

Ética,        Integridad académica, Gobernanza

Fraude      científico, evaluación                 auténtica,

ChatGPT                como

herramienta

Cuestiona la viabilidad de prohibiciones; propone rediseño de evaluación que integre GenAI de forma ética y realista.

The Impact of AI Guilt on Students'

Use of ChatGPT

34         for         Academic

Tasks: Examining

Disciplinary

Differences

(Qu          &

Wang,

2025)

2025

WoS

Empírico cuantitativo (encuesta regresión)

y

Ética, Pedagogía,

Psicología educativa

Culpa ética (AI guilt), diferencias disciplinares, tareas creativas

Identifica que la 'culpa AI' reduce uso de ChatGPT en tareas creativas; destaca importancia de normas sociales y diferencias campo aplicado/puro.

ChatGPT and its

ethical

implications for STEM research

35

and higher education: a media discourse analysis

(Nam & Bai,

2023)

2023

WoS

Teórico cualitativo (análisis discurso mediático)

de

Ética,        Integridad académica, Gobernanza

Autoría,     crisis         ética, ChatGPT en STEM

Revela conflictos percibidos en investigación, docencia y gestión por ChatGPT; aboga por nuevas políticas de ética y autoría.

             The     Anticipated

Impact of Artificial

36 Intelligence on US Higher Education:

A National Study

(Johnson et al., 2024)

2024

WoS

Empírico cuantitativo (encuesta nacional)

 

Gobernanza,

Implementación,

Ética

Preparación institucional, cambio      anticipado,

integridad académica

Destaca brechas de preparación frente a GenAI; uso de leyes de Kranzberg para anticipar impactos éticos y estructurales.

Simple techniques to bypass GenAI text detectors:

37 implications        for inclusive education

(Perkins et al., 2024)

2024

WoS

Empírico experimental (comparación de detectores)

Ética,       Inclusión

educativa, Integridad académica

Detectores                de                 texto, sesgo lingüístico, equidad digital

Identifica ineficacia y sesgos de detectores de GenAI; subraya riesgos de exclusión y falsa acusación para estudiantes NNES.

Generative

artificial intelligence integration

38 management education:

             application       a

ethical challenges

in

nd

 

(Bashir     &

Lapshun,

2025)

2025

WoS

Teórico aplicado (propuesta                 de matrices analíticas)

Ética,

Implementación,

Gobernanza

Educación gerencial, teorías éticas (utilitarismo,

deontología),

TAM/UTAUT

Ofrece modelos teóricos y matrices para equilibrar ética y aplicación de GenAI en educación gerencial; aboga por responsabilidad colectiva.

Nota: Elaboración propia. 

Una vez realizado el análisis general y el análisis de categorías se encontró lo siguiente:  

 

Ética y dilemas emergentes en el uso de la IA generativa

La implementación de la inteligencia artificial generativa (IAG) en el contexto de la educación superior ha suscitado intensas discusiones académicas en torno a la autoría académica, la integridad intelectual y la ética. Según Jarquín-Ramírez et al., (2025) algunos estudios señalan que la utilización de herramientas como ChatGPT puede derivar en plagio digital, omisión de fuentes y generación de contenido automatizado sin criterio crítico. Este hecho pone en tela de juicio los modelos tradicionales de originalidad y demanda una revisión de las concepciones de autoría en contextos mediados por la inteligencia artificial. Silva (2022) postula que la implicación de la IAG debe ser declarada y gestionada de forma ética, lo que requiere que las instituciones modifiquen sus políticas de integridad académica. La literatura académica converge en la aspiración de instaurar marcos normativos que regulen la utilización ética y responsable de la IAG. En consecuencia, el debate ético ha adquirido una importancia primordial en los contextos universitarios actuales.

Como expresa Ticona (2025) uno de los subtemas en desarrollo es la culpa ética, una experiencia de los estudiantes que emplean IAG en tareas académicas, esta culpa funciona como un elemento regulador y fluctúa en función de la disciplina; los estudiantes de acuerdo a sus carreras aplicadas suelen emplear IAG con mayor libertad, mientras que en las disciplinas teóricas predomina una mayor restricción ética.  Por su parte Mwita y Kitole (2025) cuestiona la eficacia de la prohibición de estas tecnologías, dado que podría promover su uso ilícito. Numerosos estudios sugieren la implementación de evaluaciones reformuladas, enfocadas en competencias críticas y autoría compartida.  Para Font (2025) la IAG se percibe como un instrumento de asistencia, no como un sustituto de la agencia humana, es decir, es necesario adoptar una ética educativa adaptativa, desde una perspectiva integradora que tiene como objetivo lograr un equilibrio entre la innovación tecnológica y la responsabilidad académica.

Como expresan Espinoza et al., (2025) otro eje de preocupación ética se vincula con los detectores de inteligencia artificial, los cuales manifiestan sesgos lingüísticos y pueden aplicar sanciones injustas a estudiantes de habla no natica, este fenómeno pone en tela de juicio la equidad educativa y propicia tensiones entre la supervisión y la justicia. Para Cortez-Clavo et al., (2025) las investigaciones alertan acerca del peligro de exclusión académica y promueven políticas de inclusión y además se subraya la necesidad de instaurar marcos éticos institucionales que guíen la integración responsable de la IAG. Según Johnston et al., (2024) las propuestas enfatizan la alfabetización crítica en Inteligencia Artificial, como habilidad transversal para estudiantes y educadores, esta capacitación tiene como objetivo fortalecer la agencia ética y asegurar la integridad en contextos digitales, de este modo, la ética emerge como un eje fundamental para una aplicación justa y transparente de la IAG.

 

Gobernanza universitaria y regulación de la IA generativa

La gobernanza de la inteligencia artificial generativa (IAG) en contextos académicos para Leaton et al., (2025) se presenta como un reto institucional apremiante, especialmente frente a la falta de políticas normativas claras y adaptables, ciertas investigaciones examinadas indican que numerosas instituciones académicas carecen de directrices concretas respecto al uso ético de la Inteligencia Artificial Generalizada en actividades académicas. Lo que concuerda con lo referido por Acosta et al., (2025), esto propicia un ambiente de incertidumbre tanto en el cuerpo docente como en el estudiantado, quienes no hallan una referencia institucional para abordar dilemas específicos, las investigaciones subrayan la imperiosa necesidad de instaurar esquemas de gobernanza dinámicos, aptos para responder a las aceleradas transformaciones tecnológicas. Estos marcos según Quipas et al., (2025) deben tener en cuenta elementos como la autoría, la protección de datos personales y la co-creación de contenidos, además, se propone la instauración de indicadores institucionales destinados a la evaluación de la integridad universitaria, la normativa interna es percibida como un elemento crucial para orientar prácticas responsables con IAG.

Un componente principal examinado para Huapaya et al., (2025) es la incorporación de estudiantes internacionales y otros colectivos minoritarios en las políticas institucionales, es decir, se constató que las regulaciones vigentes frecuentemente perpetúan sesgos culturales y lingüísticos, lo cual restringe la implementación equitativa de regulaciones relativas a la Inteligencia Artificial Generalizada. Las investigaciones contemporáneas como la de Ekmekçi (2025) subrayan la falta de estrategias inclusivas en las políticas vigentes, lo que podría intensificar las desigualdades en el acceso y empleo de tecnologías educativas, contrariamente, se sugiere una gobernanza fundamentada en la equidad educativa, que incorpore la diversidad cultural, el acceso igualitario y la equidad en la evaluación. En este contexto, la gobernanza ética debe identificar las asimetrías tecnológicas presentes entre los estudiantes y fomentar su mitigación a través de recursos institucionales, únicamente mediante la implementación de estas medidas se asegura la legitimidad de las políticas relativas a la Inteligencia Artificial generativa.

También según Yepes et al., (2025) se detectaron propuestas destinadas a modificar la cultura institucional, mediante el liderazgo activo y la implicación de diversos actores en la regulación de la IAG, esta gobernanza no debe restringirse a normativas restrictivas, sino incorporar procesos participativos que involucren a educadores, alumnos y autoridades. Esta metodología promueve la co-creación de normas éticas, lo que resulta en una mayor aceptación y eficacia en su implementación, algunas investigaciones subrayan que la implementación efectiva de un modelo de gobernanza demanda flexibilidad, transparencia y una actualización continua (Silva, 2022).  Se subraya también la relevancia de instruir al personal universitario en aspectos jurídicos, éticos y técnicos relativos a IAG; este enfoque holístico posibilita que las entidades académicas adopten una postura activa y reflexiva ante la transformación digital, asegurando la integridad y equidad educativa en entornos mediados por la Inteligencia Artificial(Pope et al., 2025).

 

Retos pedagógicos y competencias en la formación legal 

La integración de la inteligencia artificial generativa (IAG) en la educación superior para Bojic, (2024) conlleva transformaciones significativas en las prácticas pedagógicas, algunos de los estudios subrayan que los educadores enfrentan obstáculos al incorporar dichas tecnologías, particularmente en entornos donde no se cuenta con formación previa en alfabetización digital crítica. La IAG según Arriazu (2025) demanda una reconsideración del papel del educador como facilitador de procesos creativos y éticos, además de una adaptación a un contexto en el que el conocimiento ya no se construye exclusivamente de manera humana. En este contexto, se reconoce la imperiosa necesidad de instruir a los educadores jurídicos en el uso de la ética eficaz de instrumentos basados en inteligencia artificial. Para Gómez et al., (2025) sugiere la necesidad de reestructurar los currículos académicos, integrando competencias digitales y éticas como ejes centrales, en consecuencia, la pedagogía convencional experimenta un proceso de reconfiguración frente a la emergente mediación tecnológica.

Uno de los asuntos más prominentes es la reconfiguración de las estrategias de evaluación, dado que las pruebas convencionales se vuelven susceptibles al uso inapropiado de la Inteligencia Artificial Generalizada (IAG). Jarquín-Ramírez et al., (2025) sugiere también la implementación de evaluaciones auténticas, orientadas hacia la resolución de problemas, la argumentación crítica y la generación original de contenido, es decir, en vez de instaurar la prohibición de la IAG, se promueve la implementación de tareas que integren su uso de manera ética, facilitando que los estudiantes desarrollen competencias de análisis y reflexión sobre la tecnología en sus estudiantes. Además, Toia et al., (2025) postula la necesidad de diversificar los métodos de evaluación, incorporando portafolios, proyectos colaborativos y autoevaluaciones orientadas; estas prácticas facilitarían la supervisión del proceso educativo, trascendiendo el producto final, de este modo, el enfoque pedagógico se dirige hacia la formación de ciudadanos críticos, aptos para emplear la Inteligencia Artificial como un instrumento ético de apoyo y no como un mecanismo de sustitución intelectual.

La formación legal jurídica a nivel universitario confronta desafíos particulares, dado que requiere el desarrollo de habilidades que integren el conocimiento jurídico con las competencias digitales en auge; la IAG plantea interrogantes novedosos acerca de la interpretación normativa, la generación de derechos automatizados y la ética profesional (Font, 2025). Es necesario incorporar en el plan de estudios contenidos relacionados con la ética tecnológica, los derechos digitales y la responsabilidad en el ámbito algorítmico, para Ávila-Hernández et al., (2025) las competencias en pensamiento crítico, comunicación digital y liderazgo ético, como competencias transversales indispensables. Esta reconfiguración según Pérez (2025) conlleva la superación de modelos pedagógicos memorísticos y la promoción de ambientes de aprendizaje que sean activos, colaborativos y enfocados en la resolución de casos reales, la educación jurídica debe prepararse para entornos en los que la interacción entre la Inteligencia Artificial y el derecho será cada vez más frecuente y de mayor relevancia.

 

Implementación práctica de la IA generativa en entornos educativos

La adopción responsable de la Inteligencia Artificial Generativa (IAG) en instituciones universitarias ha sido abordada con especial atención en las condiciones técnicas e institucionales requeridas para su implementación. Según García-Vélez et al., (2019) algunos estudios detectan obstáculos prácticos tales como la ausencia de infraestructura tecnológica, la insuficiente preparación del cuerpo docente y una deficiente orientación normativa; estas restricciones obstaculizan la incorporación eficaz de la IAG en procesos educativos, particularmente en escenarios con limitaciones presupuestarias. Según Mwita y Kitole (2025) observa una discrepancia entre las intenciones institucionales y las capacidades efectivas de implementación; la efectiva implementación demanda políticas institucionales bien definidas, recursos apropiados y soporte técnico continuo para el cuerpo docente y estudiantil, en ausencia de estos componentes, la IAG puede intensificar las disparidades educativas y fomentar la resistencia al cambio.

Para Téllez et al., 2024) la percepción de los actores institucionales en relación con la IAG, refiere a que algunos educadores interpretan estas tecnologías como amenazas a su función profesional, lo cual puede inducir comportamientos defensivas o rechazo; además, los alumnos frecuentemente perciben la IAG como un instrumento valioso para optimizar la eficiencia académica, aunque también reconocen los riesgos éticos vinculados. Según Alshurideh et al., (2024) enfatiza el valor de implementar procesos de concientización y capacitación que faciliten la sincronización de percepciones y fomenten una cultura institucional receptiva a la innovación, se sugiere una administración del cambio progresivo, fundamentada en el diálogo y creación de estrategias de implementación, esta visión promueve la adquisición tecnológica y atenúa las tensiones internas, por lo tanto, la implementación debería ser interpretada como un proceso participativo y contextualizado.

Como refiere Bashir y Lapshun (2025) se destaca la exigencia de incorporar la IAG de manera estratégica y sostenible, teniendo en cuenta los marcos regulatorios vigentes y las demandas éticas actuales, algunos estudios sugieren modelos de adopción gradual, que comiencen con aplicaciones exploratorias en entornos controlados, para posteriormente escalar su implementación. Según Perkins et al., (2024) esta graduación facilita la evaluación de impactos, la modificación de procesos y el fortalecimiento de las capacidades institucionales, se sugiere coordinar la implementación con otras iniciativas de transformación digital, con el objetivo de prevenir la duplicidad de esfuerzos y la fragmentación. Una implementación efectiva para Johnson et al., 2024) conlleva un seguimiento constante, una evaluación de los resultados y una retroalimentación activa, únicamente mediante este enfoque se puede asegurar que la IAG no solo sea adoptada, sino también interiorizada como un componente integral de una cultura universitaria ética, innovadora y enfocada en la mejora de la calidad educativa.

 

DISCUSIÓN

Los resultados de este análisis sistemático evidencian una creciente inquietud respecto a las consecuencias éticas, pedagógicas y regulatorias derivadas de la implementación de la inteligencia artificial generativa (IAG) en el contexto universitario, específicamente, la educación jurídica que confronta desafíos particulares al incorporar tecnologías que cuestionan los principios de autoría, argumentación e integridad académica. El estudio de Nam y Bai (2023) indica que la limitación del uso de la IAG no es suficiente; en cambio, se requiere una reconfiguración curricular, enfocada en la formación de competencias éticas, digitales y críticas. Esta perspectiva adquiere particular relevancia en América Latina, donde prevalecen desigualdades estructurales que pueden intensificarse con una adopción tecnológica no planificada, en consecuencia, la IAG debe ser tratada desde una perspectiva ética contextualizada, que fomente la inclusión y la equidad en el ámbito educativo.

La gobernanza en el ámbito universitario emerge como un elemento esencial para la formulación de políticas institucionales que orienten la aplicación ética de la IAG, no obstante, los estudios examinados evidencian una ausencia de marcos normativos claros, generando ambigüedad en su ejecución. Según Qu y Wang (2025) la propuesta de modelos de gobernanza participativos y adaptables responde a la exigencia de sincronizar innovación y responsabilidad, teniendo en cuenta la heterogeneidad cultural y jurídica de la región; se detectan tensiones entre la supervisión y la confianza, particularmente en la evaluación académica, las cuales deben ser mitigadas a través de la implementación de prácticas pedagógicas éticas, la educación jurídica cumple una doble función: incorporar la IAG en la instrucción jurídica y reflexionar críticamente sobre su regulación futura, en un contexto normativo aún en desarrollo.

La implementación de la IAG en instituciones universitarias de Latinoamérica debe tener en cuenta las circunstancias específicas del entorno, abarcando aspectos como la infraestructura, la formación docente y la percepción institucional, Currie (2023) señala que una adopción exitosa exige la implementación de procesos graduales, sostenibles y supervisados, que estén vinculados con políticas de digitalización. La alfabetización crítica en Inteligencia Artificial, aplicada tanto a docentes como a estudiantes, se establece como un eje transversal para una integración efectiva y ética, este análisis subraya la exigencia de futuras investigaciones que se ocupen de los vacíos regulatorios y educativos identificados, y que proporcionen modelos de adopción ética adaptados al contexto latinoamericano; la ética de la IAG no puede ser derivada de modelos externos; debe ser edificada a partir de la práctica educativa, jurídica y cultural de la región en cuestión.

 

CONCLUSIÓN

Esta evaluación sistemática permitió discernir que la incorporación de la Inteligencia Artificial Generativa (IAG) en el ámbito de la educación superior, en particular en la formación jurídica universitaria en Latinoamérica, presenta retos de relevancia ética, pedagógica y regulatoria. Las investigaciones examinadas subrayan la imperiosa necesidad de establecer sólidos marcos éticos que guíen la utilización responsable de dichas tecnologías, además de fomentar la alfabetización crítica en Inteligencia Artificial como una competencia transversal. La educación jurídica requiere una reestructuración para integrar contenidos relacionados con la ética digital, los derechos algorítmicos y la responsabilidad tecnológica, alineando el currículo con los emergentes contextos de generación de conocimiento y práctica profesional, dentro de este marco, la ética no se limita a ser un contenido, sino que constituye un principio rector de toda práctica educativa.

Se concluye que la gobernanza institucional se erige como un elemento crucial para una adopción efectiva y equitativa de la IAG, es neceasrio que las instituciones universitarias formulen políticas que sean participativas, inclusivas y adaptativas, tomando en cuenta las especificidades culturales y estructurales de América Latina. La implementación no puede ser tecnocrática ni impositiva; demanda procesos progresivos, interacción entre los participantes y evaluación constante, asimismo, la IAG debe ser interpretada como un instrumento adicional, que fomente la reflexión crítica y no sustituya la agencia humana. Las futuras investigaciones deberían examinar los marcos normativos locales, las experiencias pedagógicas innovadoras y las estrategias pedagógicas que aseguren la equidad, la ética y la calidad educativa en contextos mediados por la Inteligencia Artificial.

Si bien esta revisión sistemática aporta un panorama integral sobre la ética, la pedagogía y la gobernanza en torno al uso de la inteligencia artificial generativa en la educación jurídica latinoamericana, es necesario reconocer algunas limitaciones como la disponibilidad de estudios empíricos específicos para el ámbito jurídico en la región sigue siendo reducida, lo que restringe la posibilidad de realizar comparaciones más profundas entre distintos contextos institucionales. Asimismo, la heterogeneidad en las metodologías de las investigaciones incluidas dificulta establecer patrones uniformes en cuanto a resultados y enfoques. Otro aspecto a considerar es que gran parte de la literatura analizada se encuentra en proceso de construcción, por lo que sus conclusiones deben interpretarse con cautela, esto no resta validez al análisis, pero sí invitan a reconocer que el conocimiento en esta materia se encuentra en una fase emergente y en constante evolución.

Como recomendación para futuros estudios, se debe profundizar en investigaciones empíricas que evalúen de manera directa el impacto de la IA generativa en aulas de derecho en América Latina, incorporando tanto la perspectiva de docentes como de estudiantes. Resulta especialmente relevante analizar cómo las prácticas pedagógicas pueden transformarse para equilibrar el uso de estas herramientas con la preservación de la autonomía intelectual y el juicio crítico. También es necesario avanzar en estudios que examinen la dimensión ética desde la justicia algorítmica y la inclusión digital, identificando riesgos de exclusión asociados a desigualdades estructurales de la región. Se sugiere desarrollar investigaciones orientadas a la gobernanza educativa, evaluando políticas institucionales y marcos normativos que permitan implementar la IA de manera responsable.

 

Agradecimientos

Los autores desean agradecer a la Dirección de Investigación y Desarrollo (DIDE) de la Universidad Técnica de Ambato. Este artículo se deriva del proyecto de investigación titulado “Inteligencia Artificial (IA) y su Aplicación en la Educación Jurídica y la Profesión Legal”, aprobado mediante Resolución No. UTA-CONIN2025-0023-R por la Dirección de Investigación y Desarrollo (DIDE) de la Universidad Técnica de Ambato, Ecuador.

 

Declaración de Conflicto de Intereses

El autor declara que no existen conflictos de interés relacionados con la investigación, redacción o envío de este manuscrito. Ninguna relación financiera, profesional o personal ha influido en el contenido o las conclusiones del artículo titulado: “Ética de la IA generativa en la formación legal universitaria”. 

 

 

REFERENCIAS

Acosta-Enriquez, B. G., Arbulu Ballesteros, M., Vilcapoma Pérez, C. R., Huamaní Jordan, O., Martin Vergara, J. A., Martel Acosta, R., Arbulu Perez Vargas, C. G., & Arbulú Castillo, J. C. (2025). AI in academia: How do social influence, self-efficacy, and integrity influence researchers’ use of AI models? Social Sciences and Humanities Open, 11. https://doi.org/10.1016/J.SSAHO.2025.101274

Acosta-Enriquez, B. G., Reyes-Perez, M. D., Huamani Jordan, O., Carreño Saucedo, L., Padilla-Caballero, J. E. A., Fernández-Altamirano, A. E. F., García Yovera, A. J., Briceño-Hernandez, R. N., & Alarcón Bustíos, J. M. (2025). Exploring the

Determinants of the Sustainable Use of Artificial Intelligence in Peruvian University

Teachers: A Structural Equation Modeling Analysis. Sustainability (Switzerland), 17(7). https://doi.org/10.3390/SU17072834

Adauto-Medina, W., Olivares-Zegarra, S., Aybar-Bellido, I., Arones, M., & Caycho-Salas, B. (2025). Computational Neuroscience in Higher Education: A Systematic Review on the Problems Addressed, Methods Used and Implications. International Journal of

Online    and     Biomedical    Engineering,             21(8), 4–22. https://doi.org/10.3991/IJOE.V21I08.55225

Almassaad, A., Alajlan, H., & Alebaikan, R. (2024). Student Perceptions of Generative Artificial Intelligence: Investigating Utilization, Benefits, and Challenges in Higher Education. Systems, 12(10). https://doi.org/10.3390/SYSTEMS12100385

Alshurideh, M., Kurdi, B. Al, Okleh, I., Chatra, K., Snoussi, T., Alzoubi, H. M., Alzboun, N., & Ahmed, G. (2024). Factors affecting attitude to use metaverse technology application. International Journal of Data and Network Science, 8(4), 2591–2600. https://doi.org/10.5267/J.IJDNS.2024.4.018

Antonio Breceda Pérez, J. (2025). Towards the ethical regulation of the use of artificial intelligence in scientific research: guidelines from the Autonomous University of

Ciudad   Juárez.           Revista          de       Bioetica          y          Derecho,       64,      81–97. https://doi.org/10.1344/RBD2025.64.48719

Arriazu, R. (2025). The daunting challenge of Artificial Intelligence in Education: a systematic literature review. Journal of E-Learning and Knowledge Society, 21(1). https://doi.org/10.20368/1971-8829/1135992

Ávila-Hernández, F. M., Picarella, L., & Martín Fiorino, V. R. (2025). The ethical-legal challenges of artificial intelligence in Europe and Colombia. Clio. Revista de Historia,

Ciencias            Humanas      y          Pensamiento            Crítico.,          5(9),    866–907. https://doi.org/10.5281/ZENODO.14567185

Bashir, S., & Lapshun, A. L. (2025). Generative artificial intelligence integration in management education: application and ethical challenges. Cogent Education, 12(1).

https://doi.org/10.1080/2331186X.2025.2526436

Bojic, L. (2024). AI alignment: Assessing the global impact of recommender systems.

Futures, 160, 103383. https://doi.org/10.1016/J.FUTURES.2024.103383

Bozkurt, A. (2024). GenAI et al.: Cocreation, Authorship, Ownership, Academic Ethics and Integrity in a Time of Generative AI. Open Praxis, 16(1), 1–10. https://doi.org/10.55982/OPENPRAXIS.16.1.654

Coates, H., Croucher, G., & Calderon, A. (2025). Governing Academic Integrity: Ensuring the Authenticity of Higher Thinking in the Era of Generative Artificial Intelligence. Journal of Academic Ethics. https://doi.org/10.1007/S10805-025-09639-7

Cortez-Clavo, L. K., Salazar-Muñoz, M. I., & Morán-Santamaría, R. O. (2025). Digitalisation to Improve Automated Agro-Export Logistics: A Comprehensive Bibliometric Analysis. Sustainability (Switzerland), 17(10). https://doi.org/10.3390/SU17104470

Currie, G. M. (2023). Academic integrity and artificial intelligence: is ChatGPT hype, hero or heresy? Seminars in Nuclear Medicine, 53(5), 719–730.

https://doi.org/10.1053/J.SEMNUCLMED.2023.04.008

Deroncele-Acosta, A., Sayán-Rivera, R. M. E., Mendoza-López, A. D., & NorabuenaFigueroa, E. D. (2025). Generative Artificial Intelligence and Transversal

Competencies in Higher Education: A Systematic Review. Applied System Innovation, 8(3), 83. https://doi.org/10.3390/ASI8030083

Díez-Gutiérrez, E. J., & Jarquín-Ramírez, M. R. (2025). Higher Education in virtual environments: educational risks of the use of private AI technology in the service of digital capitalism. Edutec, 55–69. https://doi.org/10.21556/EDUTEC.2025.91.3665

Divino, S. (2024). Generative artificial intelligence in higher education: Guidelines for overcoming teaching, ethical and legal dilemmas. Revista Pedagogia Universitaria y Didactica Del Derecho, 11(1), 6–30. https://doi.org/10.5354/0719-5885.2024.74070

Ekmekçi, P. E. (2025). Reflections on the “Ethics Guideline for using Generative Artificial

Intelligence in Scientific Research and Publication Process of Higher Education

           Institutions.”            Balkan            Medical             Journal,            42(2),               174–175.

https://doi.org/10.4274/BALKANMEDJ.GALENOS.2024.2024-6-72

Espinoza, A. A. G., Carazas, C. V. E., & Sierra-Liñan, F. (2025). Literature Review on the Use of Emerging Technologies for Industrial Process Automation: Analysis of Developments from 2020 to 2024. International Journal of Engineering Trends and Technology, 73(6), 428–438. https://doi.org/10.14445/22315381/IJETT-V73I6P134

Flores, R. A. R., Vicari, R. M., Galafassi, C., & Rodríguez, M. U. (2025). Teachers’ Perceptions of Otherness in the Age of Artificial Intelligence. Sophia (Ecuador), 2025-

July-December (39), 281–313. https://doi.org/10.17163/SOPH.N39.2025.09

Font, J. L. O. (2025). Regulatory burdens, innovation, artificial intelligence: regulatory dilemmas. Estudios En Derecho a La Informacion, 10(20), 81–100.

https://doi.org/10.22201/IIJ.25940082E.2025.20.19491

Gallent-Torres, C., Zapata-González, A., & Ortego-Hernando, J. L. (2023). The impact of

Generative Artificial Intelligence in higher education: a focus on ethics and academic integrity. RELIEVE - Revista Electronica de Investigacion y Evaluacion Educativa, 29(2). https://doi.org/10.30827/RELIEVE.V29I2.29134

García-Vélez, R. A., López-Nores, M., González-Fernández, G., Robles-Bykbaev, V. E., Wallace, M., Pazos-Arias, J. J., & Gil-Solla, A. (2019). On data protection regulations, big data and sledgehammers in Higher Education. Applied Sciences (Switzerland), 9(15). https://doi.org/10.3390/APP9153084

George-Reyes, C. E., Avello-Martínez, R., & Buenestado-Fernández, M. (2025).

Perceptions of ChatGPT and the Complexity of Its Impact Among Higher Education

Students: Evidence Across Ten Countries of Latin America and Europe. Educational Process: International Journal, 15. https://doi.org/10.22521/EDUPIJ.2025.15.171

Gómez, S. L., Suelves, D. M., Rodríguez, J. R., & Nemiña, R. E. (2025). Artificial Intelligence in the University Context. Contributions from Research. Revista Lusofona de Educacao, 65(65), 63–84. https://doi.org/10.24140/ISSN.1645-7250.RLE65.03

Goyibova, N., Muslimov, N., Kannazarova, Z., Kadirova, N., Alautdinova, K., & Ismatullaeva, I. (2025). Exploring the Impact of Artificial Intelligence on Academic

Writing: A Bibliometric Analysis of Trends, Advancements, and Ethical Challenges. Forum for Linguistic Studies, 7(6), 342–360. https://doi.org/10.30564/FLS.V7I6.9054

Gundu, T. (2024). Strategies for e-Assessments in the Era of Generative Artificial Intelligence. Electronic Journal of E-Learning, 22(7), 40–50. https://doi.org/10.34190/EJEL.22.7.3477

Häyry, M., & Takala, T. (2024). Just Transition to Ethical Sustainability: Not Why or What but How. Journal of Ecohumanism, 3(4), 1088–1095. https://doi.org/10.62754/JOE.V3I4.3556

Huapaya, E. S. R., Chucos, G. L., Sosa, E. P., & Meza, M. I. (2025). Disruptive technologies in the university curriculum: use of artificial intelligence. International

Journal   of         Evaluation     and     Research       in         Education,     14(1), 671–681. https://doi.org/10.11591/IJERE.V14I1.30450

Jaramillo Gómez, D. L., Álvarez Maestre, A. J., Parada Trujillo, A. E., Pérez Fuentes, C.

A., Bedoya Ortiz, D. H., & Sanabria Alarcón, R. K. (2025). Determining Factors for the Development of Critical Thinking in Higher Education. Journal of Intelligence, 13(6), 59. https://doi.org/10.3390/JINTELLIGENCE13060059

Jarquín-Ramírez, M. R., Alonso-Martínez, H., & Díez-Gutiérrez, E. J. (2025). Chat GPT for a Just, Democratic and Transformative Education System. Revista Internacional de Educacion Para La Justicia Social, 23(3). https://doi.org/10.15366/REICE2025.23.3.001

Johnson, N., Seaman, J., & Seaman, J. (2024). The Anticipated Impact of Artificial Intelligence on Higher Education. Online Learning Journal, 28(3), 9–33. https://doi.org/10.24059/OLJ.V28I3.4646

Johnston, H., Wells, R. F., Shanks, E. M., Boey, T., & Parsons, B. N. (2024). Student perspectives on the use of generative artificial intelligence technologies in higher education.     International Journal          for       Educational   Integrity,        20(1). https://doi.org/10.1007/S40979-024-00149-4

Jurado, D. B., Larrea, G. N., Abril, K. R., & Vélez, J. C. (2020). Academia, gobierno y empresas una perspectiva desde la vinculación con la colectividad. Revista de

Investigación    Enlace           Universitario,            19(2), 60–71. https://doi.org/10.33789/ENLACE.19.2.74

Leaton Gray, S., Edsall, D., & Parapadakis, D. (2025). AI-Based Digital Cheating At University, and the Case for New Ethical Pedagogies. Journal of Academic Ethics. https://doi.org/10.1007/S10805-025-09642-Y

Ledesma Pérez, F. E., & Rodríguez Paredes, S. A. (2025). ChatGPT and academic writing in university students. Edutec, 92, 179–195. https://doi.org/10.21556/EDUTEC.2025.92.3431

Margot Quipas Bellizza, M., Amparo Delgado Carbajal, L., del Carmen Medina

Hernández, M., & Del Carpio Ramírez, R. J. (2025). Education for Sustainability: Integrating Sustainable Development into the University Curriculum. Encuentros (Maracaibo), 24, 125–148. https://doi.org/10.5281/ZENODO.15350169

Moya, B. A., & Eaton, S. E. (2023). Examining Recommendations for Generative Artificial Intelligence Use with Integrity from a Scholarship of Teaching and Learning Lens. RELIEVE - Revista Electronica de Investigacion y Evaluacion Educativa, 29(2). https://doi.org/10.30827/RELIEVE.V29I2.29295

Mwita, K. M., & Kitole, F. A. (2025). Potential benefits and challenges of artificial intelligence in human resource management in public institutions. Discover Global Society, 3(1). https://doi.org/10.1007/S44282-025-00175-8

Nam, B. H., & Bai, Q. (2023). ChatGPT and its ethical implications for STEM research and higher education: a media discourse analysis. International Journal of STEM Education, 10(1). https://doi.org/10.1186/S40594-023-00452-5

Newton, P. M., & Jones, S. (2024). Education and Training Assessment and Artificial Intelligence. A Pragmatic Guide for Educators. British Journal of Biomedical Science,

81. https://doi.org/10.3389/BJBS.2024.14049

Novozhilova, E., Mays, K., Paik, S., & Katz, J. E. (2024). More Capable, Less Benevolent: Trust Perceptions of AI Systems across Societal Contexts. Machine Learning and

Knowledge Extraction, 6(1), 342–366. https://doi.org/10.3390/MAKE6010017

Perkins, M., Roe, J., Vu, B. H., Postma, D., Hickerson, D., McGaughran, J., & Khuat, H.

Q. (2024). Simple techniques to bypass GenAI text detectors: implications for inclusive education. International Journal of Educational Technology in Higher Education, 21(1). https://doi.org/10.1186/S41239-024-00487-W

Pokrovskaya, A. (2025). The Legal Status of Artificial Intelligence: The Need to Form a Legal Personality and Regulate Copyright. Artificial Intelligence and Applications,

3(2), 179–191. https://doi.org/10.47852/BONVIEWAIA52023901

Pope, N., Kahila, J., Vartiainen, H., Saqr, M., López-Pernas, S., Roos, T., Laru, J., &

Tedre, M. (2025). An XAI Social Media Platform for Teaching K-12 Students AIDriven Profiling, Clustering, and Engagement-Based Recommending. Proceedings of the AAAI Conference on Artificial Intelligence, 39(28), 29203–29211. https://doi.org/10.1609/AAAI.V39I28.35194

Qu, Y., & Wang, J. (2025). The Impact of AI Guilt on Students’ Use of ChatGPT for Academic Tasks: Examining Disciplinary Differences. Journal of Academic Ethics.

https://doi.org/10.1007/S10805-025-09643-X

Ricoy-Casas, R. M., Fernández-González, R., & Santos-Garrido, M. (2025). Underrepresented students and artificial intelligence. European Public and Social Innovation Review, 10. https://doi.org/10.31637/EPSIR-2025-843

Sánchez Serrano, S., Pedraza Navarro, I., & Donoso González, M. (2022). ¿Cómo hacer una revisión sistemática siguiendo el protocolo PRISMA?: Usos y estrategias fundamentales para su aplicación en el ámbito educativo a través de un caso práctico. Bordón: Revista de Pedagogía, ISSN-e 2340-6577, ISSN 0210-5934, Vol.

74,          No       3,        2022, Págs. 51-66,            74(3), 51–66. https://doi.org/10.13042/Bordon.2022.95090

Silva, A. A. (2022). Gobernanza, poder y autonomía universitaria en la era de la innovación. Perfiles Educativos, 44(178), 150–164.

https://doi.org/10.22201/IISUE.24486167E.2022.178.60735

Téllez, A. R., Ortiz, L. M. F., & Domínguez, F. C. T. (2024). Artificial Intelligence in University Administration: An Overview of its Uses and Applications. Revista

           Interamericana                            de                            Bibliotecologia,                              47(2).

https://doi.org/10.17533/UDEA.RIB.V47N2E353620

Ticona, A. Y. G. (2025). Neuro-rights, a demand for justice in the neuralink era: an analysis from the personalist bioethics of Elio Sgreccia. Prudentia Iuris, 2025(99), 87–126. https://doi.org/10.46553/PRUDENTIA.99.2025.3

Toia, A. M. del C., Málaga, J. M. M., Valencia, S. A. L., Valenti, E., Calvo, P. D. D. O., Terreros-Abril, K., Fuenzalida-Valdivia, J., & Carpio, L. B. M. del. (2025). Impact of generative artificial intelligence in scientific integrity: A bibliometric analysis. Revista de Bioetica y Derecho, 64, 55–80. https://doi.org/10.1344/RBD2025.64.48524

Usquiano Yepes, P. A., Valencia Gallo, L. M., Botero Zuluaga, D. M., & Giraldo Jiménez,

E. A. (2025). ETHICAL IMPLICATIONS RELATED TO THE USE OF ARTIFICIAL INTELLIGENCE IN THE GENERATION OF ACADEMIC RESEARCH. Prometeica,

32. https://doi.org/10.34024/PROMETEICA.2025.32.19619 van Berkel, N., Sarsenbayeva, Z., & Goncalves, J. (2023). The methodology of studying fairness perceptions in Artificial Intelligence: Contrasting CHI and FAccT.

International      Journal          of        Human           Computer      Studies,         170. https://doi.org/10.1016/J.IJHCS.2022.102954

Vidal Sabanés, L., & da Cunha, I. (2025). AI as a resource for the clarification of medical terminology. Terminology. International Journal of Theoretical and Applied Issues in Specialized Communication, 31(1), 37–71. https://doi.org/10.1075/TERM.00083.VID

Yepes-Nuñez, J. J., Urrútia, G., Romero-García, M., & Alonso-Fernández, S. (2021). Declaración PRISMA 2020: una guía actualizada para la publicación de revisiones sistemáticas. Revista Española de Cardiología, 74(9), 790–799. https://doi.org/10.1016/J.RECESP.2021.06.016

Zambrano, M., Jurado, B., Freire, N., Saavedra, S., Rafael Mora Zambrano, E., Mauricio Bonilla Jurado, D., Alfonso Núñez Freire, L., & Carlos Sarmiento Saavedra, J. (2018).

Inadaptabilidad de los docentes al manejo de plataformas virtuales: caso Educar

           Ecuador.                    Revista                    Conrado,                    14(62),                       38–42.

https://conrado.ucf.edu.cu/index.php/conrado/article/view/713

Zhang, Y., & Tian, Z. (2025). Digital competencies in student learning with generative artificial intelligence: Policy implications from world-class universities. Journal of

University          Teaching       and     Learning        Practice         ,           22(2). https://doi.org/10.53761/AV7C8830

  

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 



[1] . Universidad Técnica de Ambato- (UTA)- Ecuador 

                      Autor de correspondencia: edr.rodriguez@uta.edu.ec