|
Ética de la IA generativa en la formación legal universitaria
Ethics of generative AI in university legal education
https://doi.org/10.47606/ACVEN/PH0375
|
|
Eliana del Rocío Rodríguez Salcedo[1]* Doménica Jasiel Molina Hurtado1 https://orcid.org/0000-0001-5062-0441 https://orcid.org/0009-0003-5894-9577 edr.rodriguez@uta.edu.ec dmolina9451@uta.edu.ec Yennifer Tatiana Morocho Sáez1 Kerly Abigail Lema Vaca1 https://orcid.org/0009-0006-7934-4106 https://orcid.org/0009-0004-0142-5577 Mathew Abraham Morales Alvarado1 Martha
Carolina Espinosa Rodríguez1 Alex David Guangasi Lagua1 Marlon
Alejandro Centeno Chiguano1 Bryan Henry Zamora Paredes1 |
|
Recibido: 27/06/2025 Aceptado: 29/08/2025 |
La incorporación de la inteligencia artificial generativa (IAG) en la formación jurídica universitaria de América Latina abre oportunidades y tensiones éticas, pedagógicas y regulatorias. Objetivo: analizar cómo las instituciones universitarias están abordando la integración de la IAG desde la transparencia, la responsabilidad y la supervisión humana. Método: revisión sistemática de documentos institucionales, marcos normativos y guías universitarias (2019–2025) siguiendo PRISMA. Se consultaron bases académicas y repositorios en español, portugués e inglés; de 142 registros iniciales se incluyeron 38 documentos. Resultados: se identifican brechas entre instituciones públicas y privadas en infraestructura y políticas; carencias de formación docente y guías de uso; riesgos para la integridad académica (plagio, delegación del razonamiento) y limitaciones de detectores de IA con sesgos lingüísticos. A la par, emergen buenas prácticas: alfabetización crítica en IA, rediseño de evaluaciones auténticas, declaración del uso de IAG y comités de gobernanza. Discusión: persisten tensiones entre vigilancia y confianza, y entre innovación y equidad; sin políticas inclusivas la IAG podría ampliar desigualdades. Una gobernanza participativa y sensible al contexto favorece la legitimidad y la adopción ética. Conclusiones: se requiere un marco institucional que articule ética, pedagogía y gobernanza, con formación docente continua, lineamientos claros de autoría y protección de datos, y evaluaciones centradas en pensamiento crítico. La IAG debe operar como apoyo a la agencia humana y no como sustituto, promoviendo una cultura académica responsable e inclusiva.
Palabras clave: Inteligencia artificial; educación superior; ética; enseñanza del derecho; gobernanza; américa latina.
The integration of
generative artificial intelligence (GAI) into legal higher education in Latin
America creates both opportunities and ethical, pedagogical, and regulatory
tensions. Objective: to examine how universities are incorporating GAI based on
transparency, responsibility, and human oversight. Method: a systematic review
of institutional documents, regulatory frameworks, and university guidelines
(2019– 2025) following PRISMA. Academic databases and repositories were
searched in Spanish, Portuguese, and English; out of 142 records, 38 documents
were included. Results: we found gaps between public and private institutions
in infrastructure and policies; limited faculty training and usage guidelines;
threats to academic integrity (plagiarism, outsourced reasoning) and
limitations of AI detectors with linguistic bias. Concurrently, good practices
are emerging: critical AI literacy, authentic assessment redesign, disclosure
of GAI use, and governance committees. Discussion: tensions persist between
surveillance and trust, and between innovation and equity; without inclusive
policies, GAI may widen educational inequalities. Participatory, contextsensitive
governance fosters legitimacy and ethical adoption. Conclusions: universities
need institutional frameworks aligning ethics, pedagogy, and governance,
including ongoing faculty development, clear authorship and data
protection
guidelines, and assessments focused on critical thinking. GAI should support
rather than replace human agency, advancing a responsible and inclusive
academic culture.
Keywords: artificial intelligence; higher education; ethics; legal education; governance; latin America
La acelerada expansión de la inteligencia artificial generativa (IAG) está redefiniendo los pilares de la educación superior, especialmente en disciplinas que requieren razonamiento crítico, argumentación compleja e interpretación normativa, como el derecho. Como expresan Jarquín-Ramírez et al., (2025) esta tecnología permite la creación autónoma de textos, análisis y resoluciones jurídicas a partir de grandes volúmenes de datos, lo que plantea oportunidades inéditas y desafíos significativos. Para Acosta-Enriquez et al., (2025) en América Latina, su incorporación ocurre en un contexto marcado por desigualdades estructurales, brechas tecnológicas y ausencia de marcos regulatorios sólidos, factores que condicionan la equidad en el acceso y el uso de estas herramientas. Este escenario exige una evaluación crítica que no se limite a lo técnico, sino que incorpore perspectivas éticas, pedagógicas y sociales.
En el ámbito jurídico universitario, la IAG se presenta como un instrumento de doble filo. Por un lado, puede potenciar el análisis doctrinal, la redacción de documentos jurídicos y el acceso a fuentes normativas complejas, fortaleciendo la formación profesional. Por otro, su uso indiscriminado puede propiciar el plagio automatizado, la pérdida de habilidades argumentativas y la dependencia de procesos automatizados (Ricoy-Casas et al., 2025). Estas tensiones obligan a repensar los modelos pedagógicos y a establecer criterios éticos que regulen su implementación. Sin una gestión responsable, el valor formativo de la educación jurídica podría verse seriamente comprometido, afectando tanto la calidad académica como la confianza pública en las instituciones (Gómez et al., 2025).
De acuerdo con Pokrovskaya, (2025) las respuestas institucionales frente a la IAG en América Latina son heterogéneas. Algunas universidades han comenzado a elaborar directrices para su uso responsable, mientras que otras carecen de políticas claras, dejando la decisión a la discrecionalidad de docentes y estudiantes. A la vez, según Arriazu, (2025) esta fragmentación provoca desigualdades en la aplicación de la tecnología y en el acceso a recursos formativos, lo que incrementa la brecha entre instituciones públicas y privadas. Además, la falta de lineamientos comunes dificulta el desarrollo de una cultura académica coherente que garantice transparencia, responsabilidad y equidad. Ante ello, se hace necesario promover marcos normativos que orienten la integración de la IAG en la enseñanza del derecho.
La gobernanza institucional se convierte, así, en un factor clave para garantizar que la incorporación de la IAG respete principios de integridad académica y derechos digitales. Según Vidal y da Cunha (2025) los modelos de gobernanza participativa, que incluyan a docentes, estudiantes y autoridades, pueden generar normas más inclusivas y eficaces. Tales políticas para Jaramillo et al., (2025) deben abordar no solo la regulación técnica, sino también la capacitación en competencias digitales y éticas, esenciales para un uso crítico de la tecnología. La equidad en el acceso, la diversidad cultural y la protección de datos personales deben ser ejes centrales de cualquier estrategia.
En este contexto, la alfabetización crítica en inteligencia artificial se perfila como una competencia transversal imprescindible para estudiantes y docentes. Esta formación debe permitir comprender el funcionamiento de la IAG, sus limitaciones, riesgos y potencialidades, así como su impacto en la creación y validación del conocimiento jurídico. Un enfoque pedagógico que integre el uso ético de la IAG en tareas académicas puede fomentar la reflexión crítica y reducir la dependencia tecnológica. Esto implica rediseñar evaluaciones, promover la autoría compartida y desarrollar estrategias que potencien la creatividad y el pensamiento crítico.
El presente estudio tiene como objetivo examinar las respuestas institucionales frente a la creciente presencia de la IAG en la educación jurídica universitaria en América Latina. A partir de una revisión sistemática de documentos normativos, políticas académicas y directrices internacionales, se identifican tendencias, buenas prácticas y vacíos regulatorios. Con ello, se pretende aportar al diseño de marcos de gobernanza inclusivos y adaptados a la realidad regional, que permitan incorporar la IAG de forma ética, equitativa y orientada al fortalecimiento de una pedagogía crítica. La finalidad última es que esta tecnología complemente, y no sustituya, la agencia intelectual de los futuros profesionales del derecho.
La inteligencia artificial generativa (IAG) ha inaugurado una etapa inédita en la producción y gestión del conocimiento, alterando los procesos tradicionales de aprendizaje y creación académica. De acuerdo con Goyibova et al., (2025) en el campo jurídico, su capacidad para elaborar textos, analizar normas y proponer soluciones plantea nuevos escenarios para la formación universitaria. Según Ledesma y Rodríguez (2025) el impacto de estas herramientas no se limita al plano técnico; también incide en la manera en que se conciben la autoría, la interpretación de datos y la validación del saber. Esta situación obliga a revisar críticamente las bases teóricas que sustentan la enseñanza del derecho, considerando sus implicaciones éticas y sociales.
El concepto de autonomía intelectual ocupa un lugar central en este debate. Como expresan Flores et al., (2025) esta noción implica que el estudiante construya criterios propios, argumente con fundamento y evalúe con rigor la información disponible. El empleo sin control de la IAG puede debilitar estas destrezas, transfiriendo el esfuerzo cognitivo a sistemas automáticos. Varias investigaciones como la de van Berkel et al., (2023) mencionan que, al reducirse la intervención reflexiva, disminuye la capacidad para enfrentar casos complejos y adaptarse a contextos cambiantes. La preservación de esta autonomía requiere guías pedagógicas claras y prácticas que estimulen el análisis independiente.
El estudio de Jurado et al., (2020) plantean que la incorporación de tecnologías emergentes en la universidad exige una transformación profunda de los métodos de enseñanza y evaluación. No se trata únicamente de introducir herramientas digitales, sino de garantizar que estas promuevan procesos formativos orientados al pensamiento crítico y la reflexividad. Desde esta perspectiva, la pedagogía crítica en el ámbito legal adquiere relevancia, ya que busca que la inteligencia artificial generativa actúe como un catalizador para la autonomía intelectual y no como un recurso que debilite las capacidades cognitivas del estudiante. De este modo, el uso de la IA en el aula no debería limitarse a simplificar tareas, sino a estimular competencias complejas que permitan enfrentar escenarios jurídicos cambiantes.
La ética, como principio regulador, establece los límites y responsabilidades asociados al uso académico de tecnologías emergentes. Para Novozhilova et al., (2024) la transparencia en la declaración de herramientas utilizadas y el respeto por la integridad intelectual son elementos esenciales para evitar conflictos de autoría. Instituciones y organismos internacionales coinciden en la necesidad de protocolos que definan usos aceptables, medidas de supervisión y procedimientos para resolver infracciones. En este contexto, Bojic (2024) menciona que dichos lineamientos deben adaptarse a los distintos entornos culturales y académicos, evitando enfoques rígidos que obstaculicen la innovación.
En el estudio realizo por Zambrano et al., (2018) se evidencia cómo la ausencia de capacitación y acompañamiento docente en el uso de plataformas virtuales generó desigualdades significativas en el acceso educativo, ampliando la brecha digital. Esto demuestra que la adopción de tecnologías sin condiciones de justicia y equidad puede producir exclusión en lugar de inclusión. Desde el plano pedagógico, la resistencia y falta de habilidades digitales por parte de los docentes afectaron directamente la calidad del proceso de enseñanza-aprendizaje, evidenciando que la integración de la IA no es un asunto meramente técnico, sino un cambio metodológico que exige formación docente. En términos de gobernanza, la ausencia de políticas claras y de un marco institucional sólido para acompañar la innovación tecnológica revela la necesidad de estructuras académicas que regulen y orienten el uso de la IA generativa.
Para Häyry y Takala (2024) la gobernanza tecnológica ofrece un marco para armonizar innovación y responsabilidad. No se trata únicamente de regular, sino de habilitar estructuras participativas en las que estudiantes, docentes y autoridades contribuyan a la toma de decisiones. Según Alshurideh et al., (2024) este modelo favorece políticas flexibles, capaces de responder a transformaciones rápidas y a demandas específicas de cada institución. En América Latina, donde las desigualdades en infraestructura y acceso persisten, la gobernanza inclusiva adquiere especial relevancia como herramienta para reducir brechas y garantizar oportunidades equitativas.
Integrar la IAG de forma responsable implica coordinar tres ejes interdependientes: la autonomía intelectual, la ética académica y la gobernanza institucional. Para van Berkel et al., (2023) el primero busca garantizar que el aprendizaje conserve su carácter reflexivo; el segundo protege los derechos y deberes de quienes participan en el proceso educativo; y el tercero asegura la coherencia normativa y organizativa. Analizar su interacción permite comprender cómo una tecnología con gran potencial puede, al mismo tiempo, generar riesgos si se aplica sin un marco regulador sólido.
Los estudios revisados revelan experiencias donde la incorporación de la IAG ha fortalecido la enseñanza jurídica gracias a la capacitación docente, la inclusión de competencias digitales en el currículo y la creación de comités especializados (Ricoy-Casas et al., 2025). En estos casos, la tecnología se emplea como herramienta de apoyo y no como sustituto del trabajo intelectual. Este enfoque fomenta la confianza de la comunidad académica y fortalece la reputación institucional, demostrando que la innovación puede integrarse sin comprometer los valores educativos.
La presente investigación se realizó a través de un método de revisión sistemática de documentos, con la finalidad de identificar, examinar y sintetizar pruebas académicas, normativas e institucionales asociadas con la integración ética de la inteligencia artificial generativa (IAG) en la educación jurídica universitaria en Latinoamérica. El modelo PRISMA fue seleccionado como marco metodológico, dado que proporciona parámetros transparentes y replicables para la elección y análisis de fuentes de resultados, especialmente en investigaciones no experimentales centradas en las ciencias sociales y la educación superior (YepesNuñez et al., 2021). Este enfoque metodológico facilitó el examen crítico de los documentos analizados, respetando los principios de transparencia y trazabilidad intrínsecos a la investigación científica.
La recopilación de datos se llevó a cabo en el intervalo temporal de abril a junio de 2025, utilizando bases de datos académicas y repositorios institucionales pertinentes, tales como Scopus y Web of Science (Sánchez et al., 2022). Los criterios de inclusión consideraron documentos publicados en el intervalo temporal de 2019 a 2025, redactados en español, portugués o inglés, que se enfocaban en al menos uno de los siguientes ejes: 1) la implementación de la inteligencia artificial generativa en el ámbito de la educación superior; 2) la ética de la Inteligencia Artificial en contextos educativos; 3) las políticas universitarias sobre tecnologías emergentes; y 4) la educación jurídica en América Latina. Se eliminaron artículos de carácter técnico carentes de contenido pedagógico o ético, junto con documentos normativos que no están disponibles en su versión completa. El procedimiento de selección se llevó a cabo en tres fases consecutivas:
1) inicialmente, se identificaron 142 documentos de potencial relevancia mediante la combinación de palabras clave (tales como "inteligencia artificial generativa", "ética educativa", "formación jurídica", "universidad", "América Latina";
2) se implementaron filtros de pertinencia y calidad metodológica, lo que resultó en una reducción del corpus a 68 textos;
3) se llevó a cabo una lectura crítica y analítica, seleccionando 39 documentos que satisfacían los criterios de relevancia temática, contemporaneidad y profundidad analítica necesarios para la investigación.
La adopción de la triangulación entre categorías temáticas se utilizó como una estrategia para garantizar la validez interpretativa del análisis cualitativo. Este método permitió la detección de interrelaciones entre los ejes analizados: ética, gobernanza, pedagogía e implementación institucional, identificando tanto convergencias como tensiones en los hallazgos obtenidos. Se adoptó un enfoque sistemático basado en una matriz de datos elaborada en Excel, que incluyó campos como autor, año, tipo de estudio, categorías asignadas, subtemas emergentes y citas clave. La codificación temática adoptó un enfoque inductivo, permitiendo la generación directa de temas basándose en el contenido de los 39 artículos, en lugar de recurrir a categorías preestablecidas.
El proceso de codificación y agrupación temática resultó en la configuración de una estructura analítica que se compone de cuatro categorías fundamentales: ética, pedagogía, gobernanza e implementación. Estas categorías facilitaron una organización coherente de los estudios escogidos, promoviendo la comparación entre enfoques y la detección de patrones conceptuales. Además, se identificaron intersecciones significativas entre categorías, particularmente entre la ética y la pedagogía, lo que pone de manifiesto la complejidad inherente al fenómeno en estudio. La cuantificación de la frecuencia de aparición de cada categoría se resume en la tabla 1.
Tabla 1.
Categorías temáticas.
|
Categoría Temática |
Número de artículos |
|
Ética |
32 |
|
Pedagogía |
26 |
|
Gobernanza |
20 |
|
Implementación |
19 |
Nota: algunos artículos fueron codificados en más de una categoría temática, por lo cual la suma total excede los 39 estudios analizados.
Se llevó a cabo un análisis comparativo entre las propuestas, normativas institucionales y las directrices internacionales, evaluando el grado de congruencia entre ellos. Este método facilitó la construcción de una visión más integrada del fenómeno y fomentó la síntesis argumental del estudio. Así, la triangulación se consolidó como un mecanismo de validación interna, aceptado metodológicamente en revisiones cualitativas cuando se documenta de forma estructurada y transparente, los artículos que fueron tomados en consideración para el estudio se encuentran en la tabla 2.
Figura 1. PRISMA.
En base a la base de datos obtenida y a las categorías de estudio se obtuvo la siguiente base de datos
Tabla 2.
Artículos para el análisis.
|
N° |
Título |
Autor |
Año |
Base de datos |
Tipo de estudio |
Categorías temáticas |
Sistemas emergentes |
Citas o comentarios |
|
1 |
Perceptions of ChatGPT |
(George- Reyes et al., 2025) |
2024 |
Scopus |
Empírico (cuantitativo, encuestas estudiantiles) |
Ética, Pedagogía, Implementación |
Percepción estudiantil, autonomía, formación ética, apoyo académico |
Se destaca la percepción positiva de ChatGPT en cuanto a motivación y autonomía, aunque se mencionan riesgos éticos y de dependencia tecnológica. |
|
2 |
Inteligencia artificial en la administración universitaria |
(Téllez et al., 2024) |
2023 |
Scopus |
Teórico-analítico |
Gobernanza, Implementación |
Gestión universitaria, transformación digital, liderazgo, IA institucional |
La IA es vista como un agente de transformación en la administración universitaria, pero se requieren marcos de gobernanza claros para su implementación ética. |
|
3 |
Gobernanza, poder y autonomía universitaria en la era de la innovación |
(Silva, 2022) |
2022 |
Scopus |
Teóricoargumentativo |
Gobernanza, ética |
Autonomía universitaria, control tecnológico, ética institucional |
El artículo analiza críticamente cómo el avance tecnológico puede debilitar la autonomía de las universidades si no se establecen principios éticos sólidos. |
|
4 |
On Data Protection Regulations, Big Data and Sledgehammers in Higher Education |
(García- Vélez et al., 2019) |
2019 |
Scopus |
Empírico (análisis con redes neuronales MLP) |
Ética, gobernanza |
Protección de datos, uso excesivo de Big Data, irrelevancia de datos socioeconómicos |
El estudio revela que el uso indiscriminado de datos sin fundamento ético ni valor predictivo puede ser contraproducente para la gestión educativa. |
|
5 |
Neuro-rights, a demand for justice in the Neuralink era |
(Ticona, 2025) |
2025 |
Scopus |
Teóricoargumentativo (bioética personalista) |
Ética, gobernanza |
Neuroderechos, privacidad mental, IA y dignidad humana |
Propone los neuroderechos como exigencia de justicia frente a las amenazas de la neurotecnología y la IA sobre la autonomía y privacidad. |
|
6 |
Towards the ethical regulation of the use of artificial intelligence in scientific research |
(Antonio Breceda Pérez, 2025) |
2025 |
Scopus |
Cualitativo documntal |
Ética, gobernanza |
Normas académicas, transparencia, uso ético de IA, regulación institucional |
Diseña lineamientos éticos para el uso de IA en universidades públicas mexicanas; enfatiza la declaración del uso de IA y buenas prácticas. |
|
7 |
Impact of generative artificial intelligence in scientific integrity: A bibliometric analysis |
(Toia et al., 2025). |
2025 |
Scopus |
Empírico (análisis bibliométrico) |
Ética, Implementación |
Integridad científica, plagio, liderazgo ético, detección de IA |
Identifica riesgos de plagio y mala conducta con IA; urge mejorar regulaciones y formación ética para el uso responsable de ChatGPT en investigación. |
|
8 |
Regulatory burdens, innovation, artificial intelligence: regulatory dilemmas |
(Font, 2025) |
2025 |
Scopus |
Teórico-jurídico |
Gobernanza, ética |
Cargas normativas, innovación tecnológica, regulación proporcional |
Aborda los dilemas entre regulación y desarrollo de IA; propone regulación flexible considerando riesgos y tamaño empresarial. |
|
9 |
Computational Neuroscience in Higher Education |
(Adauto- Medina et al., 2025) |
2025 |
Scopus |
Revisión sistemática |
Pedagogía, implementacón |
Neuroeducación, personalización del aprendizaje, barreras tecnológicas |
Revisión de CNS aplicada a educación superior; sugiere potencial en mejora del aprendizaje, pero requiere marcos éticos y reguladores claros. |
|
10 |
Generative Artificial Intelligence and Transversal Competencies in Higher Education |
(DeronceleAcosta et al., 2025) |
2025 |
Scopus |
Revisión sistemática (PRISMA) |
Pedagogía, Ética, Implementación |
Competencias transversales, alfabetización en IA, innovación curricular, ética digital |
Identifica 15 competencias transversales clave como pensamiento crítico, autorregulación, liderazgo; destaca procesos estratégicos como desarrollo docente y transformación curricular para la adopción ética de IA. |
|
11 |
ChatGPT and academic writing in university students |
(Ledesma Pérez & Rodríguez Paredes, |
2025 |
Scopus |
Empírico cualitativo (fenomenológico hermenéutico) |
Pedagogía, ética |
Redacción académica, percepción estudiantil, monitoreo docente |
Docentes y estudiantes valoran ChatGPT como herramienta útil; mejora redacción y eficiencia académica, pero plantea riesgos de |
|
|
2025) |
|
|
|
|
|
plagio y dependencia. |
|
|
Literature Review on the Use of Emerging 12 Technologies for Industrial Process Automation |
(Espinoza et al., 2025) |
2025 |
Scopus |
Revisión sistemática (PRISMA) |
Implementación, ética |
Automatización industrial, IA aplicada, sostenibilidad |
Analiza 73 estudios; IA y robótica son tecnologías clave; resalta ahorro de costos, eficiencia y retos éticos en su implementación |
|
|
Education for Sustainability: Integrating 13 Sustainable Development into the University Curriculum |
(Newton & Jones, 2024) |
2025 |
Scopus |
Documental teórico |
Pedagogía, ética |
Currículo sostenible, enfoque crítico, colaboración interdisciplinaria |
Propuesta de currículo con enfoque sostenible; enfatiza acción crítica y trabajo interdisciplinario como clave educativa |
|
|
Digitalisation to Improve 14 Automated Agro- Export Logistics |
(Cortez- Clavo et al., 2025). |
2025 |
Scopus |
Análisis bibliométrico y revisión sistemática |
Implementación, gobernanza |
Digitalización, automatización logística, políticas públicas |
IA mejora logística agroexportadora; propone integración tecnológica y políticas públicas para eficiencia en comercio transfronterizo |
|
|
Exploring the Determinants of the Sustainable Use of Artificial 15 Intelligence in Peruvian University Teachers |
(AcostaEnriquez, ReyesPerez, et al., 2025) |
2025 |
Scopus |
Empírico cuantitativo (modelo de ecuaciones estructurales) |
Ética, Implementación, Pedagogía |
Actitud hacia IA, prejuicio, condiciones institucionales, sostenibilidad, percepción ética |
Estudio transversal con 368 docentes peruanos; actitud, condiciones y prejuicios son determinantes clave; la percepción ética se asocia con uso de IA. |
|
|
Higher Education in virtual environments: educational risks 16 of the use of private AI technology in the service of digital capitalism |
(DíezGutiérrez & JarquínRamírez, 2025) |
2025 |
Scopus |
Teórico crítico |
Gobernanza, ética |
Capitalismo digital, control de datos, sesgo, autonomía educativa |
Analiza cómo las BigTech condicionan la educación superior; IA como herramienta de expropiación del conocimiento; riesgo de currículum oculto y pérdida de autonomía. |
|
|
Ethical Implications Related to the Use of Artificial 17 Intelligence in the Generation of Academic Research |
(Usquiano Yepes et al., 2025) |
2025 |
Scopus |
Cualitativo documental descriptivo |
Ética, implementación |
Plagio, originalidad, monitoreo ético, responsabilidad académica |
Revisión de 50 estudios y 45 procesos legales; IA puede optimizar tareas investigativas pero implica riesgos de fraude, pérdida de originalidad y falta de transparencia. |
|
|
Disruptive Technologies in the University 18 Curriculum: Use of Artificial Intelligence |
(Huapaya et al., 2025) |
2025 |
Scopus |
Revisión sistemática cualitativa (PRISMA) |
Pedagogía, Implementación |
Currículo universitario, alfabetización en IA, educación disruptiva |
IA como tecnología disruptiva; urgencia de adaptar currículo universitario; destaca9necesidad de formación docente y adecuación institucional. |
|
|
Generative Artificial Intelligence in the 19 Teaching Process of University Teachers |
JuradoEnríquez et al. |
2025 |
Scopus |
Empírico cuantitativo (descriptivo transversal) |
Pedagogía, Ética, Implementación |
Formación docente, TPACK, uso de IA generativa, calidad educativa |
63 docentes peruanos; 66.7% integra IA de forma alta; destaca la brecha formativa, preocupaciones éticas, y necesidad de apoyo institucional. |
|
|
Fostering AI literacy: A 20 teaching practice reflection |
Lynette Pretorius |
2023 |
WoS |
Reflexiivo teórico estudio de caso |
Pedagogía ética |
Alfabetización en IA, formación docente, integridad académica |
Propone la alfabetización en IA como competencia clave; rechaza vigilancia y promueve prácticas formativas; IA como herramienta educativa positiva |
|
|
The impact Generative Artificial Intelligence 21 higher educati a focus on ethics and academic integrity |
of in on: |
(Gallent- Torres et al., 2023) |
2023 |
WoS |
Revisión crítica documenal |
Ética, gobernanza, implementación |
Plagio, privacidad, sostenibilidad, normativas institucionales |
Examina riesgos y oportunidades de IA; propone integrar ética, innovación e integridad; sugiere guías claras y formación docente |
|
Governing Academic Integrity: Ensuring the Authenticity of 22 Higher Thinking in the Era of Generative Artificial |
(Coates et al., 2025) |
2025 |
WoS |
Normativo analítico porpuesta de gobernanza |
Gobernanza, ética |
Integridad académica, evaluación auténtica, indicadores, reformas institucionales |
Propone marcos e indicadores de gobernanza; destaca limitaciones de vigilancia; urge reformas sistémicas por GenAI. |
|
|
|
Intelligence |
|
|
|
|
|
|
|
|||
|
23 |
Student perspectives on the use of generative artificial intelligence technologies in higher education |
(Johnston et al., 2024) |
2024 |
WoS |
Empírico cuantitativo (encuesta y focus group) |
Pedagogía, ética |
Percepción estudiantil, confianza académica, políticas inclusivas |
2555 estudiantes; mayoría rechaza uso completo de IA en ensayos; demandan políticas claras; uso relacionado con confianza en escritura. |
|||
|
24 |
AI-Based Digital Cheating At University, and the Case for New Ethical Pedagogies |
(Leaton Gray et al., 2025) |
2025 |
WoS |
Teórico crítico |
Ética, pedagogía, gobernanza |
Plagio digital, rediseño pedagógico, agencia estudiantil |
Critica vigilancia; propone pedagogías éticas basadas en agencia; IA no causa la crisis de integridad, pero la amplifica. |
|||
|
25 |
GenAI et al: Cocreation, Authorship, Ownership, Academic Ethics and Integrity in a Time of Generative |
(Bozkurt, 2024) |
2024 |
WoS |
Ensayo teórico analítico |
|
Ética, gobernanza, integridad académica |
Autoría, propiedad intelectual, co-creación, transparencia |
Plantea el dilema entre producción orgánica vs. sintética; aboga por transparencia y nuevas formas de evaluación ética en el uso de IA generativa. |
||
|
26 |
International Students and Generative Artificial Intelligence: A Cross-Cultural Exploratory Analysis of Higher Education Academic Integrity Policy |
Bannister, Alcalde Peñalver, Santamaría |
2024 |
WoS |
Empírico cualitativo (análisis documental políticas) |
de |
Gobernanza, Ética, Inclusión |
Estudiantes internacionales, sesgos, políticas inclusivas |
Revela ausencia de inclusión en políticas GenAI para estudiantes internacionales; llama a reformas inclusivas y sensibles al contexto culturalG. |
||
|
27 |
Education Training Assessment Artificial Intelligence. Pragmatic G for Educators |
and and A uide |
(Newton & Jones, 2024) |
2025 |
WoS |
Revisión crít práctica |
ica |
Pedagogía, Ética, Evaluación |
Diseño de evaluación, efectividad, IA y aprendizaje |
Proporciona guías para rediseñar evaluaciones resistentes a IA; destaca impacto de ChatGPT en evaluaciones tipo test y el rol formativo de las pruebas. |
|
|
28 |
Strategies for eAssessments in the Era of Generative Artificial Intelligence |
(Gundu, 2024) |
2025 |
WoS |
Revisión sistemática literatura |
de |
Pedagogía, ética, gobernanza |
E-assessment, autenticidad, diseño adaptativo, trampa digital |
Sugiere evaluación basada en proyectos, portafolios y tareas creativas; urge rediseño centrado en pensamiento crítico y habilidades aplicadas. |
||
|
39 |
Examining Recommendations for Generative Artificial Intelligence Use with Integrity from a Scholarship of Teaching and Learning Lens |
(Moya & Eaton, 2023) |
2023 |
WoS |
Conceptualanalítico |
|
Ética, gobernanza, pedagogía |
Niveles de intervención (micro-macro), liderazgo educativo, marcos integrados |
Identifica recomendaciones para uso ético de GenAI desde enfoque de integridad; detecta vacíos en niveles meso/macro y llama a liderazgo educativo activo. |
||
|
30 |
Student Perceptions Generative Artificial Intelligence: Investigating Utilization, Benefits, a Challenges Higher Education |
of nd in
|
(Almassaad et al., 2024) |
2024 |
WoS |
Empírico cuantitativo (encuesta) |
|
Pedagogía, Ética, Implementación |
Percepciones estudiantiles, uso de ChatGPT, barreras éticas |
Revela uso frecuente de GenAI por estudiantes, beneficios percibidos y preocupaciones éticas; urge políticas de integridad académica y uso responsable. |
|
|
31 |
Generative artificial intelligence in higher education: Guidelines for overcoming teaching, ethical and legal dilemmas |
(Divino, 2024) |
2024 |
WoS |
Compilación normativa y práctica (ensayo multidisciplinar) |
Ética, Gobernanza, Pedagogía |
Agencia docente- estudiantil, dilemas normativos, creatividad |
Promueve educación centrada en el ser humano, con IA como colaborador creativo; aboga por marcos éticos adaptativos. |
|||
|
32 |
Digital competencies in |
(Zhang & Tian, 2025) |
2025 |
WoS |
Análisis documental |
Gobernanza, Implementación, |
Competencias digitales, brechas institucionales, |
Revela carencias en competencias comunicativas y de colaboración; |
|||
|
student learning with generative artificial intelligence: Policy implications from world-class universities |
|
|
|
cualitativo |
Ética |
DigComp |
propone políticas inclusivas y éticas con enfoque en competencias emergentes. |
||||
|
Academic integrity and artificial 33 intelligence: is ChatGPT hype, hero or heresy? |
(Currie, 2023) |
2023 |
WoS |
Revisión crítica y ensayo |
|
Ética, Integridad académica, Gobernanza |
Fraude científico, evaluación auténtica, ChatGPT como herramienta |
Cuestiona la viabilidad de prohibiciones; propone rediseño de evaluación que integre GenAI de forma ética y realista. |
|||
|
The Impact of AI Guilt on Students' Use of ChatGPT 34 for Academic Tasks: Examining Disciplinary Differences |
(Qu & Wang, 2025) |
2025 |
WoS |
Empírico cuantitativo (encuesta regresión) |
y |
Ética, Pedagogía, Psicología educativa |
Culpa ética (AI guilt), diferencias disciplinares, tareas creativas |
Identifica que la 'culpa AI' reduce uso de ChatGPT en tareas creativas; destaca importancia de normas sociales y diferencias campo aplicado/puro. |
|||
|
ChatGPT and its ethical implications for STEM research 35 and higher education: a media discourse analysis |
(Nam & Bai, 2023) |
2023 |
WoS |
Teórico cualitativo (análisis discurso mediático) |
de |
Ética, Integridad académica, Gobernanza |
Autoría, crisis ética, ChatGPT en STEM |
Revela conflictos percibidos en investigación, docencia y gestión por ChatGPT; aboga por nuevas políticas de ética y autoría. |
|||
|
The Anticipated Impact of Artificial 36 Intelligence on US Higher Education: A National Study |
(Johnson et al., 2024) |
2024 |
WoS |
Empírico cuantitativo (encuesta nacional) |
|
Gobernanza, Implementación, Ética |
Preparación institucional, cambio anticipado, integridad académica |
Destaca brechas de preparación frente a GenAI; uso de leyes de Kranzberg para anticipar impactos éticos y estructurales. |
|||
|
Simple techniques to bypass GenAI text detectors: 37 implications for inclusive education |
(Perkins et al., 2024) |
2024 |
WoS |
Empírico experimental (comparación de detectores) |
Ética, Inclusión educativa, Integridad académica |
Detectores de texto, sesgo lingüístico, equidad digital |
Identifica ineficacia y sesgos de detectores de GenAI; subraya riesgos de exclusión y falsa acusación para estudiantes NNES. |
||||
|
Generative artificial intelligence integration 38 management education: application a ethical challenges |
in nd
|
(Bashir & Lapshun, 2025) |
2025 |
WoS |
Teórico aplicado (propuesta de matrices analíticas) |
Ética, Implementación, Gobernanza |
Educación gerencial, teorías éticas (utilitarismo, deontología), TAM/UTAUT |
Ofrece modelos teóricos y matrices para equilibrar ética y aplicación de GenAI en educación gerencial; aboga por responsabilidad colectiva. |
|||
Nota: Elaboración propia.
Una vez realizado el análisis general y el análisis de categorías se encontró lo siguiente:
La implementación de la inteligencia artificial generativa (IAG) en el contexto de la educación superior ha suscitado intensas discusiones académicas en torno a la autoría académica, la integridad intelectual y la ética. Según Jarquín-Ramírez et al., (2025) algunos estudios señalan que la utilización de herramientas como ChatGPT puede derivar en plagio digital, omisión de fuentes y generación de contenido automatizado sin criterio crítico. Este hecho pone en tela de juicio los modelos tradicionales de originalidad y demanda una revisión de las concepciones de autoría en contextos mediados por la inteligencia artificial. Silva (2022) postula que la implicación de la IAG debe ser declarada y gestionada de forma ética, lo que requiere que las instituciones modifiquen sus políticas de integridad académica. La literatura académica converge en la aspiración de instaurar marcos normativos que regulen la utilización ética y responsable de la IAG. En consecuencia, el debate ético ha adquirido una importancia primordial en los contextos universitarios actuales.
Como expresa Ticona (2025) uno de los subtemas en desarrollo es la culpa ética, una experiencia de los estudiantes que emplean IAG en tareas académicas, esta culpa funciona como un elemento regulador y fluctúa en función de la disciplina; los estudiantes de acuerdo a sus carreras aplicadas suelen emplear IAG con mayor libertad, mientras que en las disciplinas teóricas predomina una mayor restricción ética. Por su parte Mwita y Kitole (2025) cuestiona la eficacia de la prohibición de estas tecnologías, dado que podría promover su uso ilícito. Numerosos estudios sugieren la implementación de evaluaciones reformuladas, enfocadas en competencias críticas y autoría compartida. Para Font (2025) la IAG se percibe como un instrumento de asistencia, no como un sustituto de la agencia humana, es decir, es necesario adoptar una ética educativa adaptativa, desde una perspectiva integradora que tiene como objetivo lograr un equilibrio entre la innovación tecnológica y la responsabilidad académica.
Como expresan Espinoza et al., (2025) otro eje de preocupación ética se vincula con los detectores de inteligencia artificial, los cuales manifiestan sesgos lingüísticos y pueden aplicar sanciones injustas a estudiantes de habla no natica, este fenómeno pone en tela de juicio la equidad educativa y propicia tensiones entre la supervisión y la justicia. Para Cortez-Clavo et al., (2025) las investigaciones alertan acerca del peligro de exclusión académica y promueven políticas de inclusión y además se subraya la necesidad de instaurar marcos éticos institucionales que guíen la integración responsable de la IAG. Según Johnston et al., (2024) las propuestas enfatizan la alfabetización crítica en Inteligencia Artificial, como habilidad transversal para estudiantes y educadores, esta capacitación tiene como objetivo fortalecer la agencia ética y asegurar la integridad en contextos digitales, de este modo, la ética emerge como un eje fundamental para una aplicación justa y transparente de la IAG.
La gobernanza de la inteligencia artificial generativa (IAG) en contextos académicos para Leaton et al., (2025) se presenta como un reto institucional apremiante, especialmente frente a la falta de políticas normativas claras y adaptables, ciertas investigaciones examinadas indican que numerosas instituciones académicas carecen de directrices concretas respecto al uso ético de la Inteligencia Artificial Generalizada en actividades académicas. Lo que concuerda con lo referido por Acosta et al., (2025), esto propicia un ambiente de incertidumbre tanto en el cuerpo docente como en el estudiantado, quienes no hallan una referencia institucional para abordar dilemas específicos, las investigaciones subrayan la imperiosa necesidad de instaurar esquemas de gobernanza dinámicos, aptos para responder a las aceleradas transformaciones tecnológicas. Estos marcos según Quipas et al., (2025) deben tener en cuenta elementos como la autoría, la protección de datos personales y la co-creación de contenidos, además, se propone la instauración de indicadores institucionales destinados a la evaluación de la integridad universitaria, la normativa interna es percibida como un elemento crucial para orientar prácticas responsables con IAG.
Un componente principal examinado para Huapaya et al., (2025) es la incorporación de estudiantes internacionales y otros colectivos minoritarios en las políticas institucionales, es decir, se constató que las regulaciones vigentes frecuentemente perpetúan sesgos culturales y lingüísticos, lo cual restringe la implementación equitativa de regulaciones relativas a la Inteligencia Artificial Generalizada. Las investigaciones contemporáneas como la de Ekmekçi (2025) subrayan la falta de estrategias inclusivas en las políticas vigentes, lo que podría intensificar las desigualdades en el acceso y empleo de tecnologías educativas, contrariamente, se sugiere una gobernanza fundamentada en la equidad educativa, que incorpore la diversidad cultural, el acceso igualitario y la equidad en la evaluación. En este contexto, la gobernanza ética debe identificar las asimetrías tecnológicas presentes entre los estudiantes y fomentar su mitigación a través de recursos institucionales, únicamente mediante la implementación de estas medidas se asegura la legitimidad de las políticas relativas a la Inteligencia Artificial generativa.
También según Yepes et al., (2025) se detectaron propuestas destinadas a modificar la cultura institucional, mediante el liderazgo activo y la implicación de diversos actores en la regulación de la IAG, esta gobernanza no debe restringirse a normativas restrictivas, sino incorporar procesos participativos que involucren a educadores, alumnos y autoridades. Esta metodología promueve la co-creación de normas éticas, lo que resulta en una mayor aceptación y eficacia en su implementación, algunas investigaciones subrayan que la implementación efectiva de un modelo de gobernanza demanda flexibilidad, transparencia y una actualización continua (Silva, 2022). Se subraya también la relevancia de instruir al personal universitario en aspectos jurídicos, éticos y técnicos relativos a IAG; este enfoque holístico posibilita que las entidades académicas adopten una postura activa y reflexiva ante la transformación digital, asegurando la integridad y equidad educativa en entornos mediados por la Inteligencia Artificial(Pope et al., 2025).
La integración de la inteligencia artificial generativa (IAG) en la educación superior para Bojic, (2024) conlleva transformaciones significativas en las prácticas pedagógicas, algunos de los estudios subrayan que los educadores enfrentan obstáculos al incorporar dichas tecnologías, particularmente en entornos donde no se cuenta con formación previa en alfabetización digital crítica. La IAG según Arriazu (2025) demanda una reconsideración del papel del educador como facilitador de procesos creativos y éticos, además de una adaptación a un contexto en el que el conocimiento ya no se construye exclusivamente de manera humana. En este contexto, se reconoce la imperiosa necesidad de instruir a los educadores jurídicos en el uso de la ética eficaz de instrumentos basados en inteligencia artificial. Para Gómez et al., (2025) sugiere la necesidad de reestructurar los currículos académicos, integrando competencias digitales y éticas como ejes centrales, en consecuencia, la pedagogía convencional experimenta un proceso de reconfiguración frente a la emergente mediación tecnológica.
Uno de los asuntos más prominentes es la reconfiguración de las estrategias de evaluación, dado que las pruebas convencionales se vuelven susceptibles al uso inapropiado de la Inteligencia Artificial Generalizada (IAG). Jarquín-Ramírez et al., (2025) sugiere también la implementación de evaluaciones auténticas, orientadas hacia la resolución de problemas, la argumentación crítica y la generación original de contenido, es decir, en vez de instaurar la prohibición de la IAG, se promueve la implementación de tareas que integren su uso de manera ética, facilitando que los estudiantes desarrollen competencias de análisis y reflexión sobre la tecnología en sus estudiantes. Además, Toia et al., (2025) postula la necesidad de diversificar los métodos de evaluación, incorporando portafolios, proyectos colaborativos y autoevaluaciones orientadas; estas prácticas facilitarían la supervisión del proceso educativo, trascendiendo el producto final, de este modo, el enfoque pedagógico se dirige hacia la formación de ciudadanos críticos, aptos para emplear la Inteligencia Artificial como un instrumento ético de apoyo y no como un mecanismo de sustitución intelectual.
La formación legal jurídica a nivel universitario confronta desafíos particulares, dado que requiere el desarrollo de habilidades que integren el conocimiento jurídico con las competencias digitales en auge; la IAG plantea interrogantes novedosos acerca de la interpretación normativa, la generación de derechos automatizados y la ética profesional (Font, 2025). Es necesario incorporar en el plan de estudios contenidos relacionados con la ética tecnológica, los derechos digitales y la responsabilidad en el ámbito algorítmico, para Ávila-Hernández et al., (2025) las competencias en pensamiento crítico, comunicación digital y liderazgo ético, como competencias transversales indispensables. Esta reconfiguración según Pérez (2025) conlleva la superación de modelos pedagógicos memorísticos y la promoción de ambientes de aprendizaje que sean activos, colaborativos y enfocados en la resolución de casos reales, la educación jurídica debe prepararse para entornos en los que la interacción entre la Inteligencia Artificial y el derecho será cada vez más frecuente y de mayor relevancia.
La adopción responsable de la Inteligencia Artificial Generativa (IAG) en instituciones universitarias ha sido abordada con especial atención en las condiciones técnicas e institucionales requeridas para su implementación. Según García-Vélez et al., (2019) algunos estudios detectan obstáculos prácticos tales como la ausencia de infraestructura tecnológica, la insuficiente preparación del cuerpo docente y una deficiente orientación normativa; estas restricciones obstaculizan la incorporación eficaz de la IAG en procesos educativos, particularmente en escenarios con limitaciones presupuestarias. Según Mwita y Kitole (2025) observa una discrepancia entre las intenciones institucionales y las capacidades efectivas de implementación; la efectiva implementación demanda políticas institucionales bien definidas, recursos apropiados y soporte técnico continuo para el cuerpo docente y estudiantil, en ausencia de estos componentes, la IAG puede intensificar las disparidades educativas y fomentar la resistencia al cambio.
Para Téllez et al., 2024) la percepción de los actores institucionales en relación con la IAG, refiere a que algunos educadores interpretan estas tecnologías como amenazas a su función profesional, lo cual puede inducir comportamientos defensivas o rechazo; además, los alumnos frecuentemente perciben la IAG como un instrumento valioso para optimizar la eficiencia académica, aunque también reconocen los riesgos éticos vinculados. Según Alshurideh et al., (2024) enfatiza el valor de implementar procesos de concientización y capacitación que faciliten la sincronización de percepciones y fomenten una cultura institucional receptiva a la innovación, se sugiere una administración del cambio progresivo, fundamentada en el diálogo y creación de estrategias de implementación, esta visión promueve la adquisición tecnológica y atenúa las tensiones internas, por lo tanto, la implementación debería ser interpretada como un proceso participativo y contextualizado.
Como refiere Bashir y Lapshun (2025) se destaca la exigencia de incorporar la IAG de manera estratégica y sostenible, teniendo en cuenta los marcos regulatorios vigentes y las demandas éticas actuales, algunos estudios sugieren modelos de adopción gradual, que comiencen con aplicaciones exploratorias en entornos controlados, para posteriormente escalar su implementación. Según Perkins et al., (2024) esta graduación facilita la evaluación de impactos, la modificación de procesos y el fortalecimiento de las capacidades institucionales, se sugiere coordinar la implementación con otras iniciativas de transformación digital, con el objetivo de prevenir la duplicidad de esfuerzos y la fragmentación. Una implementación efectiva para Johnson et al., 2024) conlleva un seguimiento constante, una evaluación de los resultados y una retroalimentación activa, únicamente mediante este enfoque se puede asegurar que la IAG no solo sea adoptada, sino también interiorizada como un componente integral de una cultura universitaria ética, innovadora y enfocada en la mejora de la calidad educativa.
Los resultados de este análisis sistemático evidencian una creciente inquietud respecto a las consecuencias éticas, pedagógicas y regulatorias derivadas de la implementación de la inteligencia artificial generativa (IAG) en el contexto universitario, específicamente, la educación jurídica que confronta desafíos particulares al incorporar tecnologías que cuestionan los principios de autoría, argumentación e integridad académica. El estudio de Nam y Bai (2023) indica que la limitación del uso de la IAG no es suficiente; en cambio, se requiere una reconfiguración curricular, enfocada en la formación de competencias éticas, digitales y críticas. Esta perspectiva adquiere particular relevancia en América Latina, donde prevalecen desigualdades estructurales que pueden intensificarse con una adopción tecnológica no planificada, en consecuencia, la IAG debe ser tratada desde una perspectiva ética contextualizada, que fomente la inclusión y la equidad en el ámbito educativo.
La gobernanza en el ámbito universitario emerge como un elemento esencial para la formulación de políticas institucionales que orienten la aplicación ética de la IAG, no obstante, los estudios examinados evidencian una ausencia de marcos normativos claros, generando ambigüedad en su ejecución. Según Qu y Wang (2025) la propuesta de modelos de gobernanza participativos y adaptables responde a la exigencia de sincronizar innovación y responsabilidad, teniendo en cuenta la heterogeneidad cultural y jurídica de la región; se detectan tensiones entre la supervisión y la confianza, particularmente en la evaluación académica, las cuales deben ser mitigadas a través de la implementación de prácticas pedagógicas éticas, la educación jurídica cumple una doble función: incorporar la IAG en la instrucción jurídica y reflexionar críticamente sobre su regulación futura, en un contexto normativo aún en desarrollo.
La implementación de la IAG en instituciones universitarias de Latinoamérica debe tener en cuenta las circunstancias específicas del entorno, abarcando aspectos como la infraestructura, la formación docente y la percepción institucional, Currie (2023) señala que una adopción exitosa exige la implementación de procesos graduales, sostenibles y supervisados, que estén vinculados con políticas de digitalización. La alfabetización crítica en Inteligencia Artificial, aplicada tanto a docentes como a estudiantes, se establece como un eje transversal para una integración efectiva y ética, este análisis subraya la exigencia de futuras investigaciones que se ocupen de los vacíos regulatorios y educativos identificados, y que proporcionen modelos de adopción ética adaptados al contexto latinoamericano; la ética de la IAG no puede ser derivada de modelos externos; debe ser edificada a partir de la práctica educativa, jurídica y cultural de la región en cuestión.
Esta evaluación sistemática permitió discernir que la incorporación de la Inteligencia Artificial Generativa (IAG) en el ámbito de la educación superior, en particular en la formación jurídica universitaria en Latinoamérica, presenta retos de relevancia ética, pedagógica y regulatoria. Las investigaciones examinadas subrayan la imperiosa necesidad de establecer sólidos marcos éticos que guíen la utilización responsable de dichas tecnologías, además de fomentar la alfabetización crítica en Inteligencia Artificial como una competencia transversal. La educación jurídica requiere una reestructuración para integrar contenidos relacionados con la ética digital, los derechos algorítmicos y la responsabilidad tecnológica, alineando el currículo con los emergentes contextos de generación de conocimiento y práctica profesional, dentro de este marco, la ética no se limita a ser un contenido, sino que constituye un principio rector de toda práctica educativa.
Se concluye que la gobernanza institucional se erige como un elemento crucial para una adopción efectiva y equitativa de la IAG, es neceasrio que las instituciones universitarias formulen políticas que sean participativas, inclusivas y adaptativas, tomando en cuenta las especificidades culturales y estructurales de América Latina. La implementación no puede ser tecnocrática ni impositiva; demanda procesos progresivos, interacción entre los participantes y evaluación constante, asimismo, la IAG debe ser interpretada como un instrumento adicional, que fomente la reflexión crítica y no sustituya la agencia humana. Las futuras investigaciones deberían examinar los marcos normativos locales, las experiencias pedagógicas innovadoras y las estrategias pedagógicas que aseguren la equidad, la ética y la calidad educativa en contextos mediados por la Inteligencia Artificial.
Si bien esta revisión sistemática aporta un panorama integral sobre la ética, la pedagogía y la gobernanza en torno al uso de la inteligencia artificial generativa en la educación jurídica latinoamericana, es necesario reconocer algunas limitaciones como la disponibilidad de estudios empíricos específicos para el ámbito jurídico en la región sigue siendo reducida, lo que restringe la posibilidad de realizar comparaciones más profundas entre distintos contextos institucionales. Asimismo, la heterogeneidad en las metodologías de las investigaciones incluidas dificulta establecer patrones uniformes en cuanto a resultados y enfoques. Otro aspecto a considerar es que gran parte de la literatura analizada se encuentra en proceso de construcción, por lo que sus conclusiones deben interpretarse con cautela, esto no resta validez al análisis, pero sí invitan a reconocer que el conocimiento en esta materia se encuentra en una fase emergente y en constante evolución.
Como recomendación para futuros estudios, se debe profundizar en investigaciones empíricas que evalúen de manera directa el impacto de la IA generativa en aulas de derecho en América Latina, incorporando tanto la perspectiva de docentes como de estudiantes. Resulta especialmente relevante analizar cómo las prácticas pedagógicas pueden transformarse para equilibrar el uso de estas herramientas con la preservación de la autonomía intelectual y el juicio crítico. También es necesario avanzar en estudios que examinen la dimensión ética desde la justicia algorítmica y la inclusión digital, identificando riesgos de exclusión asociados a desigualdades estructurales de la región. Se sugiere desarrollar investigaciones orientadas a la gobernanza educativa, evaluando políticas institucionales y marcos normativos que permitan implementar la IA de manera responsable.
Los autores desean agradecer a la Dirección de Investigación y Desarrollo (DIDE) de la Universidad Técnica de Ambato. Este artículo se deriva del proyecto de investigación titulado “Inteligencia Artificial (IA) y su Aplicación en la Educación Jurídica y la Profesión Legal”, aprobado mediante Resolución No. UTA-CONIN2025-0023-R por la Dirección de Investigación y Desarrollo (DIDE) de la Universidad Técnica de Ambato, Ecuador.
El autor declara que no existen conflictos de interés relacionados con la investigación, redacción o envío de este manuscrito. Ninguna relación financiera, profesional o personal ha influido en el contenido o las conclusiones del artículo titulado: “Ética de la IA generativa en la formación legal universitaria”.
Acosta-Enriquez, B. G., Arbulu Ballesteros, M., Vilcapoma Pérez, C. R., Huamaní Jordan, O., Martin Vergara, J. A., Martel Acosta, R., Arbulu Perez Vargas, C. G., & Arbulú Castillo, J. C. (2025). AI in academia: How do social influence, self-efficacy, and integrity influence researchers’ use of AI models? Social Sciences and Humanities Open, 11. https://doi.org/10.1016/J.SSAHO.2025.101274
Acosta-Enriquez, B. G., Reyes-Perez, M. D., Huamani Jordan, O., Carreño Saucedo, L., Padilla-Caballero, J. E. A., Fernández-Altamirano, A. E. F., García Yovera, A. J., Briceño-Hernandez, R. N., & Alarcón Bustíos, J. M. (2025). Exploring the
Determinants of the Sustainable Use of Artificial Intelligence in Peruvian University
Teachers: A Structural Equation Modeling Analysis. Sustainability (Switzerland), 17(7). https://doi.org/10.3390/SU17072834
Adauto-Medina, W., Olivares-Zegarra, S., Aybar-Bellido, I., Arones, M., & Caycho-Salas, B. (2025). Computational Neuroscience in Higher Education: A Systematic Review on the Problems Addressed, Methods Used and Implications. International Journal of
Online and Biomedical Engineering, 21(8), 4–22. https://doi.org/10.3991/IJOE.V21I08.55225
Almassaad, A., Alajlan, H., & Alebaikan, R. (2024). Student Perceptions of Generative Artificial Intelligence: Investigating Utilization, Benefits, and Challenges in Higher Education. Systems, 12(10). https://doi.org/10.3390/SYSTEMS12100385
Alshurideh, M., Kurdi, B. Al, Okleh, I., Chatra, K., Snoussi, T., Alzoubi, H. M., Alzboun, N., & Ahmed, G. (2024). Factors affecting attitude to use metaverse technology application. International Journal of Data and Network Science, 8(4), 2591–2600. https://doi.org/10.5267/J.IJDNS.2024.4.018
Antonio Breceda Pérez, J. (2025). Towards the ethical regulation of the use of artificial intelligence in scientific research: guidelines from the Autonomous University of
Ciudad Juárez. Revista de Bioetica y Derecho, 64, 81–97. https://doi.org/10.1344/RBD2025.64.48719
Arriazu, R. (2025). The daunting challenge of Artificial Intelligence in Education: a systematic literature review. Journal of E-Learning and Knowledge Society, 21(1). https://doi.org/10.20368/1971-8829/1135992
Ávila-Hernández, F. M., Picarella, L., & Martín Fiorino, V. R. (2025). The ethical-legal challenges of artificial intelligence in Europe and Colombia. Clio. Revista de Historia,
Ciencias Humanas y Pensamiento Crítico., 5(9), 866–907. https://doi.org/10.5281/ZENODO.14567185
Bashir, S., & Lapshun, A. L. (2025). Generative artificial intelligence integration in management education: application and ethical challenges. Cogent Education, 12(1).
https://doi.org/10.1080/2331186X.2025.2526436
Bojic, L. (2024). AI alignment: Assessing the global impact of recommender systems.
Futures, 160, 103383. https://doi.org/10.1016/J.FUTURES.2024.103383
Bozkurt, A. (2024). GenAI et al.: Cocreation, Authorship, Ownership, Academic Ethics and Integrity in a Time of Generative AI. Open Praxis, 16(1), 1–10. https://doi.org/10.55982/OPENPRAXIS.16.1.654
Coates, H., Croucher, G., & Calderon, A. (2025). Governing Academic Integrity: Ensuring the Authenticity of Higher Thinking in the Era of Generative Artificial Intelligence. Journal of Academic Ethics. https://doi.org/10.1007/S10805-025-09639-7
Cortez-Clavo, L. K., Salazar-Muñoz, M. I., & Morán-Santamaría, R. O. (2025). Digitalisation to Improve Automated Agro-Export Logistics: A Comprehensive Bibliometric Analysis. Sustainability (Switzerland), 17(10). https://doi.org/10.3390/SU17104470
Currie, G. M. (2023). Academic integrity and artificial intelligence: is ChatGPT hype, hero or heresy? Seminars in Nuclear Medicine, 53(5), 719–730.
https://doi.org/10.1053/J.SEMNUCLMED.2023.04.008
Deroncele-Acosta, A., Sayán-Rivera, R. M. E., Mendoza-López, A. D., & NorabuenaFigueroa, E. D. (2025). Generative Artificial Intelligence and Transversal
Competencies in Higher Education: A Systematic Review. Applied System Innovation, 8(3), 83. https://doi.org/10.3390/ASI8030083
Díez-Gutiérrez, E. J., & Jarquín-Ramírez, M. R. (2025). Higher Education in virtual environments: educational risks of the use of private AI technology in the service of digital capitalism. Edutec, 55–69. https://doi.org/10.21556/EDUTEC.2025.91.3665
Divino, S. (2024). Generative artificial intelligence in higher education: Guidelines for overcoming teaching, ethical and legal dilemmas. Revista Pedagogia Universitaria y Didactica Del Derecho, 11(1), 6–30. https://doi.org/10.5354/0719-5885.2024.74070
Ekmekçi, P. E. (2025). Reflections on the “Ethics Guideline for using Generative Artificial
Intelligence in Scientific Research and Publication Process of Higher Education
Institutions.” Balkan Medical Journal, 42(2), 174–175.
https://doi.org/10.4274/BALKANMEDJ.GALENOS.2024.2024-6-72
Espinoza, A. A. G., Carazas, C. V. E., & Sierra-Liñan, F. (2025). Literature Review on the Use of Emerging Technologies for Industrial Process Automation: Analysis of Developments from 2020 to 2024. International Journal of Engineering Trends and Technology, 73(6), 428–438. https://doi.org/10.14445/22315381/IJETT-V73I6P134
Flores, R. A. R., Vicari, R. M., Galafassi, C., & Rodríguez, M. U. (2025). Teachers’ Perceptions of Otherness in the Age of Artificial Intelligence. Sophia (Ecuador), 2025-
July-December (39), 281–313. https://doi.org/10.17163/SOPH.N39.2025.09
Font, J. L. O. (2025). Regulatory burdens, innovation, artificial intelligence: regulatory dilemmas. Estudios En Derecho a La Informacion, 10(20), 81–100.
https://doi.org/10.22201/IIJ.25940082E.2025.20.19491
Gallent-Torres, C., Zapata-González, A., & Ortego-Hernando, J. L. (2023). The impact of
Generative Artificial Intelligence in higher education: a focus on ethics and academic integrity. RELIEVE - Revista Electronica de Investigacion y Evaluacion Educativa, 29(2). https://doi.org/10.30827/RELIEVE.V29I2.29134
García-Vélez, R. A., López-Nores, M., González-Fernández, G., Robles-Bykbaev, V. E., Wallace, M., Pazos-Arias, J. J., & Gil-Solla, A. (2019). On data protection regulations, big data and sledgehammers in Higher Education. Applied Sciences (Switzerland), 9(15). https://doi.org/10.3390/APP9153084
George-Reyes, C. E., Avello-Martínez, R., & Buenestado-Fernández, M. (2025).
Perceptions of ChatGPT and the Complexity of Its Impact Among Higher Education
Students: Evidence Across Ten Countries of Latin America and Europe. Educational Process: International Journal, 15. https://doi.org/10.22521/EDUPIJ.2025.15.171
Gómez, S. L., Suelves, D. M., Rodríguez, J. R., & Nemiña, R. E. (2025). Artificial Intelligence in the University Context. Contributions from Research. Revista Lusofona de Educacao, 65(65), 63–84. https://doi.org/10.24140/ISSN.1645-7250.RLE65.03
Goyibova, N., Muslimov, N., Kannazarova, Z., Kadirova, N., Alautdinova, K., & Ismatullaeva, I. (2025). Exploring the Impact of Artificial Intelligence on Academic
Writing: A Bibliometric Analysis of Trends, Advancements, and Ethical Challenges. Forum for Linguistic Studies, 7(6), 342–360. https://doi.org/10.30564/FLS.V7I6.9054
Gundu, T. (2024). Strategies for e-Assessments in the Era of Generative Artificial Intelligence. Electronic Journal of E-Learning, 22(7), 40–50. https://doi.org/10.34190/EJEL.22.7.3477
Häyry, M., & Takala, T. (2024). Just Transition to Ethical Sustainability: Not Why or What but How. Journal of Ecohumanism, 3(4), 1088–1095. https://doi.org/10.62754/JOE.V3I4.3556
Huapaya, E. S. R., Chucos, G. L., Sosa, E. P., & Meza, M. I. (2025). Disruptive technologies in the university curriculum: use of artificial intelligence. International
Journal of Evaluation and Research in Education, 14(1), 671–681. https://doi.org/10.11591/IJERE.V14I1.30450
Jaramillo Gómez, D. L., Álvarez Maestre, A. J., Parada Trujillo, A. E., Pérez Fuentes, C.
A., Bedoya Ortiz, D. H., & Sanabria Alarcón, R. K. (2025). Determining Factors for the Development of Critical Thinking in Higher Education. Journal of Intelligence, 13(6), 59. https://doi.org/10.3390/JINTELLIGENCE13060059
Jarquín-Ramírez, M. R., Alonso-Martínez, H., & Díez-Gutiérrez, E. J. (2025). Chat GPT for a Just, Democratic and Transformative Education System. Revista Internacional de Educacion Para La Justicia Social, 23(3). https://doi.org/10.15366/REICE2025.23.3.001
Johnson, N., Seaman, J., & Seaman, J. (2024). The Anticipated Impact of Artificial Intelligence on Higher Education. Online Learning Journal, 28(3), 9–33. https://doi.org/10.24059/OLJ.V28I3.4646
Johnston, H., Wells, R. F., Shanks, E. M., Boey, T., & Parsons, B. N. (2024). Student perspectives on the use of generative artificial intelligence technologies in higher education. International Journal for Educational Integrity, 20(1). https://doi.org/10.1007/S40979-024-00149-4
Jurado, D. B., Larrea, G. N., Abril, K. R., & Vélez, J. C. (2020). Academia, gobierno y empresas una perspectiva desde la vinculación con la colectividad. Revista de
Investigación Enlace Universitario, 19(2), 60–71. https://doi.org/10.33789/ENLACE.19.2.74
Leaton Gray, S., Edsall, D., & Parapadakis, D. (2025). AI-Based Digital Cheating At University, and the Case for New Ethical Pedagogies. Journal of Academic Ethics. https://doi.org/10.1007/S10805-025-09642-Y
Ledesma Pérez, F. E., & Rodríguez Paredes, S. A. (2025). ChatGPT and academic writing in university students. Edutec, 92, 179–195. https://doi.org/10.21556/EDUTEC.2025.92.3431
Margot Quipas Bellizza, M., Amparo Delgado Carbajal, L., del Carmen Medina
Hernández, M., & Del Carpio Ramírez, R. J. (2025). Education for Sustainability: Integrating Sustainable Development into the University Curriculum. Encuentros (Maracaibo), 24, 125–148. https://doi.org/10.5281/ZENODO.15350169
Moya, B. A., & Eaton, S. E. (2023). Examining Recommendations for Generative Artificial Intelligence Use with Integrity from a Scholarship of Teaching and Learning Lens. RELIEVE - Revista Electronica de Investigacion y Evaluacion Educativa, 29(2). https://doi.org/10.30827/RELIEVE.V29I2.29295
Mwita, K. M., & Kitole, F. A. (2025). Potential benefits and challenges of artificial intelligence in human resource management in public institutions. Discover Global Society, 3(1). https://doi.org/10.1007/S44282-025-00175-8
Nam, B. H., & Bai, Q. (2023). ChatGPT and its ethical implications for STEM research and higher education: a media discourse analysis. International Journal of STEM Education, 10(1). https://doi.org/10.1186/S40594-023-00452-5
Newton, P. M., & Jones, S. (2024). Education and Training Assessment and Artificial Intelligence. A Pragmatic Guide for Educators. British Journal of Biomedical Science,
81. https://doi.org/10.3389/BJBS.2024.14049
Novozhilova, E., Mays, K., Paik, S., & Katz, J. E. (2024). More Capable, Less Benevolent: Trust Perceptions of AI Systems across Societal Contexts. Machine Learning and
Knowledge Extraction, 6(1), 342–366. https://doi.org/10.3390/MAKE6010017
Perkins, M., Roe, J., Vu, B. H., Postma, D., Hickerson, D., McGaughran, J., & Khuat, H.
Q. (2024). Simple techniques to bypass GenAI text detectors: implications for inclusive education. International Journal of Educational Technology in Higher Education, 21(1). https://doi.org/10.1186/S41239-024-00487-W
Pokrovskaya, A. (2025). The Legal Status of Artificial Intelligence: The Need to Form a Legal Personality and Regulate Copyright. Artificial Intelligence and Applications,
3(2), 179–191. https://doi.org/10.47852/BONVIEWAIA52023901
Pope, N., Kahila, J., Vartiainen, H., Saqr, M., López-Pernas, S., Roos, T., Laru, J., &
Tedre, M. (2025). An XAI Social Media Platform for Teaching K-12 Students AIDriven Profiling, Clustering, and Engagement-Based Recommending. Proceedings of the AAAI Conference on Artificial Intelligence, 39(28), 29203–29211. https://doi.org/10.1609/AAAI.V39I28.35194
Qu, Y., & Wang, J. (2025). The Impact of AI Guilt on Students’ Use of ChatGPT for Academic Tasks: Examining Disciplinary Differences. Journal of Academic Ethics.
https://doi.org/10.1007/S10805-025-09643-X
Ricoy-Casas, R. M., Fernández-González, R., & Santos-Garrido, M. (2025). Underrepresented students and artificial intelligence. European Public and Social Innovation Review, 10. https://doi.org/10.31637/EPSIR-2025-843
Sánchez Serrano, S., Pedraza Navarro, I., & Donoso González, M. (2022). ¿Cómo hacer una revisión sistemática siguiendo el protocolo PRISMA?: Usos y estrategias fundamentales para su aplicación en el ámbito educativo a través de un caso práctico. Bordón: Revista de Pedagogía, ISSN-e 2340-6577, ISSN 0210-5934, Vol.
74, No 3, 2022, Págs. 51-66, 74(3), 51–66. https://doi.org/10.13042/Bordon.2022.95090
Silva, A. A. (2022). Gobernanza, poder y autonomía universitaria en la era de la innovación. Perfiles Educativos, 44(178), 150–164.
https://doi.org/10.22201/IISUE.24486167E.2022.178.60735
Téllez, A. R., Ortiz, L. M. F., & Domínguez, F. C. T. (2024). Artificial Intelligence in University Administration: An Overview of its Uses and Applications. Revista
Interamericana de Bibliotecologia, 47(2).
https://doi.org/10.17533/UDEA.RIB.V47N2E353620
Ticona, A. Y. G. (2025). Neuro-rights, a demand for justice in the neuralink era: an analysis from the personalist bioethics of Elio Sgreccia. Prudentia Iuris, 2025(99), 87–126. https://doi.org/10.46553/PRUDENTIA.99.2025.3
Toia, A. M. del C., Málaga, J. M. M., Valencia, S. A. L., Valenti, E., Calvo, P. D. D. O., Terreros-Abril, K., Fuenzalida-Valdivia, J., & Carpio, L. B. M. del. (2025). Impact of generative artificial intelligence in scientific integrity: A bibliometric analysis. Revista de Bioetica y Derecho, 64, 55–80. https://doi.org/10.1344/RBD2025.64.48524
Usquiano Yepes, P. A., Valencia Gallo, L. M., Botero Zuluaga, D. M., & Giraldo Jiménez,
E. A. (2025). ETHICAL IMPLICATIONS RELATED TO THE USE OF ARTIFICIAL INTELLIGENCE IN THE GENERATION OF ACADEMIC RESEARCH. Prometeica,
32. https://doi.org/10.34024/PROMETEICA.2025.32.19619 van Berkel, N., Sarsenbayeva, Z., & Goncalves, J. (2023). The methodology of studying fairness perceptions in Artificial Intelligence: Contrasting CHI and FAccT.
International Journal of Human Computer Studies, 170. https://doi.org/10.1016/J.IJHCS.2022.102954
Vidal Sabanés, L., & da Cunha, I. (2025). AI as a resource for the clarification of medical terminology. Terminology. International Journal of Theoretical and Applied Issues in Specialized Communication, 31(1), 37–71. https://doi.org/10.1075/TERM.00083.VID
Yepes-Nuñez, J. J., Urrútia, G., Romero-García, M., & Alonso-Fernández, S. (2021). Declaración PRISMA 2020: una guía actualizada para la publicación de revisiones sistemáticas. Revista Española de Cardiología, 74(9), 790–799. https://doi.org/10.1016/J.RECESP.2021.06.016
Zambrano, M., Jurado, B., Freire, N., Saavedra, S., Rafael Mora Zambrano, E., Mauricio Bonilla Jurado, D., Alfonso Núñez Freire, L., & Carlos Sarmiento Saavedra, J. (2018).
Inadaptabilidad de los docentes al manejo de plataformas virtuales: caso Educar
Ecuador. Revista Conrado, 14(62), 38–42.
https://conrado.ucf.edu.cu/index.php/conrado/article/view/713
Zhang, Y., & Tian, Z. (2025). Digital competencies in student learning with generative artificial intelligence: Policy implications from world-class universities. Journal of
University Teaching and Learning Practice , 22(2). https://doi.org/10.53761/AV7C8830
[1] . Universidad Técnica de Ambato- (UTA)- Ecuador
Autor de correspondencia: edr.rodriguez@uta.edu.ec