Revista de Ciencias Sociales (RCS)

Vol. XXXII, No. 2, Abril - Junio 2026. pp. 489-506

FCES - LUZ ● ISSN: 1315-9518 ● ISSN-E: 2477-9431

Como citar: Chiclayo, H. J., Hilario-Vargas, J., Vela, L., y Rios, M.A. (2026). Ética e integridad en la investigación universitaria apoyada con inteligencia artificial: Revisión sistemática de literatura. Revista De Ciencias Sociales, XXXII(2), 489-506.

Ética e integridad en la investigación universitaria apoyada con inteligencia artificial: Revisión sistemática de literatura

Chiclayo Padilla, Hugo Javier*

Hilario-Vargas, Julio**

Vela Meléndez, Lindon***

Rios Villacorta, Mauro Adriel****

Resumen

El artículo analiza problemas éticos y de integridad en la investigación que se realiza con inteligencia artificial en contextos universitarios, a partir del análisis de 35 artículos seleccionados, mediante el protocolo PRISMA para el período entre 2020 y 2024, adoptando el método de revisión sistemática. Los resultados permiten definir tres tipos de problemas: i) la desintegración de la autoría intelectual, sistémicamente promovida por el plagio automatizado y la suplantación de contenido; ii) la fractura metodológica como consecuencia de la opacidad algorítmica, sesgos y alucinaciones de los datos; y, iii) la gobernanza fallida, que tiene que ver con los vacíos regulatorios y protocolos inadecuados para lidiar con la inteligencia artificial en la investigación. Estos son signos de una crisis de credibilidad científica y reproducibilidad que genera desconfianza en el conocimiento científico. Los códigos éticos editoriales actuales son insuficientes ante la autoría automatizada emergente. Las mejores prácticas requieren formación en ética de inteligencia artificial, políticas institucionales, supervisión humana y transparencia algorítmica. Es necesario establecer marcos normativos adaptables y cultura académica que integre la inteligencia artificial preservando la integridad. Las investigaciones futuras deben incluir comparativas políticas, percepciones universitarias y evaluaciones longitudinales para mejorar la gobernanza ética de la investigación en inteligencia artificial.

Palabras clave: Ética en inteligencia artificial; integridad académica; investigación universitaria; autoría intelectual; gobernanza ética.

*        Doctorando en la Universidad Cesar Vallejo, Chiclayo, Lambayeque, Perú. Magister en Ciencias con mención en Proyectos de Inversión. Docente Investigador en la Universidad Cesar Vallejo, Chiclayo, Lambayeque, Perú. E-mail: hchiclayopa@ucvvirtual.edu.pe ORCID: https://orcid.org/0000-0002-9620-5056

**      Doctor en Ciencias Biomédicas. Magister en Fisiología. Docente Investigador en la Universidad Católica Santo Toribio de Mogrovejo, Chiclayo, Lambayeque, Perú. E-mail: jhilario@usat.edu.pe ORCID: https://orcid.org/0000-0002-8656-6843

***    Magister en Ciencias de la Educación con mención en Investigación. Docente Investigador en la Universidad Nacional Pedro Ruiz Gallo, Lambayeque, Perú. E-mail: lvela@unprg.edu.pe ORCID: https://orcid.org/0000-0002-9644-7151

****  Doctorando en Gestión Universitaria. Doctor en Administración. Magister en Investigación y Docencia Universitaria. Magister en Administración con mención en Gerencia. Docente Investigador en la Universidad Nacional Pedro Ruiz Gallo, Lambayeque, Perú. E-mail: mrios@unprg.edu.pe ORCID: https://orcid.org/0000-0002-6197-0559

Recibido: 2025-11-28 • Aceptado: 2026-02-16

Ethics and integrity in university research supported by artificial intelligence: A systematic literature review

Abstract

This article analyzes ethical and integrity issues in research using artificial intelligence in university settings. It examines 35 selected articles, selected using the PRISMA protocol for the period between 2020 and 2024, and employing a systematic review method. The results identify three types of problems: i) the erosion of intellectual authorship, systemically promoted by automated plagiarism and content impersonation; ii) methodological fractures resulting from algorithmic opacity, biases, and data distortions; and iii) failed governance, related to regulatory gaps and inadequate protocols for managing artificial intelligence in research. These are signs of a crisis of scientific credibility and reproducibility that generates distrust in scientific knowledge. Current editorial ethics codes are insufficient in the face of emerging automated authorship. Best practices require training in artificial intelligence ethics, institutional policies, human oversight, and algorithmic transparency. It is necessary to establish adaptable regulatory frameworks and an academic culture that integrates artificial intelligence while preserving integrity. Future research should include policy comparisons, university perspectives, and longitudinal evaluations to improve the ethical governance of artificial intelligence research.

Keywords: Ethics in artificial intelligence; academic integrity; university research; intellectual authorship; ethical governance.

Introducción

En los últimos años, la aplicación de la Inteligencia Artificial (IA) en la investigación académica ha transformado la práctica investigativa universitaria en todas las disciplinas. Dicha revolución tecnológica ha permitido el surgimiento de un nuevo paradigma para la producción de conocimiento, facilitando la profundización en el análisis de grandes volúmenes de datos, la automatización de tareas rutinarias y la obtención de patrones de conocimiento que antes se encontraban fuera del alcance de las capacidades humanas (Cornejo-Plaza y Cippitani, ٢٠٢٣; Aljuaid, ٢٠٢٤; Isiaku et al., ٢٠٢٤).

Sin embargo, la rápida irrupción de herramientas de IA en el ámbito de la investigación universitaria, que abarca desde ChatGPT con despliegue de modelos de aprendizaje profundo, hasta la aparición de sistemas automatizados para la obtención y análisis de datos, han sido el insumo propicio para la aparición de un espacio de dudas éticas que las propias instituciones universitarias, a modo de autocrítica, trasladan a sus inicios para atender de manera sistemática, desde las dudas más simples acerca de la autoría y la integridad intelectual hasta las dudas sobre la privacidad, la transparencia algorítmica de la información y los sesgos que afectan a la validez de las investigaciones académicas (McKay et al., ٢٠٢٢; Karkoulian et al., ٢٠٢٤; Blanco et al., ٢٠٢٤; Acosta y Finol, ٢٠٢٤; Ávila-Rodríguez et al., ٢٠٢٦).

El escenario internacional de esta transformación presenta grandes tensiones a raíz de la presión por la adopción de nuevas tecnologías y la presión por la protección de principios éticos básicos para la producción del conocimiento científico (Cornejo-Plaza y Cippitani, ٢٠٢٣; Moya y Eaton, ٢٠٢٣; Navarro-Dolmestch, ٢٠٢٣; Ahmed y Salem, ٢٠٢٤; Pinchuc y Malitsckaya, ٢٠٢٤; Qadhi et al., ٢٠٢٤; Sysoyev, ٢٠٢٤; Ugleva et al., ٢٠٢٤; Yusuf et al., ٢٠٢٤). La literatura reciente documenta cómo las universidades a nivel mundial enfrentan desafíos similares, pero con respuestas institucionales notablemente diversas, desde enfoques proactivos y comprensivos en algunos casos hasta aproximaciones fragmentadas o reactivas en otros (Cornejo-Plaza y Cippitani, ٢٠٢٣; Moya y Eaton, ٢٠٢٣; Navarro-Dolmestch, ٢٠٢٣; Pinchuc y Malitsckaya, ٢٠٢٤; Rudolph et al., ٢٠٢٤; Sysoyev, ٢٠٢٤; Yusuf et al., ٢٠٢٤; Malik et al., ٢٠٢٥).

Este panorama diverso en las respuestas al fenómeno, evidencia no sólo tradición académica y contextos normativos diversos, sino también la forma emergente y pulsante de las tecnologías de IA, lo que establece un marco en el que muchas instituciones están formulando políticas donde no hay antecedentes claros o evidencias robustas sobre la efectividad de políticas anteriores y, mientras, se posicionan ante dilemas éticos complejos y que trascienden fronteras disciplinarias, culturales y geográficas.

Al respecto, la problemática principal radica en que, a pesar del uso deliberado de herramientas de IA en el mundo universitario, existe una tendencia alarmante hacia una rápida adopción tecnológica en detrimento de la implementación de marcos éticos en lo que respecta al uso de la IA en la investigación.

Un alto número de estudios han documentado cómo esta brecha entre el progreso tecnológico en IA y el desarrollo de guías relacionadas con una apropiada implementación de la misma en el contexto de la investigación, genera enormes riesgos sobre la integridad de la investigación: desde los documentos de plagio que han hecho uso de IA hasta cuestiones más sutiles en cuanto a la transparencia algorítmica, reproducibilidad de la investigación científica y atribución correcta de la aportación de la IA en trabajos generados por la co-creación con sistemas automatizados (Kambhampati et al., ٢٠٢٣; Aljabr y Al-Ahdal, ٢٠٢٤; Karkoulian et al., ٢٠٢٤).

Esta realidad plantea interrogantes fundamentales para el futuro de la producción de conocimiento en contextos universitarios, por lo que se hace necesario responder a la pregunta: ¿Cuáles son los principales desafíos éticos y problemas de integridad en la investigación con inteligencia artificial en universidades, según la literatura científica reciente?

La literatura consultada muestra patrones estables de preocupaciones éticas vinculadas con el uso de las IA en la investigación universitaria, en particular enfatizando la privacidad y la confidencialidad como las más comunes, las cuales aparecen en una cantidad considerable de los trabajos analizados (Hine, ٢٠٢١; Cornejo-Plaza y Cippitani, ٢٠٢٣; Aljabr y Al-Ahdal, ٢٠٢٤; Aljuaid, ٢٠٢٤). Dichos trabajos recogen temores razonados en relación con la mala recogida de datos, el uso secundario de datos no indicado, los medios insuficientes para la protección de información sensible en el contexto de análisis asistidos por IA, sobre todo en la investigación en contextos con personas o datos personales identificables.

También son relevantes las preocupaciones sobre cuestiones de plagio e integridad académica y las relacionadas con la transparencia y explicabilidad algorítmica, o el sesgo y discriminación, junto a las concernientes a la autoría y propiedad intelectual, generando un enmarañado conjunto de problemas interdependientes que necesitan ser tratados simultáneamente en distintos niveles.

En respuesta a estos problemas, han surgido distintos marcos normativos y políticas, aunque con desarrollo desigual y efectividad baja. La evidencia indica un aumento de las políticas institucionales, aunque existen ejemplos muy concretos, como el sistema de evaluación ética anticipada para la investigación con ChatGPT (Isiaku et al., ٢٠٢٤), que evidencian avances importantes en la resolución de problemas éticos asociados a la IA en investigación.

Por supuesto, estos ejemplos de efectividad contrarrestan la multitud de instancias de implementación superficial o puramente ceremonial, tal como también evidencian muchos estudios que identifican la existencia de limitaciones en la forma de evaluación y seguimiento (Hine, ٢٠٢١; Kambhampati et al., ٢٠٢٣), o la falta de especificación de medidas concretas para evaluar la efectividad de las políticas implementadas, evidenciando así la existencia de una brecha importante entre el desarrollo normativo y la práctica real.

Este trabajo está justificado por la necesidad imperiosa de sintetizar de forma exhaustiva la evidencia existente sobre dilemas éticos en investigación asistida por IA y de evaluar críticamente la eficacia de las estrategias actuales para hacer frente a estos dilemas. La rápida evolución de las capacidades tecnológicas, la variabilidad en las respuestas institucionales y la escasez de evaluaciones rigurosas de impacto dan como resultado que un estudio de revisión sistemática pueda ofrecer claridad conceptual, así como unas orientaciones prácticas imprescindibles para investigadores, gestores universitarios y desarrolladores de políticas (Hine, ٢٠٢١; Cornejo-Plaza y Cippitani, ٢٠٢٣).

De igual forma, la identificación de mejores prácticas basadas en la evidencia y la evaluación de las limitaciones de los marcos existentes, responden directamente a las llamadas reiteradas en la literatura hacia una mayor coordinación y estandarización de los enfoques para la ética de la IA en investigación académica, ayudando a cerrar la brecha entre innovación tecnológica y gobernanza ética en uno de los ámbitos más críticos para la producción de conocimiento científico global (Karpouzis, 2024; Pinchuc y Malitsckaya, 2024).

1. Metodología

Este estudio adopta el método de revisión sistemática de literatura, con el fin de dar respuesta a las preguntas de investigación. La búsqueda bibliográfica que permitió obtener la colección de documentos se realizó mediante una ecuación canónica de búsqueda diseñada de la siguiente manera: (TITLE (ethic* OR bioethic* OR «Research Integrity» OR integrity OR values OR «moral principles») AND TITLE-ABS-KEY (research*) AND TITLEArtificial Intelligence» OR ai) AND TITLE-ABS-KEYhigher education» OR college OR university)) AND PUBYEAR > 2020 AND PUBYEAR < 2024. Esta ecuación combinó términos clave como “ética”, “integridad investigativa”, “inteligencia artificial”, entre otros, adaptándola para las bases de datos consultadas con la finalidad de extraer la información.

Con el fin de salvaguardar la rigurosidad en el momento de la búsqueda de fuentes, se definieron criterios de inclusión y exclusión que orientaron la tarea de la revisión sistemática. Criterios de inclusión: La temporalidad de las publicaciones (publicaciones de los años 2020 a 2024 con el fin de amparar la actualidad de los enfoques éticos analizados); el idioma (artículos en cualquier idioma); la pertinencia de la temática (documentos cuyos títulos contienen expresiones directamente relacionadas con la ética y la integridad); el contexto de aplicación (estudios sobre investigación en educación superior, especialmente sobre IA en universidades o la educación superior en el mismo sentido).

Asimismo, se consideró la pertinencia metodológica y argumentativa (se seleccionaron únicamente los estudios que, de acuerdo con la aplicación de una matriz de evaluación de la parte temática y la parte metodológica, mostraron claridad en cuanto a los objetivos, conexión con normativas, coherencia en el diseño metodológico, datos empíricos robustos, respuesta a las preguntas y discusión crítica de los hallazgos).

Los criterios de exclusión hacen referencia a: Desenfoque temático (artículos que, aunque trataban sobre IA o sobre educación superior, no abordaban aspectos éticos, de integridad o valores en el contexto investigativo); falta de sustento metodológico (estudios sin evidencia empírica clara, con diseños inapropiados o sin discusión argumentativa de los hallazgos); ámbito no pertinente (documentos enfocados exclusivamente en la docencia, en niveles educativos distintos a la educación superior o en contextos profesionales ajenos a la investigación académica); y, problemas de calidad (publicaciones duplicadas, informes no revisados por pares o materiales con bajo nivel de rigurosidad científica y editorial).

En ese contexto, se consultaron 389 documentos en cinco bases de datos: Scopus (140), Web of Science (76), PubMed (14), Dimensions (152) y Google Académico (7). Siguiendo rigurosamente el protocolo PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-Analyses), se seleccionaron 35 artículos para la revisión sistemática de la literatura (ver Figura I).

Fuente: Elaboración propia, ٢٠٢٦ adaptado del protocolo PRISMA con base en los criterios de inclusión y exclusión.

Figura I: Protocolo PRISMA

2. Resultados y discusión

Esta sección presenta los resultados de la sistematización de los aportes y da respuesta a las preguntas de investigación.

2.1. Principales dilemas éticos asociados con el uso de inteligencia artificial en la investigación universitaria y cómo afectan la integridad académica

La implicación de la inteligencia artificial en la investigación universitaria pone a prueba una crisis ética multidimensional que pone en jaque los cimientos de la integridad académica. Esta revisión sistematizada encuentra dieciséis dilemas vinculados que deterioran los pilares axiológicos del ecosistema científico (ver Cuadro 1).

Cuadro 1

Dilemas éticos asociados con el uso de IA en la investigación universitaria

Dilemas éticos en el uso de IA en la investigación en universidades

Impacto en la integridad académica

Autores

Deficiente alfabetización digital y uso irresponsable de IA

Genera uso irresponsable que compromete objetivos educativos y producción de conocimiento significativo

(Cornejo-Plaza y Cippitani, 2023; Moya y Eaton, 2023; Lazăr et al., 2024; Pinchuc y Malitsckaya, 2024; Ugleva et al., 2024)

Sesgos algorítmicos discriminatorios

Perpetúa disparidades y afecta valores de justicia, honestidad y respeto en hallazgos científicos

(Moya y Eaton, 2023; Navarro-Dolmestch, 2023; Ugleva et al., 2024; Tsekea y Mandoga, 2025)

Vulneración de privacidad investigativa

Socava confidencialidad y confianza al exponer datos sensibles en procesos académicos

(Moya y Eaton, 2023; Navarro-Dolmestch, 2023; Ugleva et al., 2024; Tsekea y Mandoga, 2025)

Plagio automatizado mediante parafraseo

Viola honestidad intelectual mediante formas “inteligentes” de apropiación no detectable

(Kovachov et al., 2023; Navarro-Dolmestch, 2023; Pinchuc y Malitsckaya, 2024)

Suplantación de autoría mediante IA

Degrada transparencia al presentar contenido generado como producción original

(Kovachov et al., 2023; Moya y Eaton, 2023; Navarro-Dolmestch, 2023; Sysoyev, 2024)

Indetectabilidad de contenido generado

Impide acreditar conductas éticas y genera injusticias en evaluaciones

(Kovachov et al., 2023; Moya y Eaton, 2023; Navarro-Dolmestch, 2023; Pinchuc y Malitsckaya, 2024; Ugleva et al., 2024)

Dependencia cognitiva en herramientas

Propende a un aprendizaje sin significado y socava confianza en logros académicos

(Moya y Eaton, 2023; Navarro-Dolmestch, 2023; Pinchuc y Malitsckaya, 2024; Ugleva et al., 2024; Yitages y Kasai, 2024)

Compromiso del logro educativo genuino

Afecta responsabilidad y honestidad al desconectar resultados de aprendizajes reales

(Moya y Eaton, 2023; Navarro-Dolmestch, 2023; Pinchuc y Malitsckaya, 2024)

Generación y difusión de evidencia espuria

Compromete validez científica mediante “alucinaciones” algorítmicas y datos ficticios

(Kovachov et al., 2023; Moya y Eaton, 2023; Navarro-Dolmestch, 2023; Pinchuc y Malitsckaya, 2024)

Vacío regulatorio en ética de IA

Dificulta establecer expectativas claras y sancionar malas prácticas

(Wu et al., 2020; Navarro-Dolmestch, 2023; Pinchuc y Malitsckaya, 2024)

Opacidad algorítmica (caja negra)

Impide justificar decisiones y socava transparencia metodológica

(Cornejo-Plaza y Cippitani, 2023; Navarro-Dolmestch, 2023; Pinchuc y Malitsckaya, 2024; Ugleva et al., 2024)

Difusa atribución de responsabilidades

Dificulta atribuir errores y debilita rendición de cuentas en investigación aplicada

(Cornejo-Plaza y Cippitani, 2023; Moya y Eaton, 2023; Pinchuc y Malitsckaya, 2024; Sysoyev, 2024; Ugleva et al., 2024)

Sobrecalificación artificial en evaluaciones

Distorsiona méritos académicos premiando acceso tecnológico sobre competencia intelectual

(Moya y Eaton, 2023; Navarro-Dolmestch, 2023; Ugleva et al., 2024)

Erosión de la cultura ética institucional

Degrada valores fundamentales al normalizar atajos y sustituir rigor por eficiencia

(Cornejo-Plaza y Cippitani, 2023; Navarro-Dolmestch, 2023; Pinchuc y Malitsckaya, 2024)

Omisión en divulgación del uso de IA

Viola transparencia científica al ocultar contribuciones reales en publicaciones

(Kovachov et al., 2023; Moya y Eaton, 2023; Pinchuc y Malitsckaya, 2024; Sysoyev, 2024)

Fuente: Elaboración propia, ٢٠٢٦ con base en los aportes de los autores seleccionados mediante protocolo PRISMA.

a. La desintegración de la autoría. El origen de la crisis es la suplantación de la agencia humana dado que la producción de contenido usando herramientas de IA generativas, se hacen pasar por creación original, constituyendo una vulneración de dos principios fundamentales en la investigación: El de la honestidad epistemológica y el de la transparencia en la atribución. La situación identificada se agrava por el uso de “plagio inteligente” mediante parafraseo constructivo automatizado que logra evitar o hacer más compleja la tarea de los sistemas de detección, creando un vacío ético donde la autoría es un simulacro.

La consecuencia es una crisis de credibilidad que afecta desde las evaluaciones de los estudiantes, hasta la producción científica, generando dudas sobre la autenticidad de las contribuciones intelectuales. Los hallazgos sobre los dilemas éticos, se alinean a los resultados de Chen et al. (2024), quienes advierten que el uso de IA puede dar lugar a malas conductas académicas, tal como la fabricación de datos o el plagio automatizado y cuya solución ante “dichos peligros” sería una potenciación de las normas éticas.

b. La fractura metodológica. Al respecto, los algoritmos operan como cajas negras epistemológicas que comprometen la validez científica mediante tres mecanismos interrelacionados: La opacidad decisoria que imposibilita reconstruir procesos analíticos, violando el principio de reproductibilidad; los sesgos estructurales que perpetúan discriminación en hallazgos investigativos; y, las alucinaciones algorítmicas las cuales introducen datos espurios en cadenas de conocimiento. Estos fenómenos generan una “crisis de reproducibilidad” donde los resultados carecen de trazabilidad verificable, particularmente crítica en ciencias sociales y educación. La noción de “caja negra epistemológica” que se observa en el trabajo, se repite en Limongi (2024), al enfatizar en la necesidad de algoritmos auditables y transparentes para poner en valor la credibilidad de la investigación científica.

c. La gobernanza fallida dado que la velocidad exponencial de la innovación tecnológica ha superado la capacidad institucional para generar marcos éticos robustos. Esta fractura de gobernanza se manifiesta en vacíos regulatorios que impiden sancionar nuevas formas de mala conducta, asimetrías de responsabilidad donde errores algorítmicos carecen de responsables claros y protocolos inadecuados para proteger datos sensibles en investigación. El resultado es un paisaje normativo fragmentado donde las políticas institucionales oscilan entre la prohibición reactiva y la permisividad ingenua. Desde una ética de la responsabilidad, Hans (2014) plantea que toda innovación técnica debe considerar sus impactos morales; en la investigación universitaria, esto implica anticipar y mitigar efectos epistémicos no deseados.

Esta triada de crisis genera efectos en cascada, tales como: i) Erosión axiológica, dado que los valores fundacionales, como la justicia académica, se ven comprometidos cuando sistemas sesgados perpetúan disparidades en evaluación investigativa. Simultáneamente, se distorsiona la equidad mediante sobrecalificación artificial que premia acceso tecnológico sobre mérito intelectual; ii) degradación cultural donde la normalización de atajos éticos mediante el uso de la IA transforma progresivamente el ethos investigativo. La dependencia excesiva vacía de significado el aprendizaje, sustituyendo rigor intelectual por eficiencia instrumental.

Este desplazamiento genera una cultura de simulación donde la productividad aparente reemplaza a la excelencia sustantiva; iii) fractura epistemológica caracterizada por la pérdida de confianza en la validez del conocimiento generado con IA, lo que constituye quizás la amenaza más profunda. Cuando algoritmos no auditables producen hallazgos que evaden los mecanismos tradicionales de validación científica, se debilita el contrato social que sustenta la autoridad epistémica de la universidad.

2.2. Marcos normativos y códigos de ética que regulan el uso de IA en la investigación universitaria y sus principales limitaciones

El análisis sistemático de los marcos normativos y códigos de ética revela una profunda asimetría entre la aceleración exponencial del desarrollo de tecnologías de IA y la respuesta institucional y normativa, que se caracteriza por su parsimonia, fragmentación y reactividad. Esta brecha regulatoria constituye uno de los mayores desafíos éticos y operativos en el ámbito universitario, particularmente en el contexto de la investigación académica, donde están en juego los principios fundamentales de integridad, confianza, autoría y transparencia (ver Cuadro 2).

Cuadro 2

Marcos normativos y códigos de ética que regulan el uso de IA en la investigación universitaria y sus principales limitaciones

Marcos normativos y códigos de ética

Limitaciones

Autores

Reglamento de Inteligencia Artificial de la Unión Europea (“AI Act”), Reglamento General de Protección de Datos (GDPR - UE 2016/679), Carta de los Derechos Fundamentales de la Unión Europea, Convenio de Oviedo sobre Derechos Humanos y Biomedicina, Libro Blanco sobre la Inteligencia Artificial (CE, 2020), Resolución del Parlamento Europeo sobre aspectos éticos de la IA (2020), Comunicación de la Comisión Europea “Generar confianza en la IA centrada en el ser humano” (2019), Llamamientos de la UNESCO (2021, 2023), Recomendación de la UNESCO sobre la ética de la inteligencia artificial (2021)

Muchos de estos instrumentos se encuentran en fase de desarrollo o implementación temprana. Se observa falta de armonización normativa entre países, ausencia de disposiciones específicas aplicables a contextos de educación superior e investigación, dificultad para rastrear datos procesados por algoritmos, y ambigüedad respecto a la necesidad de consentimiento informado y vigilancia humana en el uso de sistemas automatizados.

(Cornejo-Plaza y Cippitani, 2023; Moya y Eaton, 2023; Aljabr y Al-Ahdal, 2024; Pinchuc y Malitsckaya, 2024; Qadhi et al., 2024; Ugleva et al., 2024)

Modelos y marcos de Integridad Académica: Modelo Integrado para la Integridad Académica (Basado en valores: honestidad, confianza, equidad, respeto, responsabilidad y valentía), Normativas internas universitarias sobre integridad, Índice de Eticidad de Sistemas de IA (HSE University)

No existe un consenso universal sobre la definición y aplicación de integridad académica, lo que conlleva desigualdad en la implementación. Las normativas internas son insuficientes para abordar fenómenos como la simulación de autoría o el uso no declarado de IA. Además, el índice ético requiere adaptación a otras disciplinas fuera del ámbito médico.

(Moya y Eaton, 2023; Navarro-Dolmestch, 2023; Pinchuc y Malitsckaya, 2024; Qadhi et al., 2024; Sysoyev, 2024; Ugleva et al., 2024)

Códigos y directrices internacionales en investigación y publicación científica: Committee on Publication Ethics (COPE), International Committee of Medical Journal Editors (ICMJE), World Association of Medical Editors (WAME), Declaración de Helsinki, Código de Núremberg, Declaración Universal sobre Bioética y Derechos Humanos (UNESCO, 2005), Directrices de notificación científica (PRISMA, STROBE, CONSORT, entre otros)

La mayoría de los códigos éticos fueron diseñados para contextos previos a la irrupción de la IA generativa, por lo que presentan vacíos normativos sobre la autoría de contenido generado por IA, plagio automatizado y confiabilidad de los textos. Existen debates activos sobre si los sistemas de IA pueden ser considerados coautores. Las directrices de uso responsable aún no son universales ni específicas para cada tipo de estudio.

(Kambhampati et al., 2023; Navarro-Dolmestch, 2023; Pinchuc y Malitsckaya, 2024; Qadhi et al., 2024; Ugleva et al., 2024)

Principios éticos generales aplicables a IA en educación e investigación: transparencia, explicabilidad, equidad, privacidad, protección de datos, rendición de cuentas, no discriminación, supervisión humana, respeto a la dignidad humana

Estos principios son mencionados frecuentemente, pero su implementación enfrenta múltiples desafíos: la IA puede incorporar sesgos desde sus datos de entrenamiento, dificultar la explicabilidad (efecto “caja negra”), y vulnerar la privacidad estudiantil. Además, existe un bajo nivel de alfabetización ética y digital entre docentes e investigadores, lo que incrementa la exposición a usos no éticos o indebidos de IA.

(Cornejo-Plaza y Cippitani, 2023; Moya y Eaton, 2023; Aljabr y Al-Ahdal, 2024; Ugleva et al., 2024)

Fuente: Elaboración propia, ٢٠٢٦ con base en los aportes de los autores seleccionados mediante protocolo PRISMA.

Estos resultados convergen con los aportes de Gulumbe et al. (2024), quienes indican la inadaptación de los códigos de ética de las instituciones y de las editoriales ante retos emergentes, y sostienen que muchas de las políticas vigentes no recogen signos tales como la autoría automatizada o las referencias generadas artificialmente. Del mismo modo, la investigación de Sudhir (2024) describe efectos similares en transparencia, privacidad de los datos y equidad algorítmica y recomienda un enfoque de marcos de gobernanza ética que permita una mayor participación.

En el plano supranacional, la Unión Europea ha producido un conjunto normativo avanzado, que incluye el Reglamento sobre Inteligencia Artificial (AI Act), el Reglamento General de Protección de Datos (GDPR - UE 2016/679), y la Carta de los Derechos Fundamentales de la Unión Europea, así como instrumentos complementarios como el Libro Blanco sobre la Inteligencia Artificial (Comisión Europea, 2020); la Resolución sobre los aspectos éticos de la IA (Parlamento Europeo, 2020); y, las Recomendaciones de la UNESCO sobre la ética de la IA (UNESCO, 2021).

No obstante, estos marcos están aún en fase de implementación o interpretación normativa y adolecen de una orientación concreta y operativa sobre cómo abordar los dilemas éticos específicos que surgen en la educación superior e investigación científica, tales como la simulación de autoría, la manipulación algorítmica de datos y el sesgo automatizado. La falta de claridad sobre el consentimiento informado, el rol de la supervisión humana, y la trazabilidad de decisiones algorítmicas refuerzan una incertidumbre estructural que debilita la gobernanza institucional.

A nivel institucional, los marcos sobre integridad académica (como el Modelo Integrado para la Integridad Académica y los códigos universitarios internos) promueven valores como honestidad, confianza, justicia, respeto y responsabilidad. Sin embargo, estos modelos fueron concebidos bajo supuestos epistemológicos previos a la disrupción digital actual. La irrupción de la IA genera nuevas formas de transgresión ética no previstas por estos sistemas, tales como la delegación cognitiva a máquinas, la generación automática de contenido sin atribución, o el falseamiento de resultados científicos mediante herramientas de IA generativa.

Si bien, existen esfuerzos como el Índice de Eticidad de Sistemas de IA desarrollado por HSE University (2024), su aplicación aún está circunscrita a contextos médicos y no ha sido suficientemente validada en ciencias sociales, humanidades o ingeniería. La sistematización evidencia la urgente necesidad de revisar y actualizar los marcos normativos institucionales para enfrentar esta nueva ontología del riesgo académico.

En el campo de la publicación científica, los códigos internacionales como los del Committee on Publication Ethics (COPE), el International Committee of Medical Journal Editors (ICMJE), la Declaración de Helsinki y directrices como PRISMA o STROBE, ofrecen principios generales sobre ética editorial (COPE Council, 2024; Grech y Eldawlatly, 2024; International Committee of Medical Journal Editors [ICMJE], 2024). Sin embargo, presentan serias limitaciones ante el avance de los modelos generativos. Existen vacíos explícitos en torno a la autoría de textos generados por IA, la validez de referencias fabricadas, y la ambigüedad respecto al rol de los LLMs en la producción científica. La fiabilidad reducida de los sistemas de detección de IA y la facilidad con que pueden ser burlados refuerzan la necesidad de una renovación metodológica y normativa en las políticas editoriales globales.

Finalmente, si bien existe un consenso creciente en torno a principios éticos aplicables a la IA (como transparencia, rendición de cuentas, replicabilidad, equidad, y protección de datos personales), su aplicación práctica dista de ser efectiva. La literatura revisada identifica dificultades técnicas para implementar estos principios, especialmente por la opacidad inherente a muchos sistemas de IA, llamada “efecto caja negra”, y la escasa alfabetización ética e informacional entre estudiantes, investigadores y docentes. Esta brecha entre ideal normativo y realidad operativa puede dar lugar a una institucionalización de la indiferencia ética, donde las transgresiones se normalizan por omisión, ignorancia o impotencia regulatoria.

Este diagnóstico sistematizado evidencia una tensión estructural entre la velocidad de la disrupción tecnológica y la lentitud de la respuesta institucional. Esta asimetría no solo dificulta la aplicación efectiva de los principios éticos en la investigación universitaria, sino que también erosiona la confianza en la función social del conocimiento científico. Frente a este escenario, urge el diseño de mecanismos normativos más ágiles, transversales y adaptativos, capaces de anticipar y no solo reaccionar ante los desafíos éticos emergentes de la inteligencia artificial.

2.3. Mejores prácticas y estrategias para garantizar la ética e integridad en el uso de IA en la investigación en educación superior

El avance acelerado de la inteligencia artificial en los entornos universitarios, particularmente en la investigación, exige el desarrollo y aplicación de prácticas éticas robustas que no solo respondan a los desafíos actuales, sino que anticipen riesgos emergentes. El análisis sistemático de las propuestas recogidas en la literatura especializada permite identificar una arquitectura de intervención multiescalar, que articula acciones a nivel individual, institucional y sistémico (ver Cuadro 3)

Cuadro 3

Mejores prácticas y estrategias recomendadas para garantizar la ética y la integridad en la investigación con Inteligencia Artificial (IA) en la educación superior

Mejores prácticas y estrategias

Autor

Reforzar la ética de la investigación y la integridad científica en el uso de la IA en el ámbito educativo. La IA aplicada a la educación requiere la comprensión de su uso, reforzando los esfuerzos en estos ámbitos.

(Cornejo-Plaza y Cippitani, 2023; Sysoyev, 2024; Usher y Barak, 2024; Yang, 2024)

Educar a la comunidad educativa sobre ética para utilizar la IA como herramienta en la generación de conocimiento.

Proponer la adopción de un sistema de educación sobre la IA a todos los niveles (escuela, universidad, capacitación profesional).

Capacitar de manera continua a los usuarios, trabajadores y profesionales de la IA en las cuestiones éticas.

Subordinar la IA generativa al sistema ético y de derecho objetivo de la comunidad internacional y de la UE. Las aplicaciones de IA deben ajustarse a la ley y respetar principios éticos.

Adoptar un enfoque responsable al presentar los resultados de investigación en un contexto de uso generalizado de la IA.

(Pinchuc y Malitsckaya, 2024)

Utilizar la IA generativa con cuidado al escribir artículos científicos.

(Kovachov et al., 2023)

Informar honestamente sobre el método y el alcance del uso de la IA para mantenerse dentro de las normas académicas éticas, especialmente al utilizar IA generativa en la escritura de artículos científicos. Ser transparentes sobre el uso de IA cuando esté autorizado.

(Moya y Eaton, 2023; Pinchuc y Malitsckaya, 2024)

Universidades y comunidades científicas deben desarrollar estrategias para el uso ético de la IA en la educación y la investigación científica.

(Samuel et al., 2021; Kovachov et al., 2023; Mumtaz et al., 2025;)

Considerar los riesgos potenciales para la integridad académica y la calidad de la investigación al utilizar IA. Identificar y mitigar nuevas formas de mala conducta en la investigación. Identificar y mitigar riesgos para los valores de integridad académica.

(Kovachov et al., 2023; Navarro-Dolmestch, 2023; Qadhi et al., 2024)

Implementar cursos especiales sobre ética de la IA para ayudar a estudiantes y científicos a comprender los aspectos prácticos y éticos. Incluir la ética de la IA en los currículos a nivel “mega” (interinstitucional/nacional/internacional).

(Kovachov et al., 2023; Moya y Eaton, 2023)

Proporcionar alfabetización y capacitación integral sobre IA.

(Qadhi et al., 2024)

Capacitar a los investigadores de IA en ética de la investigación para aumentar su conciencia sobre las consideraciones éticas de su trabajo.

(Moya y Eaton, 2023)

Comprometerse con la investigación y el desarrollo éticos de la IA. Estimular la investigación sobre el uso ético de la IA en la enseñanza y el aprendizaje.

(Moya y Eaton, 2023; Qadhi et al., 2024)

Promover la investigación interdisciplinaria sobre la IA.

(Wilson et al., 2020)

Establecer políticas éticas sólidas para el uso de la IA en la educación superior. Adaptar los marcos normativos universitarios para considerar las tecnologías de IA y su impacto. Desarrollar políticas claras sobre autoría y citación de IA.

(Nam y Bai, 2023; Navarro-Dolmestch, 2023; Qadhi et al., 2024; Sysoyev, 2024; Tsekea y Mandoga, 2025)

Abordar la falta de comprensión de los estudiantes sobre la autoría, propiedad, citación y plagio de la IA.

(Sysoyev, 2024)

Asegurar la supervisión humana en la creación de contenido impulsado por IA. El principio de solidaridad implica supervisión humana en las aplicaciones de IA.

(Cornejo-Plaza y Cippitani, 2023; Qadhi et al., 2024)

Considerar cuestiones éticas clave como la confianza, la responsabilidad, la privacidad de los datos, la transparencia, la explicabilidad, la equidad y la no discriminación al desarrollar o utilizar sistemas de IA, incluida la investigación. Ensure transparency (explicability, data used, purpose). Establish responsibility and accountability mechanisms.

(Cornejo-Plaza y Cippitani, 2023; Ugleva et al., 2024)

Utilizar metodologías/herramientas para evaluar riesgos éticos en sistemas de IA. Aplicar estos índices/metodologías en comisiones de ética al aprobar investigación con IA.

(Ugleva et al., 2024)

Promover el uso transparente de la IA generativa. Asegurar que los usuarios reciban una descripción comprensible de las funciones de IA, datos utilizados, propósito y resultados. Documentar las decisiones, el proceso, la recopilación de datos y la descripción del algoritmo. Las decisiones con impacto significativo deben ser justificables y comprensibles para los humanos.

(Wilson et al., 2020)

Establecer mecanismos de responsabilidad y rendición de cuentas para los sistemas de IA y sus resultados, antes y después de la implementación. La posibilidad de auditar los sistemas de IA es fundamental para la fiabilidad.

(Cornejo-Plaza y Cippitani, 2023)

Fomentar la revalorización del pensamiento crítico y reflexivo como enfoque principal de la docencia y evaluación, habilidades que la IA generativa aún no puede igualar.

(Navarro-Dolmestch, 2023; Niloy et al., 2024; Usher y Barak, 2024)

Generar espacios de discusión dentro de la comunidad universitaria sobre los beneficios y riesgos de la IA en la actividad académica.

Revisar los paradigmas de docencia y evaluación a la luz de la irrupción de la IA generativa. Generar preguntas resistentes al fraude. Diseñar instrumentos de evaluación que escapen a las posibilidades actuales de la tecnología. Revalorar las examinaciones presenciales. Enfocar la evaluación en la internalización de conceptos centrales y el razonamiento.

Cuestionar la compatibilidad de los modelos de e-learning asincrónico con los riesgos de la IA generativa, especialmente en la evaluación que carece de vigilancia directa.

Involucrar a estudiantes y personal de integridad académica en la promoción del uso ético de la IA generativa.

(Moya y Eaton, 2023)

Apoyar a los organismos de Aseguramiento de la Calidad para promover la consistencia en los enfoques de la IA en las políticas de integridad académica.

Fuente: Elaboración propia, ٢٠٢٦ con base en los aportes de los autores seleccionados mediante protocolo PRISMA.

En primer lugar, se considera un conjunto de estrategias formativas orientadas a potenciar la conciencia ética sobre el uso de la IA que abarca programas de alfabetización digital y ética desde la enseñanza en el pregrado hasta el posgrado, cursos específicos sobre ética de la IA, o la formación de investigadores capaces de comprender la dimensión ética de las decisiones que sus algoritmos generan; son estrategias que operan desde una lógica de prevención que empodera a los actores universitarios con capacidades críticas para discriminar entre el uso legítimo y el uso ilegítimo de herramientas de IA.

En segundo lugar, se coloca de manifiesto la necesidad de construir políticas institucionales limpias y actualizadas. La propuesta de reformular las normas referidas a la autoría, la citación o la responsabilidad ante el uso de IA es un primer paso para atenuar la vaguedad normativa que hoy permite prácticas como la simulación de autoría o el plagio inteligente. Al mismo tiempo, la necesidad de asegurar la supervisión humana en los procesos mediados por IA es oportuna y hace posible la rendición de cuentas y la legitimidad del conocimiento que se está produciendo.

La ética algorítmica aplicada es otro eje emergente que se define como la incorporación de principios tales como la equidad, la explicabilidad de los algoritmos, la transparencia y la privacidad en el diseño y aplicación de sistemas de IA, con la necesidad de metodologías de evaluación de los riesgos éticos (índices de eticidad, entre otros) y de mecanismos documentales para registrar las decisiones automatizadas (prácticas éticas y técnicas del sistema para la auditabilidad y la confiabilidad del mismo).

De igual modo, se coloca de manifiesto la necesidad de una revalorización del pensamiento crítico y volver a diseñar las estrategias de evaluación a partir de la irrupción de herramientas generativas; la evaluación basada en memoria o en una respuesta predecible es fácilmente vulnerada por el uso indebido de IA. Por ello, se busca generar vías de evaluación “resistentes al fraude” que valoren la argumentación, la reflexión profunda y la capacidad de interpretación como piezas que son necesariamente irremplazables por la tecnología.

Por último, se propone un enfoque participativo e inclusivo en el cual se incorpore a toda la comunidad académica, desde los estudiantes hasta quienes están al cargo de los órganos de aseguramiento de la calidad investigativa, y se sugiere establecer un lugar deliberativo donde se analicen de manera colectiva los beneficios, los límites y los riesgos de la IA en los procesos de investigación. Eso ayuda a reforzar la transparencia de la institución, así como la legitimidad de las políticas que adopte.

Del análisis sistematizado se deduce que no es suficiente con enunciar principios éticos, sino que hay que operativizarlos en prácticas contrastables, formaciones sostenidas, política normativa coherente y sistemas institucionales resilientes. La ética en el uso de IA en la investigación universitaria ha de entenderse como una ecología de las prácticas engarzadas, capacitadas para adaptarse dinámicamente a la velocidad de la innovación tecnológica. Las mejores estrategias apenas son respuestas, son una hoja de ruta propositiva para construir una cultura académica donde la inteligencia artificial esté en función del pensamiento riguroso, no de su sustitución.

Los resultados se condensan en cuatro frentes: Alfabetización ética, gobernanza algorítmica, rediseño de evaluaciones y participación institucional. Estas acciones se alinean con el roadmap micromesomacro de integración responsable de la IA descrito por CastellóSirvent et al. (2024). Además, Abu et al. (2025) verifican la urgencia de formación continua y de reforzar los marcos normativos internos, al evidenciar la brecha entre conocimiento teórico y aplicación práctica. Persisten, pues, riesgos derivados de la distancia entre principios éticos declarados y su ejecución, lo que obliga a establecer normativas flexibles, mayor transparencia y una gobernanza ética ágil para salvaguardar la integridad científica frente a la disrupción algorítmica.

Finalmente, la revisión sistemática identifica tres desafíos éticos fundamentales en la investigación universitaria con inteligencia artificial: La desintegración de la autoría intelectual, la fractura metodológica y la gobernanza fallida. La desintegración de la autoría, impulsada por el plagio automatizado y la suplantación de contenido generado por IA, socava la honestidad y transparencia, generando una crisis de credibilidad que afecta evaluaciones y publicaciones científicas (Kovachov et al., 2023).

La fractura metodológica, derivada de la opacidad algorítmica, sesgos estructurales y alucinaciones de datos, compromete la reproducibilidad y validez científica, perpetuando desigualdades y erosionando la confianza en los resultados (Cornejo-Plaza y Cippitani, 2023). La gobernanza fallida, caracterizada por vacíos regulatorios y protocolos inadecuados, dificulta la rendición de cuentas y la protección de datos sensibles, exacerbando riesgos éticos (Pinchuc y Malitsckaya, 2024).

Estos desafíos generan un desgaste axiológico, degradación cultural y fractura epistemológica que amenazan la integridad científica y académica. Para contrarrestarlos, se requieren políticas normativas claras, formación en ética digital, supervisión humana y metodologías transparentes, que aseguren la auditabilidad de la IA, promoviendo una cultura académica que integre la tecnología sin sacrificar el rigor y la equidad.

Adicionalmente, en el presente estudio se reconocen limitaciones como: i) Posibles omisiones de literatura causada por la combinación de términos de búsqueda y sesgos de indexación; y, ii) la escasa solidez empírica y normativa de muchos trabajos en un campo aún emergente. Estas carencias restringen la generalización de los hallazgos y revelan la necesidad de investigaciones futuras que: comparen marcos institucionales de distintas culturas y legislaciones; exploren percepciones y prácticas de estudiantes, docentes-investigadores y comités de ética mediante métodos mixtos; evalúen longitudinalmente el impacto de intervenciones educativas, como alfabetización ética; y adopten enfoques transdisciplinares desde humanidades digitales, filosofía de la tecnología y teoría crítica.

Pese a las limitaciones, el estudio aporta una síntesis amplia de riesgos recurrentes como plagio automatizado, opacidad algorítmica, simulaciones de autoría y esboza una ecología de buenas prácticas, guiada por la ética de la responsabilidad. Al subrayar la urgencia de marcos adaptativos, inclusivos y prospectivos, ofrece una referencia útil para investigadores, comités de ética y agencias de calidad de la educación superior.

Conclusiones

La irrupción de la Inteligencia Artificial (IA) en la investigación universitaria actúa como prueba de estrés para el contrato epistémico de la academia. Los tres focos críticos detectados: i) Desintegración de la autoría, ii) fractura metodológica, y iii) gobernanza fallida, constituyen un núcleo sistémico de riesgo que amenaza la legitimidad social de la ciencia si no se gestiona con visión prospectiva. Estas tensiones no son anomalías pasajeras, son síntomas de un cambio estructural que exige trascender la lógica de la “gestión de daños” y adoptar una gobernanza anticipatoria, capaz de intervenir antes de que el problema se materialice.

Al respecto, la consolidación de la IA generativa como infraestructura cognitiva a nivel global, contrastada con la lentitud de los marcos regulatorios, ha transformado lo que inicialmente se concebía como una excepción experimental en una normalidad institucional marcada por la “indiferencia ética” frente a sus riesgos. En este escenario, no basta seguir acumulando códigos y guías desconectadas entre sí, se requiere que las políticas universitarias incorporen cláusulas de actualización periódica obligatoria, ancladas a métricas de riesgo tecnológico y a la velocidad de cambio de los modelos algorítmicos. Solo cuando la gobernanza académica asuma un diseño adaptativo y prospectivo, será capaz de revisarse al mismo ritmo con que se transforman las arquitecturas de IA y dejará de ser un dispositivo meramente reactivo y podrá alinearse efectivamente con el ritmo de la innovación.

En ese contexto, la ética debe estar integrada al método, no al final del proceso, evitando la fractura metodológica creada por los algoritmos “caja negra” que erosionan la reproducibilidad y validez científica. De esta forma, se puede transformar este talón de Aquiles en oportunidad al reconceptualizar la validez, tan importante como la significación estadística y la explicabilidad epistemológica de los modelos; incorporar auditorías algorítmicas ex ante y ex post, y exigir la publicación de “diarios de entrenamiento” (datasets, parámetros, umbrales), para convertir la transparencia en un componente operativo del método científico.

La desintegración de la autoría no se resuelve prohibiendo los LLM, sino rediseñando el estatuto de la contribución intelectual, por ello, se hace necesario un sistema de “licencias de intervención algorítmica” que detalle grado, tipo y propósito de la asistencia de IA. Así, la responsabilidad se distribuye entre investigador, institución y proveedor tecnológico, diluyendo la zona gris que hoy permite el plagio automatizado y las simulaciones de autoría.

Los hallazgos muestran que la brecha entre principios y prácticas se nutre de la débil alfabetización ética. Pasar de la sensibilización puntual a la formación continua supone integrar módulos de ética de IA y ciencia abierta en todos los ciclos formativos y programas de posgrado. Solo una comunidad que domina el funcionamiento y las limitaciones de la IA podrá ejercer un control crítico sobre ella.

Con respecto a las limitaciones metodológicas de este estudio, especialmente el tamaño reducido del corpus y la desigual distribución empírica de contextos, se justifica la necesidad de usar diseños longitudinales que midan el efecto real de las intervenciones y estudios comparativos que contrasten marcos culturales y legislativos diversos. La dimensión ética de la IA trasciende los espacios disciplinarios; por tanto, la colaboración con humanidades digitales, filosofía de la tecnología y teoría crítica no es un adorno, sino una condición para capturar las implicaciones sociotécnicas más amplias.

Finalmente, la IA tensiona los valores fundacionales de la universidad, pero también ofrece la oportunidad de renovar el pacto epistémico sobre bases más transparentes, inclusivas y adaptativas. La clave está en convertir la ética en infraestructura, de modo que la integridad no dependa de la buena voluntad individual sino de circuitos institucionales de auditoría, incentivos y rendición de cuentas. Solo así, la universidad podrá seguir ejerciendo una autoridad epistémica creíble en la era algorítmica.

Referencias bibliográficas

Abu, K. M., Alkaramneh, M. S., Allala, S. K., ALatwi, N. Y., Al-Saliti, R. A. M. N., e Ismail, A. F. (2025). The extent of knowledge among faculty members at jordanian universities regarding principles of AI ethics in scientific research and its guidelines. Journal of Lifestyle and SDGs Review, 5(2), e03841. https://doi.org/10.47172/2965-730x.sdgsreview.v5.n02.pe03841

Acosta, S. F., y Finol, M. R. (2024). Inteligencia artificial como mecanismo para mejorar la gestión educativa universitaria. Revista de Ciencias Sociales (Ve), XXX(3), 583-597. https://doi.org/10.31876/rcs.v30i3.42697

Ahmed, A.-B., y Salem, M. (2024). إستراتيجية مقترحة لتعزيز أخلاقيات البحث والنزاهة العلمية وتحقيق الأمن القومي في ضوء تحديات الذكاء الاصطناعي والأمن السيبراني. Bulletin of The Faculty of Languages & Translation, 27(1), 329-434. https://doi.org/10.21608/bflt.2024.406486

Aljabr, F. S., y Al-Ahdal, A. A. M. H. (2024). Ethical and pedagogical implications of AI in language education: An empirical study at Ha’il University. Acta Psychologica, 251, 104605. https://doi.org/10.1016/j.actpsy.2024.104605

Aljuaid, H. (2024). The impact of Artificial Intelligence tools on academic writing instruction in higher education: A systematic review. Arab World English Journal, (S), 26-55. https://doi.org/10.24093/awej/ChatGPT.2

Ávila-Rodríguez, A. M., Quispe-Del-Castillo, M. A., Mendoza-León, O. E., y Herrera-Mejía, Z. E. (2026). Inteligencia artificial en la enseñanza y aprendizaje de la Educación Superior Universitaria: Una revisión sistemática. Revista de Ciencias Sociales, XXXII(1), 417-435. https://doi.org/10.31876/rcs.v32i1.45214

Blanco, Y., Fragozo, L. D. J., y Gómez, M. E. (2024). Inteligencia Artificial: Posibilidades, límites y desafíos en la educación superior. Revista de Ciencias Sociales (Ve), XXX(4), 178-187. https://doi.org/10.31876/rcs.v30i4.42985 

Castelló-Sirvent, F., Roger-Monzó, V., y Gouveia-Rodrigues, R. (2024). Quo Vadis, University? A roadmap for AI and ethics in higher education. Electronic Journal of e-Learning, 22(6), 34-51. https://doi.org/10.34190/ejel.22.6.3267

Chen, Z., Chen, C., Yang, G., He, X., Chi, X., Zeng, Z., y Chen, X. (2024). Research integrity in the era of artificial intelligence: Challenges and responses. Medicine, 103(27), e38811. https://doi.org/10.1097/MD.0000000000038811

Comisión Europea (2020). Libro Blanco sobre Inteligencia Artificial: un enfoque europeo hacia la excelencia y la confianza. Comisión Europea. https://commission.europa.eu/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en

COPE Council (2024). COPE position—Authorship and AI. Committee on Publication Ethics. https://doi.org/10.24318/cCVRZBms

Cornejo-Plaza, I., y Cippitani, R. (2023). Consideraciones éticas y jurídicas de la Inteligencia Artificial en Educación Superior: Desafíos y perspectivas. Revista de Educación y Derecho, (28). https://doi.org/10.1344/REYD2023.28.43935

Grech, V., y Eldawlatly, A. A. (2024). STROBE, CONSORT, PRISMA, MOOSE, STARD, SPIRIT, and other guidelines – Overview and application. Saudi Journal of Anaesthesia, 18(1), 137-141. https://doi.org/10.4103/sja.sja_545_23

Gulumbe, B. H., Audu, S. M., y Hashim, A. M. (2024). Balancing AI and academic integrity: What are the positions of academic publishers and universities? AI & Society, 40, 1775-1784. https://doi.org/10.1007/s00146-024-01946-8

Hans, J. (2014). El principio de responsabilidad: Ensayo de una ética para la civilización tecnológica. Herder Editorial.

Hine, C. (2021). Evaluating the prospects for university-based ethical governance in artificial intelligence and data-driven innovation. Research Ethics, 17(4), 464-479. https://doi.org/10.1177/17470161211022790

HSE University (November 25, 2024). A New Tool Designed to Assess AI Ethics in Medicine Developed at HSE University. HSE University. https://www.hse.ru/en/news/research/990754994.html

International Committee of Medical Journal Editors - ICMJE (2024). Recommendations for the conduct, reporting, editing, and publication of scholarly work in medical journals. ICMJE. https://www.icmje.org/recommendations/

Isiaku, L., Kwala, A. F., Sambo, K. U., e Isiaku, H. H. (2024). Academic evolution in the age of ChatGPT: An in-depth qualitative exploration of its influence on research, learning, and ethics in Higher Education. Journal of University Teaching and Learning Practice, 21(6). https://doi.org/10.53761/7egat807

Kambhampati, S. B. S., Menon, J., y Maini, L. (2023). Ethics in research and publications. Indian Journal of Orthopaedics, 57(11), 1722-1734. https://doi.org/10.1007/s43465-023-00971-x

Karkoulian, S., Sayegh, N., y Sayegh, N. (2024). ChatGPT Unveiled: Understanding perceptions of academic integrity in higher education - A qualitative approach. Journal of Academic Ethics, 23, 1171-1188. https://doi.org/10.1007/s10805-024-09543-6

Karpouzis, K. (2024). Artificial Intelligence in Education: Ethical considerations and insights from ancient Greek philosophy. Proceedings of the 13th Hellenic Conference on Artificial Intelligence, 57. https://doi.org/10.1145/3688671.3688772

Kovachov, S., Ковачов, C., Suchikova, Y., y Сичікова, Я. (2023). Talk to me: A dialogue with artificial intelligence about its use in education and research. Scientific papers of Berdiansk State Pedagogical University Series Pedagogical sciences.

Lazăr, A. M., Repanovici, A., Popa, D., Ionas, D. G., y Dobrescu, A. I. (2024). Ethical principles in AI use for assessment: exploring students’ perspectives on ethical principles in academic publishing. Education Sciences, 14(11), 1239. https://doi.org/10.3390/educsci14111239

Limongi, R. (2024). The use of artificial intelligence in scientific research with integrity and ethics. Future Studies Research Journal: Trends and Strategies, 16(1), e845. https://doi.org/10.24023/futurejournal/2175-5825/2024.v16i1.845

Malik, A., Khan, M. L., Hussain, K., Qadir, J., y Tarhini, A. (2025). AI in higher education: Unveiling academiciansperspectives on teaching, research, and ethics in the age of ChatGPT. Interactive Learning Environments, 33(3), 2390-2406. https://doi.org/10.1080/10494820.2024.2409407

McKay, F., Williams, B. J., Prestwich, G., Bansal, D., Hallowell, N., y Treanor, D. (2022). The ethical challenges of artificial intelligence-driven digital pathology. The Journal of Pathology: Clinical Research, 8(3), 209-216. https://doi.org/10.1002/cjp2.263

Moya, B. A., y Eaton, S. E. (2023). Examining recommendations for artificial intelligence use with integrity from a scholarship of teaching and learning lens. RELIEVE - Revista Electrónica de Investigación y Evaluación Educativa, 29(2), M1. https://doi.org/10.30827/relieve.v29i2.29295

Mumtaz, S., Carmichael, J., Weiss, M., y Nimon-Peters, A. (2025). Ethical use of artificial intelligence based tools in higher education: Are future business leaders ready? Education and Information Technologies, 30(6), 7293-7319. https://doi.org/10.1007/s10639-024-13099-8

Nam, B. H., y Bai, Q. (2023). ChatGPT and its ethical implications for STEM research and higher education: A media discourse analysis. International Journal of STEM Education, 10(1), 66. https://doi.org/10.1186/s40594-023-00452-5

Navarro-Dolmestch, R. (2023). Descripción de los riesgos y desafíos para la integridad académica de aplicaciones generativas de inteligencia artificial. Derecho PUCP, (91), 231-270. https://doi.org/10.18800/derechopucp.202302.007

Niloy, A. C., Hafiz, R., Tasnin, B. M., Gulmeher, F., Sultana, N., Islam, K. F., Bushra, F., Islam, S., Hoque, S. I., Rahman, M., y Kabir, S. (2024). AI chatbots: A disguised enemy for academic integrity? International Journal of Educational Research Open, 7, 100396. https://doi.org/10.1016/j.ijedro.2024.100396

Parlamento Europeo (2020). Resolución sobre los aspectos éticos de la IA. Parlamento Europeo. https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_ES.html

Pinchuc, O., y Malitsckaya, I. (2024). Відповідальне Та Етичне Використання Штучного Інтелекту В Дослідницькій І Публікаційній Діяльності. Information Technologies and Learning Tools, 100(2), 180-198. https://doi.org/10.33407/itlt.v100i2.5676

Qadhi, S. M., Alduais, A., Chaaban, Y., y Khraisheh, M. (2024). Generative AI, Research Ethics, and Higher Education Research: Insights from a scientometric analysis. Information, 15(6), 325. https://doi.org/10.3390/info15060325

Rudolph, J., Ismail,, M. F. B., y Popenici, S. (2024). Higher Education’s Generative Artificial Intelligence Paradox: The meaning of chatbot mania. Journal of University Teaching and Learning Practice, 21(6). https://doi.org/10.53761/54fs5e77

Samuel, G., Chubb, J., y Derrick, G. (2021). Boundaries Between Research Ethics and Ethical Research Use in Artificial Intelligence Health Research. Journal of Empirical Research on Human Research Ethics, 16(3), 325-337. https://doi.org/10.1177/15562646211002744

Sudhir, V. (2024). The Ethics of AI in the Administration of Higher Education. International Journal for Multidisciplinary Research, 6(6). https://doi.org/10.36948/ijfmr.2024.v06i06.30189

Sysoyev, P. V. (2024). Ethics and AI-Plagiarism in an Academic Environment: Studentsunderstanding of compliance with authors ethics and the problem of plagiarism in the process of interaction with generative artificial intelligence. Vysshee Obrazovanie v Rossii = Higher Education in Russia, 33(2), 31-53. https://doi.org/10.31992/0869-3617-2024-33-2-31-53

Tsekea, S., y Mandoga, E. (2025). The ethics of artificial intelligence use in university libraries in Zimbabwe. Frontiers in Research Metrics and Analytics, 9, 1522423. https://doi.org/10.3389/frma.2024.1522423

Ugleva, A. V., Shilova, V. A., y Karpova, E. A. (2024). Index of Ethicalityof AI Systems in Medicine: From Theory to Practice. Ethical Thought, 24(1), 144-159. https://doi.org/10.21146/2074-4870-2024-24-1-144-159

UNESCO (2022). Recomendación sobre la ética de la inteligencia artificial. UNESCO. https://www.unesco.org/es/articles/recomendacion-sobre-la-etica-de-la-inteligencia-artificial

Usher, M., y Barak, M. (2024). Unpacking the role of AI ethics online education for science and engineering students. International Journal of STEM Education, 11, 35. https://doi.org/10.1186/s40594-024-00493-4

Wilson, C., Dalins, J., y Rolan, G. (2020). Effective, Explainable and Ethical: AI for Law Enforcement and Community Safety. 2020 IEEE / ITU International Conference on Artificial Intelligence for Good (AI4G), 186-191. https://doi.org/10.1109/AI4G50087.2020.9311021

Wu, W., Huang, T., y Gong, K. (2020). Ethical Principles and Governance Technology Development of AI in China. Engineering, 6(3), 302-309. https://doi.org/10.1016/j.eng.2019.12.015

Yang, Y. (2024). Influences of Digital Literacy and Moral Sensitivity on Artificial Intelligence Ethics Awareness Among Nursing Students. Healthcare, 12(21), 2172. https://doi.org/10.3390/healthcare12212172

Yitages, M., y Kasai, A. (2024). Faculty Opinions of AI Tools: Text Generators and Machine Translators. American Journal of Undergraduate Research, 20(4), 17-27. https://doi.org/10.33697/ajur.2024.102

Yusuf, A., Pervin, N., y Román-González, M. (2024). Generative AI and the future of higher education: A threat to academic integrity or reformation? Evidence from multicultural perspectives. International Journal of Educational Technology in Higher Education, 21, 21. https://doi.org/10.1186/s41239-024-00453-6