Revista de Ciencias Sociales (RCS)
Vol. XXXII, No. 2, Abril - Junio 2026. pp. 489-506
FCES - LUZ ● ISSN: 1315-9518 ● ISSN-E: 2477-9431
Como citar: Chiclayo, H. J.,
Hilario-Vargas, J., Vela, L., y Rios, M.A. (2026). Ética e integridad en la
investigación universitaria apoyada con inteligencia artificial: Revisión
sistemática de literatura. Revista De Ciencias Sociales, XXXII(2), 489-506.
Ética e integridad en la
investigación universitaria apoyada con inteligencia artificial: Revisión
sistemática de literatura
Chiclayo Padilla, Hugo Javier*
Hilario-Vargas,
Julio**
Vela
Meléndez, Lindon***
Rios
Villacorta, Mauro Adriel****
Resumen
El
artículo analiza problemas éticos y de integridad en la investigación que se
realiza con inteligencia artificial en contextos universitarios, a partir del
análisis de 35 artículos seleccionados, mediante el protocolo PRISMA para el
período entre 2020 y 2024, adoptando el método de revisión sistemática. Los
resultados permiten definir tres tipos de problemas: i) la desintegración de la
autoría intelectual, sistémicamente promovida por el plagio automatizado y la
suplantación de contenido; ii) la fractura metodológica como consecuencia de la
opacidad algorítmica, sesgos y alucinaciones de los datos; y, iii) la
gobernanza fallida, que tiene que ver con los vacíos regulatorios y protocolos
inadecuados para lidiar con la inteligencia artificial en la investigación. Estos
son signos de una crisis de credibilidad científica y reproducibilidad que
genera desconfianza en el conocimiento científico. Los códigos éticos
editoriales actuales son insuficientes ante la autoría automatizada emergente.
Las mejores prácticas requieren formación en ética de inteligencia artificial,
políticas institucionales, supervisión humana y transparencia algorítmica. Es
necesario establecer marcos normativos adaptables y cultura académica que
integre la inteligencia artificial preservando la integridad. Las
investigaciones futuras deben incluir comparativas políticas, percepciones
universitarias y evaluaciones longitudinales para mejorar la gobernanza ética
de la investigación en inteligencia artificial.
Palabras clave: Ética en inteligencia artificial; integridad
académica; investigación universitaria; autoría intelectual; gobernanza ética.
* Doctorando en la Universidad Cesar Vallejo, Chiclayo, Lambayeque, Perú. Magister en Ciencias con mención en Proyectos de Inversión. Docente Investigador en la Universidad Cesar Vallejo, Chiclayo, Lambayeque, Perú. E-mail: hchiclayopa@ucvvirtual.edu.pe ORCID: https://orcid.org/0000-0002-9620-5056
** Doctor en Ciencias Biomédicas. Magister en Fisiología. Docente Investigador en la Universidad Católica Santo Toribio de Mogrovejo, Chiclayo, Lambayeque, Perú. E-mail: jhilario@usat.edu.pe ORCID: https://orcid.org/0000-0002-8656-6843
*** Magister en Ciencias de la Educación con mención en Investigación. Docente Investigador en la Universidad Nacional Pedro Ruiz Gallo, Lambayeque, Perú. E-mail: lvela@unprg.edu.pe ORCID: https://orcid.org/0000-0002-9644-7151
**** Doctorando en Gestión Universitaria. Doctor en Administración. Magister en Investigación y Docencia Universitaria. Magister en Administración con mención en Gerencia. Docente Investigador en la Universidad Nacional Pedro Ruiz Gallo, Lambayeque, Perú. E-mail: mrios@unprg.edu.pe ORCID: https://orcid.org/0000-0002-6197-0559
Recibido: 2025-11-28 • Aceptado: 2026-02-16
Ethics and integrity in university research supported by artificial intelligence: A systematic literature review
Abstract
This article analyzes ethical and integrity issues in research using artificial intelligence in university settings. It examines 35 selected articles, selected using the PRISMA protocol for the period between 2020 and 2024, and employing a systematic review method. The results identify three types of problems: i) the erosion of intellectual authorship, systemically promoted by automated plagiarism and content impersonation; ii) methodological fractures resulting from algorithmic opacity, biases, and data distortions; and iii) failed governance, related to regulatory gaps and inadequate protocols for managing artificial intelligence in research. These are signs of a crisis of scientific credibility and reproducibility that generates distrust in scientific knowledge. Current editorial ethics codes are insufficient in the face of emerging automated authorship. Best practices require training in artificial intelligence ethics, institutional policies, human oversight, and algorithmic transparency. It is necessary to establish adaptable regulatory frameworks and an academic culture that integrates artificial intelligence while preserving integrity. Future research should include policy comparisons, university perspectives, and longitudinal evaluations to improve the ethical governance of artificial intelligence research.
Keywords: Ethics in artificial intelligence; academic integrity; university research; intellectual authorship; ethical governance.
Introducción
En
los últimos años, la aplicación de la Inteligencia Artificial (IA) en la
investigación académica ha transformado la práctica investigativa universitaria
en todas las disciplinas. Dicha revolución tecnológica ha permitido el
surgimiento de un nuevo paradigma para la producción de conocimiento,
facilitando la profundización en el análisis de grandes volúmenes de datos, la
automatización de tareas rutinarias y la obtención de patrones de conocimiento
que antes se encontraban fuera del alcance de las capacidades humanas
(Cornejo-Plaza y Cippitani, ٢٠٢٣; Aljuaid, ٢٠٢٤;
Isiaku et al., ٢٠٢٤).
Sin
embargo, la rápida irrupción de herramientas de IA en el ámbito de la
investigación universitaria, que abarca desde ChatGPT
con despliegue de modelos de aprendizaje profundo, hasta la aparición de
sistemas automatizados para la obtención y análisis de datos, han sido el
insumo propicio para la aparición de un espacio de dudas éticas que las propias
instituciones universitarias, a modo de autocrítica, trasladan a sus inicios
para atender de manera sistemática, desde las dudas más simples acerca de la
autoría y la integridad intelectual hasta las dudas sobre la privacidad, la
transparencia algorítmica de la información y los sesgos que afectan a la
validez de las investigaciones académicas (McKay et al., ٢٠٢٢; Karkoulian et al., ٢٠٢٤; Blanco et al., ٢٠٢٤; Acosta y Finol, ٢٠٢٤; Ávila-Rodríguez et al., ٢٠٢٦).
El
escenario internacional de esta transformación presenta grandes tensiones a
raíz de la presión por la adopción de nuevas tecnologías y la presión por la
protección de principios éticos básicos para la producción del conocimiento
científico (Cornejo-Plaza y Cippitani, ٢٠٢٣; Moya y Eaton, ٢٠٢٣; Navarro-Dolmestch, ٢٠٢٣; Ahmed y Salem, ٢٠٢٤; Pinchuc y Malitsckaya, ٢٠٢٤; Qadhi et al., ٢٠٢٤; Sysoyev, ٢٠٢٤; Ugleva et al., ٢٠٢٤; Yusuf et al., ٢٠٢٤). La literatura reciente documenta
cómo las universidades a nivel mundial enfrentan desafíos similares, pero con
respuestas institucionales notablemente diversas, desde enfoques proactivos y
comprensivos en algunos casos hasta aproximaciones fragmentadas o reactivas en
otros (Cornejo-Plaza y Cippitani, ٢٠٢٣; Moya y Eaton, ٢٠٢٣; Navarro-Dolmestch, ٢٠٢٣; Pinchuc y Malitsckaya, ٢٠٢٤; Rudolph et al., ٢٠٢٤; Sysoyev, ٢٠٢٤;
Yusuf et al., ٢٠٢٤;
Malik et al., ٢٠٢٥).
Este
panorama diverso en las respuestas al fenómeno, evidencia no sólo tradición
académica y contextos normativos diversos, sino también la forma emergente y
pulsante de las tecnologías de IA, lo que establece un marco en el que muchas
instituciones están formulando políticas donde no hay antecedentes claros o
evidencias robustas sobre la efectividad de políticas anteriores y, mientras,
se posicionan ante dilemas éticos complejos y que trascienden fronteras
disciplinarias, culturales y geográficas.
Al
respecto, la problemática principal radica en que, a pesar del uso deliberado
de herramientas de IA en el mundo universitario, existe una tendencia alarmante
hacia una rápida adopción tecnológica en detrimento de la implementación de
marcos éticos en lo que respecta al uso de la IA en la investigación.
Un
alto número de estudios han documentado cómo esta brecha entre el progreso
tecnológico en IA y el desarrollo de guías relacionadas con una apropiada
implementación de la misma en el contexto de la investigación, genera enormes
riesgos sobre la integridad de la investigación: desde los documentos de plagio
que han hecho uso de IA hasta cuestiones más sutiles en cuanto a la
transparencia algorítmica, reproducibilidad de la investigación científica y
atribución correcta de la aportación de la IA en trabajos generados por la
co-creación con sistemas automatizados (Kambhampati et al., ٢٠٢٣; Aljabr y Al-Ahdal, ٢٠٢٤; Karkoulian et al., ٢٠٢٤).
Esta
realidad plantea interrogantes fundamentales para el futuro de la producción de
conocimiento en contextos universitarios, por lo que se hace necesario
responder a la pregunta: ¿Cuáles son los principales desafíos éticos y
problemas de integridad en la investigación con inteligencia artificial en
universidades, según la literatura científica reciente?
La
literatura consultada muestra patrones estables de preocupaciones éticas
vinculadas con el uso de las IA en la investigación universitaria, en
particular enfatizando la privacidad y la confidencialidad como las más
comunes, las cuales aparecen en una cantidad considerable de los trabajos
analizados (Hine, ٢٠٢١;
Cornejo-Plaza y Cippitani, ٢٠٢٣; Aljabr y Al-Ahdal, ٢٠٢٤; Aljuaid, ٢٠٢٤).
Dichos trabajos recogen temores razonados en relación con la mala recogida de
datos, el uso secundario de datos no indicado, los medios insuficientes para la
protección de información sensible en el contexto de análisis asistidos por IA,
sobre todo en la investigación en contextos con personas o datos personales
identificables.
También
son relevantes las preocupaciones sobre cuestiones de plagio e integridad
académica y las relacionadas con la transparencia y explicabilidad algorítmica,
o el sesgo y discriminación, junto a las concernientes a la autoría y propiedad
intelectual, generando un enmarañado conjunto de problemas interdependientes que
necesitan ser tratados simultáneamente en distintos niveles.
En
respuesta a estos problemas, han surgido distintos marcos normativos y
políticas, aunque con desarrollo desigual y efectividad baja. La evidencia
indica un aumento de las políticas institucionales, aunque existen ejemplos muy
concretos, como el sistema de evaluación ética anticipada para la investigación
con ChatGPT (Isiaku et al., ٢٠٢٤), que evidencian avances
importantes en la resolución de problemas éticos asociados a la IA en
investigación.
Por
supuesto, estos ejemplos de efectividad contrarrestan la multitud de instancias
de implementación superficial o puramente ceremonial, tal como también
evidencian muchos estudios que identifican la existencia de limitaciones en la
forma de evaluación y seguimiento (Hine, ٢٠٢١; Kambhampati et al., ٢٠٢٣), o la falta de especificación de
medidas concretas para evaluar la efectividad de las políticas implementadas,
evidenciando así la existencia de una brecha importante entre el desarrollo
normativo y la práctica real.
Este
trabajo está justificado por la necesidad imperiosa de sintetizar de forma
exhaustiva la evidencia existente sobre dilemas éticos en investigación
asistida por IA y de evaluar críticamente la eficacia de las estrategias
actuales para hacer frente a estos dilemas. La rápida evolución de las
capacidades tecnológicas, la variabilidad en las respuestas institucionales y
la escasez de evaluaciones rigurosas de impacto dan como resultado que un
estudio de revisión sistemática pueda ofrecer claridad conceptual, así como
unas orientaciones prácticas imprescindibles para investigadores, gestores
universitarios y desarrolladores de políticas (Hine, ٢٠٢١; Cornejo-Plaza y Cippitani, ٢٠٢٣).
De
igual forma, la identificación de mejores prácticas basadas en la evidencia y
la evaluación de las limitaciones de los marcos existentes, responden
directamente a las llamadas reiteradas en la literatura hacia una mayor
coordinación y estandarización de los enfoques para la ética de la IA en
investigación académica, ayudando a cerrar la brecha entre innovación
tecnológica y gobernanza ética en uno de los ámbitos más críticos para la
producción de conocimiento científico global (Karpouzis, 2024; Pinchuc y
Malitsckaya, 2024).
1.
Metodología
Este
estudio adopta el método de revisión sistemática de literatura, con el fin de
dar respuesta a las preguntas de investigación. La búsqueda bibliográfica que
permitió obtener la colección de documentos se realizó mediante una ecuación
canónica de búsqueda diseñada de la siguiente manera: (TITLE (ethic* OR
bioethic* OR «Research Integrity» OR integrity
OR values OR «moral principles») AND TITLE-ABS-KEY (research*)
AND TITLE («Artificial
Intelligence» OR ai) AND TITLE-ABS-KEY («higher
education» OR college OR university)) AND
PUBYEAR > 2020 AND PUBYEAR <
2024. Esta ecuación combinó términos clave como “ética”, “integridad
investigativa”, “inteligencia artificial”, entre otros, adaptándola para las
bases de datos consultadas con la finalidad de extraer la información.
Con
el fin de salvaguardar la rigurosidad en el momento de la búsqueda de fuentes,
se definieron criterios de inclusión y exclusión que orientaron la tarea de la
revisión sistemática. Criterios de inclusión: La temporalidad de las
publicaciones (publicaciones de los años 2020 a 2024 con el fin de amparar la
actualidad de los enfoques éticos analizados); el idioma (artículos en
cualquier idioma); la pertinencia de la temática (documentos cuyos títulos
contienen expresiones directamente relacionadas con la ética y la integridad);
el contexto de aplicación (estudios sobre investigación en educación superior,
especialmente sobre IA en universidades o la educación superior en el mismo
sentido).
Asimismo,
se consideró la pertinencia metodológica y argumentativa (se seleccionaron
únicamente los estudios que, de acuerdo con la aplicación de una matriz de
evaluación de la parte temática y la parte metodológica, mostraron claridad en
cuanto a los objetivos, conexión con normativas, coherencia en el diseño
metodológico, datos empíricos robustos, respuesta a las preguntas y discusión
crítica de los hallazgos).
Los
criterios de exclusión hacen referencia a: Desenfoque temático (artículos que,
aunque trataban sobre IA o sobre educación superior, no abordaban aspectos
éticos, de integridad o valores en el contexto investigativo); falta de
sustento metodológico (estudios sin evidencia empírica clara, con diseños
inapropiados o sin discusión argumentativa de los hallazgos); ámbito no
pertinente (documentos enfocados exclusivamente en la docencia, en niveles
educativos distintos a la educación superior o en contextos profesionales
ajenos a la investigación académica); y, problemas de calidad (publicaciones
duplicadas, informes no revisados por pares o materiales con bajo nivel de
rigurosidad científica y editorial).
En
ese contexto, se consultaron 389 documentos en cinco bases de datos: Scopus (140), Web of
Science (76), PubMed (14), Dimensions (152) y Google
Académico (7). Siguiendo rigurosamente el protocolo PRISMA (Preferred Reporting Items for Systematic Reviews and
Meta-Analyses), se seleccionaron 35 artículos para la revisión
sistemática de la literatura (ver Figura I).

Fuente: Elaboración propia, ٢٠٢٦
adaptado del protocolo PRISMA con base en los criterios de inclusión y
exclusión.
Figura I: Protocolo PRISMA
2.
Resultados y discusión
Esta
sección presenta los resultados de la sistematización de los aportes y da
respuesta a las preguntas de investigación.
2.1.
Principales dilemas éticos asociados con el uso de inteligencia artificial en
la investigación universitaria y cómo afectan la integridad académica
La
implicación de la inteligencia artificial en la investigación universitaria
pone a prueba una crisis ética multidimensional que pone en jaque los cimientos
de la integridad académica. Esta revisión sistematizada encuentra dieciséis
dilemas vinculados que deterioran los pilares axiológicos del ecosistema
científico (ver Cuadro 1).
Cuadro 1
Dilemas éticos asociados con el uso de IA en la investigación
universitaria
|
Dilemas éticos en el uso de IA en la investigación en
universidades |
Impacto en la integridad académica |
Autores |
|
Deficiente alfabetización digital y uso irresponsable
de IA |
Genera uso irresponsable que compromete objetivos
educativos y producción de conocimiento significativo |
(Cornejo-Plaza y Cippitani, 2023; Moya y Eaton, 2023;
Lazăr et al., 2024; Pinchuc y Malitsckaya, 2024; Ugleva et al.,
2024) |
|
Sesgos algorítmicos discriminatorios |
Perpetúa disparidades y afecta valores de justicia,
honestidad y respeto en hallazgos científicos |
(Moya y Eaton, 2023; Navarro-Dolmestch, 2023; Ugleva et
al., 2024; Tsekea y Mandoga, 2025) |
|
Vulneración de privacidad investigativa |
Socava confidencialidad y confianza al exponer datos
sensibles en procesos académicos |
(Moya y Eaton, 2023; Navarro-Dolmestch, 2023; Ugleva et
al., 2024; Tsekea y Mandoga, 2025) |
|
Plagio automatizado mediante parafraseo |
Viola honestidad intelectual mediante formas
“inteligentes” de apropiación no detectable |
(Kovachov et al., 2023; Navarro-Dolmestch, 2023;
Pinchuc y Malitsckaya, 2024) |
|
Suplantación de autoría mediante IA |
Degrada transparencia al presentar contenido generado
como producción original |
(Kovachov et al., 2023; Moya y Eaton, 2023;
Navarro-Dolmestch, 2023; Sysoyev, 2024) |
|
Indetectabilidad de contenido generado |
Impide acreditar conductas éticas y genera injusticias
en evaluaciones |
(Kovachov et al., 2023; Moya y Eaton, 2023;
Navarro-Dolmestch, 2023; Pinchuc y Malitsckaya, 2024; Ugleva et al.,
2024) |
|
Dependencia cognitiva en herramientas |
Propende a un aprendizaje sin significado y socava
confianza en logros académicos |
(Moya y Eaton, 2023; Navarro-Dolmestch, 2023; Pinchuc y
Malitsckaya, 2024; Ugleva et al., 2024; Yitages y Kasai, 2024) |
|
Compromiso del logro educativo genuino |
Afecta responsabilidad y honestidad al desconectar
resultados de aprendizajes reales |
(Moya y Eaton, 2023; Navarro-Dolmestch, 2023; Pinchuc y
Malitsckaya, 2024) |
|
Generación y difusión de evidencia espuria |
Compromete validez científica mediante “alucinaciones”
algorítmicas y datos ficticios |
(Kovachov et al., 2023; Moya y Eaton, 2023;
Navarro-Dolmestch, 2023; Pinchuc y Malitsckaya, 2024) |
|
Vacío regulatorio en ética de IA |
Dificulta establecer expectativas claras y sancionar
malas prácticas |
(Wu et al., 2020; Navarro-Dolmestch, 2023; Pinchuc y
Malitsckaya, 2024) |
|
Opacidad algorítmica (caja negra) |
Impide justificar decisiones y socava transparencia
metodológica |
(Cornejo-Plaza y Cippitani, 2023; Navarro-Dolmestch,
2023; Pinchuc y Malitsckaya, 2024; Ugleva et al., 2024) |
|
Difusa atribución de responsabilidades |
Dificulta atribuir errores y debilita rendición de
cuentas en investigación aplicada |
(Cornejo-Plaza y Cippitani, 2023; Moya y Eaton, 2023;
Pinchuc y Malitsckaya, 2024; Sysoyev, 2024; Ugleva et al., 2024) |
|
Sobrecalificación artificial en evaluaciones |
Distorsiona méritos académicos premiando acceso
tecnológico sobre competencia intelectual |
(Moya y Eaton, 2023; Navarro-Dolmestch, 2023; Ugleva
et al., 2024) |
|
Erosión de la cultura ética institucional |
Degrada valores fundamentales al normalizar atajos y
sustituir rigor por eficiencia |
(Cornejo-Plaza y Cippitani, 2023; Navarro-Dolmestch,
2023; Pinchuc y Malitsckaya, 2024) |
|
Omisión en divulgación del uso de IA |
Viola transparencia científica al ocultar
contribuciones reales en publicaciones |
(Kovachov et al., 2023; Moya y Eaton, 2023;
Pinchuc y Malitsckaya, 2024; Sysoyev, 2024) |
Fuente: Elaboración propia, ٢٠٢٦
con base en los aportes de los autores seleccionados mediante protocolo PRISMA.
a.
La desintegración de la autoría. El origen de la crisis es la suplantación de
la agencia humana dado que la producción de contenido usando herramientas de IA
generativas, se hacen pasar por creación original, constituyendo una
vulneración de dos principios fundamentales en la investigación: El de la
honestidad epistemológica y el de la transparencia en la atribución. La
situación identificada se agrava por el uso de “plagio inteligente” mediante
parafraseo constructivo automatizado que logra evitar o hacer más compleja la
tarea de los sistemas de detección, creando un vacío ético donde la autoría es
un simulacro.
La
consecuencia es una crisis de credibilidad que afecta desde las evaluaciones de
los estudiantes, hasta la producción científica, generando dudas sobre la
autenticidad de las contribuciones intelectuales. Los hallazgos sobre los
dilemas éticos, se alinean a los resultados de Chen et al. (2024), quienes
advierten que el uso de IA puede dar lugar a malas conductas académicas, tal
como la fabricación de datos o el plagio automatizado y cuya solución ante
“dichos peligros” sería una potenciación de las normas éticas.
b.
La fractura metodológica. Al respecto, los algoritmos operan como cajas negras
epistemológicas que comprometen la validez científica mediante tres mecanismos
interrelacionados: La opacidad decisoria que imposibilita reconstruir procesos
analíticos, violando el principio de reproductibilidad; los sesgos
estructurales que perpetúan discriminación en hallazgos investigativos; y, las
alucinaciones algorítmicas las cuales introducen datos espurios en cadenas de conocimiento.
Estos fenómenos generan una “crisis de reproducibilidad” donde los resultados
carecen de trazabilidad verificable, particularmente crítica en ciencias
sociales y educación. La noción de “caja negra epistemológica” que se observa
en el trabajo, se repite en Limongi (2024), al enfatizar en la necesidad de
algoritmos auditables y transparentes para poner en valor la credibilidad de la
investigación científica.
c.
La gobernanza fallida dado que la velocidad exponencial de la innovación
tecnológica ha superado la capacidad institucional para generar marcos éticos
robustos. Esta fractura de gobernanza se manifiesta en vacíos
regulatorios que impiden sancionar nuevas formas de mala conducta,
asimetrías de responsabilidad donde errores algorítmicos carecen de
responsables claros y protocolos inadecuados para proteger datos sensibles
en investigación. El resultado es un paisaje normativo fragmentado donde las
políticas institucionales oscilan entre la prohibición reactiva y la
permisividad ingenua. Desde una ética de la responsabilidad, Hans (2014)
plantea que toda innovación técnica debe considerar sus impactos morales; en la
investigación universitaria, esto implica anticipar y mitigar efectos
epistémicos no deseados.
Esta
triada de crisis genera efectos en cascada, tales como: i) Erosión axiológica,
dado que los valores fundacionales, como la justicia académica, se ven
comprometidos cuando sistemas sesgados perpetúan disparidades en evaluación
investigativa. Simultáneamente, se distorsiona la equidad mediante
sobrecalificación artificial que premia acceso tecnológico sobre mérito
intelectual; ii) degradación cultural donde la normalización de atajos éticos
mediante el uso de la IA transforma progresivamente el ethos investigativo. La
dependencia excesiva vacía de significado el aprendizaje, sustituyendo rigor
intelectual por eficiencia instrumental.
Este
desplazamiento genera una cultura de simulación donde la productividad aparente
reemplaza a la excelencia sustantiva; iii) fractura epistemológica caracterizada
por la pérdida de confianza en la validez del conocimiento generado con IA, lo
que constituye quizás la amenaza más profunda. Cuando algoritmos no auditables
producen hallazgos que evaden los mecanismos tradicionales de validación
científica, se debilita el contrato social que sustenta la autoridad epistémica
de la universidad.
2.2.
Marcos normativos y códigos de ética que regulan el uso de IA en la
investigación universitaria y sus principales limitaciones
El
análisis sistemático de los marcos normativos y códigos de ética revela una
profunda asimetría entre la aceleración exponencial del desarrollo de
tecnologías de IA y la respuesta institucional y normativa, que se caracteriza
por su parsimonia, fragmentación y reactividad. Esta brecha regulatoria
constituye uno de los mayores desafíos éticos y operativos en el ámbito
universitario, particularmente en el contexto de la investigación académica,
donde están en juego los principios fundamentales de integridad, confianza,
autoría y transparencia (ver Cuadro 2).
Cuadro 2
Marcos normativos y códigos de ética que regulan el uso de IA en la
investigación universitaria y sus principales limitaciones
|
Marcos normativos y códigos de ética |
Limitaciones |
Autores |
|
Reglamento de Inteligencia Artificial de la Unión
Europea (“AI Act”), Reglamento General de Protección de Datos (GDPR - UE
2016/679), Carta de los Derechos Fundamentales de la Unión Europea, Convenio
de Oviedo sobre Derechos Humanos y Biomedicina, Libro Blanco sobre la
Inteligencia Artificial (CE, 2020), Resolución del Parlamento Europeo sobre
aspectos éticos de la IA (2020), Comunicación de la Comisión Europea “Generar
confianza en la IA centrada en el ser humano” (2019), Llamamientos de la
UNESCO (2021, 2023), Recomendación de la UNESCO sobre la ética de la
inteligencia artificial (2021) |
Muchos de estos instrumentos se encuentran en fase de
desarrollo o implementación temprana. Se observa falta de armonización
normativa entre países, ausencia de disposiciones específicas aplicables a
contextos de educación superior e investigación, dificultad para rastrear
datos procesados por algoritmos, y ambigüedad respecto a la necesidad de
consentimiento informado y vigilancia humana en el uso de sistemas
automatizados. |
(Cornejo-Plaza y Cippitani, 2023; Moya y Eaton, 2023;
Aljabr y Al-Ahdal, 2024; Pinchuc y Malitsckaya, 2024; Qadhi et al.,
2024; Ugleva et al., 2024) |
|
Modelos y marcos de Integridad Académica: Modelo
Integrado para la Integridad Académica (Basado en valores: honestidad,
confianza, equidad, respeto, responsabilidad y valentía), Normativas internas
universitarias sobre integridad, Índice de Eticidad de Sistemas de IA (HSE
University) |
No existe un consenso universal sobre la definición y
aplicación de integridad académica, lo que conlleva desigualdad en la
implementación. Las normativas internas son insuficientes para abordar
fenómenos como la simulación de autoría o el uso no declarado de IA. Además,
el índice ético requiere adaptación a otras disciplinas fuera del ámbito
médico. |
(Moya y Eaton, 2023; Navarro-Dolmestch, 2023; Pinchuc y
Malitsckaya, 2024; Qadhi et al., 2024; Sysoyev, 2024; Ugleva
et al., 2024) |
|
Códigos y directrices internacionales en investigación
y publicación científica: Committee on Publication Ethics (COPE),
International Committee of Medical Journal Editors (ICMJE), World Association
of Medical Editors (WAME), Declaración de Helsinki, Código de Núremberg,
Declaración Universal sobre Bioética y Derechos Humanos (UNESCO, 2005),
Directrices de notificación científica (PRISMA, STROBE, CONSORT, entre otros) |
La mayoría de los códigos éticos fueron diseñados para
contextos previos a la irrupción de la IA generativa, por lo que presentan
vacíos normativos sobre la autoría de contenido generado por IA, plagio
automatizado y confiabilidad de los textos. Existen debates activos sobre si
los sistemas de IA pueden ser considerados coautores. Las directrices de uso
responsable aún no son universales ni específicas para cada tipo de estudio. |
(Kambhampati et al., 2023; Navarro-Dolmestch,
2023; Pinchuc y Malitsckaya, 2024; Qadhi et al., 2024; Ugleva
et al., 2024) |
|
Principios éticos generales aplicables a IA en
educación e investigación: transparencia, explicabilidad, equidad,
privacidad, protección de datos, rendición de cuentas, no discriminación,
supervisión humana, respeto a la dignidad humana |
Estos principios son mencionados frecuentemente, pero
su implementación enfrenta múltiples desafíos: la IA puede incorporar sesgos
desde sus datos de entrenamiento, dificultar la explicabilidad (efecto “caja
negra”), y vulnerar la privacidad estudiantil. Además, existe un bajo nivel
de alfabetización ética y digital entre docentes e investigadores, lo que
incrementa la exposición a usos no éticos o indebidos de IA. |
(Cornejo-Plaza y Cippitani, 2023; Moya y Eaton, 2023;
Aljabr y Al-Ahdal, 2024; Ugleva et al., 2024) |
Fuente: Elaboración propia, ٢٠٢٦
con base en los aportes de los autores seleccionados mediante protocolo PRISMA.
Estos
resultados convergen con los aportes de Gulumbe et al. (2024), quienes indican
la inadaptación de los códigos de ética de las instituciones y de las
editoriales ante retos emergentes, y sostienen que muchas de las políticas
vigentes no recogen signos tales como la autoría automatizada o las referencias
generadas artificialmente. Del mismo modo, la investigación de Sudhir (2024)
describe efectos similares en transparencia, privacidad de los datos y equidad
algorítmica y recomienda un enfoque de marcos de gobernanza ética que permita
una mayor participación.
En
el plano supranacional, la Unión Europea ha producido un conjunto normativo
avanzado, que incluye el Reglamento sobre Inteligencia Artificial (AI Act), el Reglamento General de Protección de
Datos (GDPR - UE 2016/679), y la Carta de los Derechos Fundamentales de la
Unión Europea, así como instrumentos complementarios como el Libro Blanco sobre
la Inteligencia Artificial (Comisión Europea, 2020); la Resolución sobre los
aspectos éticos de la IA (Parlamento Europeo, 2020); y, las Recomendaciones de
la UNESCO sobre la ética de la IA (UNESCO, 2021).
No
obstante, estos marcos están aún en fase de implementación o interpretación
normativa y adolecen de una orientación concreta y operativa sobre cómo abordar
los dilemas éticos específicos que surgen en la educación superior e
investigación científica, tales como la simulación de autoría, la manipulación
algorítmica de datos y el sesgo automatizado. La falta de claridad sobre el
consentimiento informado, el rol de la supervisión humana, y la trazabilidad de
decisiones algorítmicas refuerzan una incertidumbre estructural que debilita la
gobernanza institucional.
A
nivel institucional, los marcos sobre integridad académica (como el Modelo
Integrado para la Integridad Académica y los códigos universitarios internos)
promueven valores como honestidad, confianza, justicia, respeto y
responsabilidad. Sin embargo, estos modelos fueron concebidos bajo supuestos
epistemológicos previos a la disrupción digital actual. La irrupción de la IA
genera nuevas formas de transgresión ética no previstas por estos sistemas,
tales como la delegación cognitiva a máquinas, la generación automática de
contenido sin atribución, o el falseamiento de resultados científicos mediante
herramientas de IA generativa.
Si
bien, existen esfuerzos como el Índice de Eticidad de Sistemas de IA
desarrollado por HSE University (2024), su aplicación aún está circunscrita a
contextos médicos y no ha sido suficientemente validada en ciencias sociales,
humanidades o ingeniería. La sistematización evidencia la urgente necesidad de
revisar y actualizar los marcos normativos institucionales para enfrentar esta
nueva ontología del riesgo académico.
En
el campo de la publicación científica, los códigos internacionales como los del
Committee on Publication Ethics (COPE), el International Committee of Medical Journal Editors
(ICMJE), la Declaración de Helsinki y directrices como PRISMA o STROBE, ofrecen
principios generales sobre ética editorial (COPE Council, 2024; Grech y
Eldawlatly, 2024; International Committee of Medical Journal Editors [ICMJE],
2024). Sin embargo, presentan serias limitaciones ante el avance de los modelos
generativos. Existen vacíos explícitos en torno a la autoría de textos
generados por IA, la validez de referencias fabricadas, y la ambigüedad
respecto al rol de los LLMs en la producción científica. La fiabilidad reducida
de los sistemas de detección de IA y la facilidad con que pueden ser burlados
refuerzan la necesidad de una renovación metodológica y normativa en las
políticas editoriales globales.
Finalmente,
si bien existe un consenso creciente en torno a principios éticos aplicables a
la IA (como transparencia, rendición de cuentas, replicabilidad, equidad, y
protección de datos personales), su aplicación práctica dista de ser efectiva.
La literatura revisada identifica dificultades técnicas para implementar estos
principios, especialmente por la opacidad inherente a muchos sistemas de IA,
llamada “efecto caja negra”, y la escasa alfabetización ética e informacional
entre estudiantes, investigadores y docentes. Esta brecha entre ideal normativo
y realidad operativa puede dar lugar a una institucionalización de la
indiferencia ética, donde las transgresiones se normalizan por omisión,
ignorancia o impotencia regulatoria.
Este
diagnóstico sistematizado evidencia una tensión estructural entre la velocidad
de la disrupción tecnológica y la lentitud de la respuesta institucional. Esta
asimetría no solo dificulta la aplicación efectiva de los principios éticos en
la investigación universitaria, sino que también erosiona la confianza en la
función social del conocimiento científico. Frente a este escenario, urge el
diseño de mecanismos normativos más ágiles, transversales y adaptativos,
capaces de anticipar y no solo reaccionar ante los desafíos éticos emergentes
de la inteligencia artificial.
2.3.
Mejores prácticas y estrategias para garantizar la ética e integridad en el uso
de IA en la investigación en educación superior
El
avance acelerado de la inteligencia artificial en los entornos universitarios,
particularmente en la investigación, exige el desarrollo y aplicación de
prácticas éticas robustas que no solo respondan a los desafíos actuales, sino
que anticipen riesgos emergentes. El análisis sistemático de las propuestas
recogidas en la literatura especializada permite identificar una arquitectura
de intervención multiescalar, que articula acciones a nivel individual,
institucional y sistémico (ver Cuadro 3)
Cuadro 3
Mejores prácticas y estrategias recomendadas para garantizar la ética y
la integridad en la investigación con Inteligencia Artificial (IA) en la
educación superior
|
Mejores prácticas y estrategias |
Autor |
|
Reforzar la ética de la investigación y la integridad
científica en el uso de la IA en el ámbito educativo. La IA aplicada a la
educación requiere la comprensión de su uso, reforzando los esfuerzos en
estos ámbitos. |
(Cornejo-Plaza y Cippitani, 2023; Sysoyev, 2024; Usher
y Barak, 2024; Yang, 2024) |
|
Educar a la comunidad educativa sobre ética para
utilizar la IA como herramienta en la generación de conocimiento. |
|
|
Proponer la adopción de un sistema de educación sobre
la IA a todos los niveles (escuela, universidad, capacitación profesional). |
|
|
Capacitar de manera continua a los usuarios,
trabajadores y profesionales de la IA en las cuestiones éticas. |
|
|
Subordinar la IA generativa al sistema ético y de
derecho objetivo de la comunidad internacional y de la UE. Las aplicaciones
de IA deben ajustarse a la ley y respetar principios éticos. |
|
|
Adoptar un enfoque responsable al presentar los
resultados de investigación en un contexto de uso generalizado de la IA. |
(Pinchuc y Malitsckaya, 2024) |
|
Utilizar la IA generativa con cuidado al escribir
artículos científicos. |
(Kovachov et al., 2023) |
|
Informar honestamente sobre el método y el alcance del
uso de la IA para mantenerse dentro de las normas académicas éticas,
especialmente al utilizar IA generativa en la escritura de artículos
científicos. Ser transparentes sobre el uso de IA cuando esté autorizado. |
(Moya y Eaton, 2023; Pinchuc y Malitsckaya, 2024) |
|
Universidades y comunidades científicas deben
desarrollar estrategias para el uso ético de la IA en la educación y la
investigación científica. |
(Samuel et al., 2021; Kovachov et al., 2023;
Mumtaz et al., 2025;) |
|
Considerar los riesgos potenciales para la integridad
académica y la calidad de la investigación al utilizar IA. Identificar y
mitigar nuevas formas de mala conducta en la investigación. Identificar y
mitigar riesgos para los valores de integridad académica. |
(Kovachov et al., 2023; Navarro-Dolmestch, 2023;
Qadhi et al., 2024) |
|
Implementar cursos especiales sobre ética de la IA para
ayudar a estudiantes y científicos a comprender los aspectos prácticos y
éticos. Incluir la ética de la IA en los currículos a nivel “mega”
(interinstitucional/nacional/internacional). |
(Kovachov et al., 2023; Moya y Eaton, 2023) |
|
Proporcionar alfabetización y capacitación integral
sobre IA. |
(Qadhi et al., 2024) |
|
Capacitar a los investigadores de IA en ética de la
investigación para aumentar su conciencia sobre las consideraciones éticas de
su trabajo. |
(Moya y Eaton, 2023) |
|
Comprometerse con la investigación y el desarrollo
éticos de la IA. Estimular la investigación sobre el uso ético de la IA en la
enseñanza y el aprendizaje. |
(Moya y Eaton, 2023; Qadhi et al., 2024) |
|
Promover la investigación interdisciplinaria sobre la
IA. |
(Wilson et al., 2020) |
|
Establecer políticas éticas sólidas para el uso de la
IA en la educación superior. Adaptar los marcos normativos universitarios
para considerar las tecnologías de IA y su impacto. Desarrollar políticas
claras sobre autoría y citación de IA. |
(Nam y Bai, 2023; Navarro-Dolmestch, 2023; Qadhi
et al., 2024; Sysoyev, 2024; Tsekea y Mandoga, 2025) |
|
Abordar la falta de comprensión de los estudiantes
sobre la autoría, propiedad, citación y plagio de la IA. |
(Sysoyev, 2024) |
|
Asegurar la supervisión humana en la creación de
contenido impulsado por IA. El principio de solidaridad implica supervisión
humana en las aplicaciones de IA. |
(Cornejo-Plaza y Cippitani, 2023; Qadhi et al.,
2024) |
|
Considerar cuestiones éticas clave como la confianza, la responsabilidad, la privacidad de los datos, la transparencia, la explicabilidad, la equidad y la no discriminación al desarrollar o utilizar sistemas de IA, incluida la investigación. Ensure transparency (explicability, data used, purpose). Establish responsibility and accountability mechanisms. |
(Cornejo-Plaza y Cippitani, 2023; Ugleva et al.,
2024) |
|
Utilizar metodologías/herramientas para evaluar riesgos
éticos en sistemas de IA. Aplicar estos índices/metodologías en comisiones de
ética al aprobar investigación con IA. |
(Ugleva et al., 2024) |
|
Promover el uso transparente de la IA generativa.
Asegurar que los usuarios reciban una descripción comprensible de las
funciones de IA, datos utilizados, propósito y resultados. Documentar las
decisiones, el proceso, la recopilación de datos y la descripción del
algoritmo. Las decisiones con impacto significativo deben ser justificables y
comprensibles para los humanos. |
(Wilson et al., 2020) |
|
Establecer mecanismos de responsabilidad y rendición de
cuentas para los sistemas de IA y sus resultados, antes y después de la
implementación. La posibilidad de auditar los sistemas de IA es fundamental
para la fiabilidad. |
(Cornejo-Plaza y Cippitani, 2023) |
|
Fomentar la revalorización del pensamiento crítico y
reflexivo como enfoque principal de la docencia y evaluación, habilidades que
la IA generativa aún no puede igualar. |
(Navarro-Dolmestch, 2023; Niloy et al., 2024;
Usher y Barak, 2024) |
|
Generar espacios de discusión dentro de la comunidad
universitaria sobre los beneficios y riesgos de la IA en la actividad
académica. |
|
|
Revisar los paradigmas de docencia y evaluación a la
luz de la irrupción de la IA generativa. Generar preguntas resistentes al
fraude. Diseñar instrumentos de evaluación que escapen a las posibilidades
actuales de la tecnología. Revalorar las examinaciones presenciales. Enfocar
la evaluación en la internalización de conceptos centrales y el razonamiento. |
|
|
Cuestionar la compatibilidad de los modelos de
e-learning asincrónico con los riesgos de la IA generativa, especialmente en
la evaluación que carece de vigilancia directa. |
|
|
Involucrar a estudiantes y personal de integridad
académica en la promoción del uso ético de la IA generativa. |
(Moya y Eaton, 2023) |
|
Apoyar a los organismos de Aseguramiento de la Calidad
para promover la consistencia en los enfoques de la IA en las políticas de
integridad académica. |
Fuente: Elaboración propia, ٢٠٢٦
con base en los aportes de los autores seleccionados mediante protocolo PRISMA.
En
primer lugar, se considera un conjunto de estrategias formativas orientadas a
potenciar la conciencia ética sobre el uso de la IA que abarca programas de
alfabetización digital y ética desde la enseñanza en el pregrado hasta el
posgrado, cursos específicos sobre ética de la IA, o la formación de
investigadores capaces de comprender la dimensión ética de las decisiones que
sus algoritmos generan; son estrategias que operan desde una lógica de
prevención que empodera a los actores universitarios con capacidades críticas
para discriminar entre el uso legítimo y el uso ilegítimo de herramientas de
IA.
En
segundo lugar, se coloca de manifiesto la necesidad de construir políticas
institucionales limpias y actualizadas. La propuesta de reformular las normas
referidas a la autoría, la citación o la responsabilidad ante el uso de IA es
un primer paso para atenuar la vaguedad normativa que hoy permite prácticas
como la simulación de autoría o el plagio inteligente. Al mismo tiempo, la
necesidad de asegurar la supervisión humana en los procesos mediados por IA es
oportuna y hace posible la rendición de cuentas y la legitimidad del
conocimiento que se está produciendo.
La
ética algorítmica aplicada es otro eje emergente que se define como la
incorporación de principios tales como la equidad, la explicabilidad de los
algoritmos, la transparencia y la privacidad en el diseño y aplicación de
sistemas de IA, con la necesidad de metodologías de evaluación de los riesgos
éticos (índices de eticidad, entre otros) y de mecanismos documentales para
registrar las decisiones automatizadas (prácticas éticas y técnicas del sistema
para la auditabilidad y la confiabilidad del mismo).
De
igual modo, se coloca de manifiesto la necesidad de una revalorización del
pensamiento crítico y volver a diseñar las estrategias de evaluación a partir
de la irrupción de herramientas generativas; la evaluación basada en memoria o
en una respuesta predecible es fácilmente vulnerada por el uso indebido de IA.
Por ello, se busca generar vías de evaluación “resistentes al fraude” que
valoren la argumentación, la reflexión profunda y la capacidad de
interpretación como piezas que son necesariamente irremplazables por la
tecnología.
Por
último, se propone un enfoque participativo e inclusivo en el cual se incorpore
a toda la comunidad académica, desde los estudiantes hasta quienes están al
cargo de los órganos de aseguramiento de la calidad investigativa, y se sugiere
establecer un lugar deliberativo donde se analicen de manera colectiva los
beneficios, los límites y los riesgos de la IA en los procesos de
investigación. Eso ayuda a reforzar la transparencia de la institución, así
como la legitimidad de las políticas que adopte.
Del
análisis sistematizado se deduce que no es suficiente con enunciar principios
éticos, sino que hay que operativizarlos en prácticas contrastables,
formaciones sostenidas, política normativa coherente y sistemas institucionales
resilientes. La ética en el uso de IA en la investigación universitaria ha de
entenderse como una ecología de las prácticas engarzadas, capacitadas para
adaptarse dinámicamente a la velocidad de la innovación tecnológica. Las
mejores estrategias apenas son respuestas, son una hoja de ruta propositiva
para construir una cultura académica donde la inteligencia artificial esté en
función del pensamiento riguroso, no de su sustitución.
Los
resultados se condensan en cuatro frentes: Alfabetización ética, gobernanza
algorítmica, rediseño de evaluaciones y participación institucional. Estas
acciones se alinean con el roadmap
micromesomacro de integración responsable de la IA descrito por CastellóSirvent
et al. (2024). Además, Abu et al. (2025) verifican la urgencia de formación
continua y de reforzar los marcos normativos internos, al evidenciar la brecha
entre conocimiento teórico y aplicación práctica. Persisten, pues, riesgos
derivados de la distancia entre principios éticos declarados y su ejecución, lo
que obliga a establecer normativas flexibles, mayor transparencia y una
gobernanza ética ágil para salvaguardar la integridad científica frente a la
disrupción algorítmica.
Finalmente,
la revisión sistemática identifica tres desafíos éticos fundamentales en la
investigación universitaria con inteligencia artificial: La desintegración de
la autoría intelectual, la fractura metodológica y la gobernanza fallida. La
desintegración de la autoría, impulsada por el plagio automatizado y la
suplantación de contenido generado por IA, socava la honestidad y
transparencia, generando una crisis de credibilidad que afecta evaluaciones y
publicaciones científicas (Kovachov et al., 2023).
La
fractura metodológica, derivada de la opacidad algorítmica, sesgos
estructurales y alucinaciones de datos, compromete la reproducibilidad y
validez científica, perpetuando desigualdades y erosionando la confianza en los
resultados (Cornejo-Plaza y Cippitani, 2023). La gobernanza fallida,
caracterizada por vacíos regulatorios y protocolos inadecuados, dificulta la
rendición de cuentas y la protección de datos sensibles, exacerbando riesgos
éticos (Pinchuc y Malitsckaya, 2024).
Estos
desafíos generan un desgaste axiológico, degradación cultural y fractura
epistemológica que amenazan la integridad científica y académica. Para
contrarrestarlos, se requieren políticas normativas claras, formación en ética
digital, supervisión humana y metodologías transparentes, que aseguren la
auditabilidad de la IA, promoviendo una cultura académica que integre la
tecnología sin sacrificar el rigor y la equidad.
Adicionalmente,
en el presente estudio se reconocen limitaciones como: i) Posibles omisiones de
literatura causada por la combinación de términos de búsqueda y sesgos de
indexación; y, ii) la escasa solidez empírica y normativa de muchos trabajos en
un campo aún emergente. Estas carencias restringen la generalización de los
hallazgos y revelan la necesidad de investigaciones futuras que: comparen
marcos institucionales de distintas culturas y legislaciones; exploren
percepciones y prácticas de estudiantes, docentes-investigadores y comités de
ética mediante métodos mixtos; evalúen longitudinalmente el impacto de
intervenciones educativas, como alfabetización ética; y adopten enfoques
transdisciplinares desde humanidades digitales, filosofía de la tecnología y
teoría crítica.
Pese
a las limitaciones, el estudio aporta una síntesis amplia de riesgos
recurrentes como plagio automatizado, opacidad algorítmica, simulaciones de
autoría y esboza una ecología de buenas prácticas, guiada por la ética de la
responsabilidad. Al subrayar la urgencia de marcos adaptativos, inclusivos y
prospectivos, ofrece una referencia útil para investigadores, comités de ética
y agencias de calidad de la educación superior.
Conclusiones
La
irrupción de la Inteligencia Artificial (IA) en la investigación universitaria
actúa como prueba de estrés para el contrato epistémico de la academia. Los
tres focos críticos detectados: i) Desintegración de la autoría, ii) fractura
metodológica, y iii) gobernanza fallida, constituyen un núcleo sistémico de
riesgo que amenaza la legitimidad social de la ciencia si no se gestiona con
visión prospectiva. Estas tensiones no son anomalías pasajeras, son síntomas de
un cambio estructural que exige trascender la lógica de la “gestión de daños” y
adoptar una gobernanza anticipatoria, capaz de intervenir antes de que el
problema se materialice.
Al
respecto, la consolidación de la IA generativa como infraestructura cognitiva a
nivel global, contrastada con la lentitud de los marcos regulatorios, ha
transformado lo que inicialmente se concebía como una excepción experimental en
una normalidad institucional marcada por la “indiferencia ética” frente a sus
riesgos. En este escenario, no basta seguir acumulando códigos y guías
desconectadas entre sí, se requiere que las políticas universitarias incorporen
cláusulas de actualización periódica obligatoria, ancladas a métricas de riesgo
tecnológico y a la velocidad de cambio de los modelos algorítmicos. Solo cuando
la gobernanza académica asuma un diseño adaptativo y prospectivo, será capaz de
revisarse al mismo ritmo con que se transforman las arquitecturas de IA y
dejará de ser un dispositivo meramente reactivo y podrá alinearse efectivamente
con el ritmo de la innovación.
En
ese contexto, la ética debe estar integrada al método, no al final del proceso,
evitando la fractura metodológica creada por los algoritmos “caja negra” que
erosionan la reproducibilidad y validez científica. De esta forma, se puede
transformar este talón de Aquiles en oportunidad al reconceptualizar la
validez, tan importante como la significación estadística y la explicabilidad
epistemológica de los modelos; incorporar auditorías algorítmicas ex ante
y ex post, y exigir la publicación de “diarios de entrenamiento” (datasets, parámetros, umbrales), para convertir la
transparencia en un componente operativo del método científico.
La
desintegración de la autoría no se resuelve prohibiendo los LLM, sino
rediseñando el estatuto de la contribución intelectual, por ello, se hace
necesario un sistema de “licencias de intervención algorítmica” que detalle
grado, tipo y propósito de la asistencia de IA. Así, la responsabilidad se distribuye
entre investigador, institución y proveedor tecnológico, diluyendo la zona gris
que hoy permite el plagio automatizado y las simulaciones de autoría.
Los
hallazgos muestran que la brecha entre principios y prácticas se nutre de la
débil alfabetización ética. Pasar de la sensibilización puntual a la formación
continua supone integrar módulos de ética de IA y ciencia abierta en todos los
ciclos formativos y programas de posgrado. Solo una comunidad que domina el
funcionamiento y las limitaciones de la IA podrá ejercer un control crítico
sobre ella.
Con
respecto a las limitaciones metodológicas de este estudio, especialmente el
tamaño reducido del corpus y la desigual distribución empírica de contextos, se
justifica la necesidad de usar diseños longitudinales que midan el efecto real
de las intervenciones y estudios comparativos que contrasten marcos culturales
y legislativos diversos. La dimensión ética de la IA trasciende los espacios
disciplinarios; por tanto, la colaboración con humanidades digitales, filosofía
de la tecnología y teoría crítica no es un adorno, sino una condición para
capturar las implicaciones sociotécnicas más amplias.
Finalmente,
la IA tensiona los valores fundacionales de la universidad, pero también ofrece
la oportunidad de renovar el pacto epistémico sobre bases más transparentes,
inclusivas y adaptativas. La clave está en convertir la ética en
infraestructura, de modo que la integridad no dependa de la buena voluntad
individual sino de circuitos institucionales de auditoría, incentivos y
rendición de cuentas. Solo así, la universidad podrá seguir ejerciendo una
autoridad epistémica creíble en la era algorítmica.
Referencias bibliográficas
Abu,
K. M., Alkaramneh, M. S., Allala, S. K., ALatwi, N. Y., Al-Saliti, R. A. M. N.,
e Ismail, A. F. (2025). The extent of knowledge
among faculty members at jordanian universities regarding principles of AI
ethics in scientific research and its guidelines. Journal of Lifestyle and
SDGs Review, 5(2), e03841. https://doi.org/10.47172/2965-730x.sdgsreview.v5.n02.pe03841
Acosta,
S. F., y Finol, M. R. (2024). Inteligencia artificial como mecanismo para
mejorar la gestión educativa universitaria. Revista de Ciencias Sociales
(Ve), XXX(3), 583-597. https://doi.org/10.31876/rcs.v30i3.42697
Ahmed,
A.-B., y Salem, M. (2024). إستراتيجية مقترحة لتعزيز أخلاقيات البحث والنزاهة العلمية وتحقيق الأمن
القومي في ضوء تحديات الذكاء الاصطناعي والأمن السيبراني. Bulletin of The Faculty of Languages & Translation, 27(1), 329-434. https://doi.org/10.21608/bflt.2024.406486
Aljabr,
F. S., y Al-Ahdal, A. A. M. H. (2024). Ethical
and pedagogical implications of AI in language education: An empirical study at
Ha’il University. Acta Psychologica, 251, 104605. https://doi.org/10.1016/j.actpsy.2024.104605
Aljuaid, H. (2024). The
impact of Artificial Intelligence tools on academic writing instruction in
higher education: A systematic review. Arab World English Journal, (S),
26-55. https://doi.org/10.24093/awej/ChatGPT.2
Ávila-Rodríguez,
A. M., Quispe-Del-Castillo, M. A., Mendoza-León, O. E., y
Herrera-Mejía, Z. E. (2026). Inteligencia
artificial en la enseñanza y aprendizaje de la Educación Superior
Universitaria: Una revisión sistemática. Revista
de Ciencias Sociales, XXXII(1), 417-435. https://doi.org/10.31876/rcs.v32i1.45214
Blanco,
Y., Fragozo, L. D. J., y Gómez, M. E. (2024). Inteligencia Artificial:
Posibilidades, límites y desafíos en la educación superior. Revista
de Ciencias Sociales (Ve), XXX(4), 178-187. https://doi.org/10.31876/rcs.v30i4.42985
Castelló-Sirvent, F.,
Roger-Monzó, V., y Gouveia-Rodrigues, R.
(2024). Quo Vadis, University? A roadmap for AI
and ethics in higher education. Electronic Journal of e-Learning, 22(6),
34-51. https://doi.org/10.34190/ejel.22.6.3267
Chen, Z., Chen, C.,
Yang, G., He, X., Chi, X., Zeng, Z., y Chen, X. (2024). Research integrity in
the era of artificial intelligence: Challenges and responses. Medicine, 103(27),
e38811. https://doi.org/10.1097/MD.0000000000038811
Comisión
Europea (2020). Libro Blanco sobre Inteligencia Artificial: un enfoque
europeo hacia la excelencia y la confianza. Comisión Europea. https://commission.europa.eu/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en
COPE Council (2024). COPE
position—Authorship and AI. Committee on Publication Ethics. https://doi.org/10.24318/cCVRZBms
Cornejo-Plaza,
I., y Cippitani, R. (2023). Consideraciones éticas y jurídicas de la Inteligencia
Artificial en Educación Superior: Desafíos y perspectivas. Revista de
Educación y Derecho, (28). https://doi.org/10.1344/REYD2023.28.43935
Grech,
V., y Eldawlatly, A. A. (2024). STROBE, CONSORT, PRISMA,
MOOSE, STARD, SPIRIT, and other guidelines – Overview and application. Saudi
Journal of Anaesthesia, 18(1), 137-141. https://doi.org/10.4103/sja.sja_545_23
Gulumbe, B. H., Audu, S.
M., y Hashim, A. M. (2024). Balancing AI and academic integrity: What are the
positions of academic publishers and universities? AI & Society, 40, 1775-1784. https://doi.org/10.1007/s00146-024-01946-8
Hans,
J. (2014). El principio de responsabilidad: Ensayo de una ética para la
civilización tecnológica. Herder Editorial.
Hine, C. (2021).
Evaluating the prospects for university-based ethical governance in artificial
intelligence and data-driven innovation. Research Ethics, 17(4),
464-479. https://doi.org/10.1177/17470161211022790
HSE University (November
25, 2024). A New Tool Designed to Assess AI Ethics in Medicine Developed at HSE University. HSE
University.
https://www.hse.ru/en/news/research/990754994.html
International Committee
of Medical Journal Editors - ICMJE (2024). Recommendations for the conduct,
reporting, editing, and publication of scholarly work in medical journals. ICMJE. https://www.icmje.org/recommendations/
Isiaku,
L., Kwala, A. F., Sambo, K. U., e Isiaku, H. H. (2024). Academic evolution in the age of ChatGPT: An in-depth
qualitative exploration of its influence on research, learning, and ethics in
Higher Education. Journal of University Teaching and Learning Practice, 21(6). https://doi.org/10.53761/7egat807
Kambhampati, S. B. S.,
Menon, J., y Maini, L. (2023). Ethics in research and publications. Indian
Journal of Orthopaedics, 57(11), 1722-1734. https://doi.org/10.1007/s43465-023-00971-x
Karkoulian, S., Sayegh,
N., y Sayegh, N. (2024). ChatGPT Unveiled: Understanding perceptions of
academic integrity in higher education - A qualitative approach. Journal of
Academic Ethics, 23, 1171-1188. https://doi.org/10.1007/s10805-024-09543-6
Karpouzis, K. (2024).
Artificial Intelligence in Education: Ethical considerations and insights from
ancient Greek philosophy. Proceedings of the 13th Hellenic Conference on
Artificial Intelligence, 57. https://doi.org/10.1145/3688671.3688772
Kovachov, S., Ковачов,
C., Suchikova, Y., y Сичікова, Я. (2023). Talk to me: A dialogue with artificial intelligence
about its use in education and research. Scientific papers of Berdiansk
State Pedagogical University Series Pedagogical sciences.
Lazăr,
A. M., Repanovici, A., Popa, D., Ionas, D. G., y Dobrescu, A. I. (2024). Ethical principles in AI use for assessment: exploring
students’ perspectives on ethical principles in academic publishing. Education
Sciences, 14(11), 1239. https://doi.org/10.3390/educsci14111239
Limongi, R. (2024). The
use of artificial intelligence in scientific research with integrity and
ethics. Future Studies Research Journal: Trends and Strategies, 16(1), e845. https://doi.org/10.24023/futurejournal/2175-5825/2024.v16i1.845
Malik, A., Khan, M. L.,
Hussain, K., Qadir, J., y Tarhini, A. (2025). AI in higher education: Unveiling
academicians’
perspectives on teaching, research, and ethics in the age of ChatGPT. Interactive
Learning Environments, 33(3), 2390-2406. https://doi.org/10.1080/10494820.2024.2409407
McKay, F., Williams, B.
J., Prestwich, G., Bansal, D., Hallowell, N., y Treanor, D. (2022). The ethical
challenges of artificial intelligence-driven digital pathology. The Journal
of Pathology: Clinical Research, 8(3), 209-216. https://doi.org/10.1002/cjp2.263
Moya,
B. A., y Eaton, S. E. (2023). Examining
recommendations for artificial intelligence use with integrity from a
scholarship of teaching and learning lens. RELIEVE - Revista Electrónica
de Investigación y Evaluación Educativa, 29(2), M1. https://doi.org/10.30827/relieve.v29i2.29295
Mumtaz, S., Carmichael,
J., Weiss, M., y Nimon-Peters, A. (2025). Ethical use of artificial
intelligence based tools in higher education: Are future business leaders
ready? Education and Information Technologies, 30(6), 7293-7319. https://doi.org/10.1007/s10639-024-13099-8
Nam, B. H., y Bai, Q.
(2023). ChatGPT and its ethical implications for STEM research and higher
education: A media discourse analysis. International Journal of STEM
Education, 10(1), 66. https://doi.org/10.1186/s40594-023-00452-5
Navarro-Dolmestch, R.
(2023). Descripción
de los riesgos y desafíos para la integridad académica de aplicaciones
generativas de inteligencia artificial. Derecho PUCP, (91), 231-270. https://doi.org/10.18800/derechopucp.202302.007
Niloy,
A. C., Hafiz, R., Tasnin, B. M., Gulmeher, F., Sultana, N., Islam, K. F.,
Bushra, F., Islam, S., Hoque, S. I., Rahman, M., y Kabir, S. (2024). AI chatbots: A disguised enemy for academic integrity?
International Journal of Educational Research Open, 7, 100396. https://doi.org/10.1016/j.ijedro.2024.100396
Parlamento
Europeo (2020). Resolución sobre los aspectos éticos de la IA. Parlamento
Europeo. https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_ES.html
Pinchuc,
O., y Malitsckaya, I. (2024). Відповідальне Та
Етичне Використання Штучного Інтелекту В Дослідницькій І Публікаційній Діяльності. Information Technologies
and Learning Tools, 100(2),
180-198. https://doi.org/10.33407/itlt.v100i2.5676
Qadhi, S. M., Alduais,
A., Chaaban, Y., y Khraisheh, M. (2024). Generative AI, Research Ethics, and
Higher Education Research: Insights from a scientometric analysis. Information,
15(6), 325. https://doi.org/10.3390/info15060325
Rudolph, J., Ismail,, M.
F. B., y Popenici, S. (2024). Higher Education’s Generative Artificial
Intelligence Paradox: The meaning of chatbot mania. Journal of University
Teaching and Learning Practice, 21(6). https://doi.org/10.53761/54fs5e77
Samuel,
G., Chubb, J., y Derrick, G. (2021). Boundaries
Between Research Ethics and Ethical Research Use in Artificial Intelligence
Health Research. Journal of Empirical Research on Human Research Ethics,
16(3), 325-337. https://doi.org/10.1177/15562646211002744
Sudhir, V. (2024). The
Ethics of AI in the Administration of Higher Education. International
Journal for Multidisciplinary Research, 6(6). https://doi.org/10.36948/ijfmr.2024.v06i06.30189
Sysoyev, P. V. (2024).
Ethics and AI-Plagiarism in an Academic Environment: Students’ understanding of compliance
with author’s ethics
and the problem of plagiarism in the process of interaction with generative
artificial intelligence. Vysshee Obrazovanie v Rossii = Higher Education in
Russia, 33(2),
31-53. https://doi.org/10.31992/0869-3617-2024-33-2-31-53
Tsekea,
S., y Mandoga, E. (2025). The ethics of artificial
intelligence use in university libraries in Zimbabwe. Frontiers in Research
Metrics and Analytics, 9, 1522423. https://doi.org/10.3389/frma.2024.1522423
Ugleva,
A. V., Shilova, V. A., y Karpova, E. A. (2024). Index of “Ethicality” of AI
Systems in Medicine: From Theory to Practice. Ethical Thought, 24(1),
144-159. https://doi.org/10.21146/2074-4870-2024-24-1-144-159
UNESCO
(2022). Recomendación sobre la ética de la
inteligencia artificial. UNESCO. https://www.unesco.org/es/articles/recomendacion-sobre-la-etica-de-la-inteligencia-artificial
Usher, M., y Barak, M.
(2024). Unpacking the role of AI ethics online education for science and
engineering students. International Journal of STEM Education, 11, 35. https://doi.org/10.1186/s40594-024-00493-4
Wilson, C., Dalins, J.,
y Rolan, G. (2020). Effective, Explainable and Ethical: AI for Law Enforcement
and Community Safety. 2020 IEEE / ITU International Conference on Artificial
Intelligence for Good (AI4G), 186-191. https://doi.org/10.1109/AI4G50087.2020.9311021
Wu, W., Huang, T., y
Gong, K. (2020). Ethical Principles and Governance Technology Development of AI
in China. Engineering, 6(3), 302-309. https://doi.org/10.1016/j.eng.2019.12.015
Yang, Y. (2024).
Influences of Digital Literacy and Moral Sensitivity on Artificial Intelligence
Ethics Awareness Among Nursing Students. Healthcare, 12(21), 2172. https://doi.org/10.3390/healthcare12212172
Yitages, M., y Kasai, A.
(2024). Faculty Opinions of AI Tools: Text Generators and Machine Translators. American
Journal of Undergraduate Research, 20(4), 17-27. https://doi.org/10.33697/ajur.2024.102
Yusuf, A., Pervin, N., y Román-González, M. (2024). Generative AI and the future of higher education: A threat to academic integrity or reformation? Evidence from multicultural perspectives. International Journal of Educational Technology in Higher Education, 21, 21. https://doi.org/10.1186/s41239-024-00453-6