Universidad del Zulia (LUZ)
Revista Venezolana de Gerencia (RVG)
Año 31 No. Especial 15, 2026, e31e154
Enero-Junio
ISSN 1315-9984 / e-ISSN 2477-9423
Como citar: Riquez, D. P., Mantari, L. D., Villa, L. F., y Velarde, L. (2026). Inteligencia artificial generativa y calidad percibida del servicio educativo en instituciones de educación superior. Revista Venezolana De Gerencia, 31(Especial 15), e31e154. https://doi.org/10.52080/rvgluz.31.e15.4
Inteligencia artificial generativa y calidad percibida del servicio educativo en instituciones de educación superior
Riquez Livia, Digmer Pablo*
Mantari Mincami, Lizet Doriela**
Villa Ricapa, Linda Flor***
Velarde Dávila, Leonardo****
Resumen
La inteligencia artificial generativa se ha incorporado aceleradamente a la educación superior, generando desafíos no solo pedagógicos, sino también gerenciales, asociados a la gobernanza, la integridad académica, la gestión de riesgos y el aseguramiento de la calidad del servicio educativo. El objetivo de este estudio fue analizar la relación entre la gestión institucional percibida del uso de inteligencia artificial generativa y la calidad percibida del servicio educativo en una universidad del Perú. Para ello, se empleó un enfoque cuantitativo, con diseño no experimental y transversal, mediante la aplicación de un cuestionario estructurado a estudiantes de pregrado (n = 312). La calidad percibida se midió a partir de una adaptación de escalas consolidadas de calidad de servicio en educación superior, mientras que la gestión institucional percibida se operacionalizó en las dimensiones de políticas y expectativas, soporte y capacitación, integridad y controles, y gestión de riesgos. Los datos fueron analizados mediante modelamiento de ecuaciones estructurales por mínimos cuadrados parciales, evaluándose la fiabilidad, la validez y las relaciones estructurales del modelo. Los resultados evidenciaron una asociación positiva entre la gestión institucional percibida y la calidad percibida del servicio educativo, con efectos significativos de las dimensiones de políticas y expectativas, integridad y gestión de riesgos, mientras que soporte y capacitación no presentó una asociación significativa. En conjunto, los hallazgos sugieren que la institucionalización visible de reglas, controles y mecanismos de gestión del riesgo en el contexto analizado contribuye a percepciones más favorables sobre la calidad del servicio educativo.
Palabras clave: inteligencia artificial generativa; gobernanza universitaria; calidad percibida del servicio; integridad académica; educación superior.
Recibido: 06.10.25 Aceptado: 29.01.26
* Doctor en Ciencias de la Educación. Magister en Tecnología Educativa. Licenciado en Educación Física. Filiación: Universidad Nacional de Educación Enrique Guzmán y Valle (UNE), Perú. Correo: driquez@une.edu.pe ORCID: https://orcid.org/0000-0002-1513-8606
** Magister en Educación Superior mención en: Docencia en Educación Superior. Licenciada en Educación Secundaria. Filiación: Universidad Peruana Los Andes (UPLA), Perú. Email: D.lmantari@ms.upla.edu.pe ORCID: https://orcid.org/0000-0003-4859-9684
*** Magister en Ciencias de la Salud mención en: Salud Publica. Licenciada en Enfermería. Filiación: Universidad Peruana Los Andes (UPLA), Perú. Email: D.lvilla@ms.upla.edu.pe ORCID: https://orcid.org/0000-0002-4937-5319
**** Doctor en Administración. Magister en Administración. Licenciado en Administración. Filiación: Universidad Peruana de Ciencias Aplicadas (UPC), Perú. Email: consultorlvd@yahoo.es ORCID: https://orcid.org/0000-0002-8096-0196
Generative Artificial Intelligence and Perceived Quality of Educational Services in Higher Education Institutions
Abstract
Generative artificial intelligence has been rapidly incorporated into higher education, generating challenges not only in pedagogy but also in management, related to governance, academic integrity, risk management, and quality assurance of educational services. The objective of this study was to analyze the relationship between perceived institutional management of the use of generative artificial intelligence and perceived quality of educational services at a university in Peru. A quantitative approach was used, with a non-experimental, cross-sectional design, through the application of a structured questionnaire to undergraduate students (n = 312). Perceived quality was measured using an adaptation of established service quality scales in higher education, while perceived institutional management was operationalized in the dimensions of policies and expectations, support and training, integrity and controls, and risk management. The data were analyzed using partial least squares structural equation modeling, evaluating the reliability, validity, and structural relationships of the model. The results showed a positive association between perceived institutional management and perceived quality of educational services, with significant effects from the dimensions of policies and expectations, integrity, and risk management, while support and training did not show a significant association. Taken together, the findings suggest that the visible institutionalization of rules, controls, and risk management mechanisms in the analyzed context contributes to more favorable perceptions of the quality of educational services.
Keywords: generative artificial intelligence; university governance; perceived service quality; academic integrity; higher education.
1. Introducción
La inteligencia artificial generativa (IAG) se ha instalado en la educación superior como una tecnología de propósito general, reconfigurando docencia, evaluación, producción académica y soporte estudiantil. Su rápida masificación —especialmente vía herramientas conversacionales— ha acelerado usos informales en tareas universitarias y ha forzado decisiones institucionales sobre reglas de uso, responsabilidades y control (Fui-Hoon Nah et al., 2023). La IAG puede definirse como sistemas capaces de generar contenido nuevo a partir de datos de entrenamiento e instrucciones del usuario; su aporte educativo depende de capacidades, límites y de competencias críticas de docentes y estudiantes (Kasneci et al., 2023).
Desde la gestión universitaria, el reto es convertir la IAG en un objeto gobernable: definir reglas, procesos y responsabilidades que creen valor sin comprometer confianza, integridad académica y legitimidad institucional. Esto supone articular gobernanza responsable (Papagiannidis et al., 2025) con estándares de gestión (ISO, 2023) y marcos de riesgo (NIST, 2023; NIST, 2024), en un entorno regulatorio que incrementa obligaciones de documentación, transparencia y evaluación de riesgos según nivel de impacto (Regulation (EU) 2024/1689, 2024).
En universidades, la institucionalización suele implicar arreglos multiunidad (TI, bibliotecas, rectorado y unidades académicas) y demanda coordinación interfuncional (Wider et al., 2024). Un foco crítico es la evaluación: la IAG tensiona la frontera entre apoyo legítimo y deshonestidad, afectando la validez de evidencias y la confianza en credenciales. Evidencia en contexto real muestra infiltración de producción generada por IA en exámenes con baja detectabilidad, obligando a revisar diseño de evaluación, supervisión y protocolos (Scarfe et al., 2024), en un escenario presionado además por contract cheating (Sweeney, 2023).
Este debate se vincula con la calidad percibida del servicio educativo, entendida como el juicio del estudiante sobre la excelencia del servicio al comparar expectativas y desempeño (Parasuraman et al., 1988). En educación superior se han aplicado instrumentos como HEdPERF (Abdullah, 2005) para explicar satisfacción y variables institucionales relevantes (Wider et al., 2024; Seitova et al., 2024). Sin embargo, la evidencia empírica sobre gestión institucional de IAG medida desde la percepción del estudiante sigue siendo limitada, y la evidencia en universidades latinoamericanas es escasa.
En Perú, la relevancia aumenta por procesos de licenciamiento y renovación que evalúan condiciones básicas de calidad, haciendo estratégicas las decisiones sobre tecnologías que afectan docencia, evaluación y soporte (SUNEDU, 2021). En consecuencia, este estudio tiene como objetivo analizar la relación entre la gestión institucional percibida de la IAG y la calidad percibida del servicio educativo en una universidad peruana. De manera específica, se propone: (i) describir el nivel percibido de gestión institucional de IAG en políticas y expectativas, soporte y capacitación, integridad y controles, y gestión de riesgos; (ii) medir la calidad percibida mediante dimensiones tipo SERVQUAL/HEdPERF; y (iii) estimar la asociación entre ambos constructos e identificar los componentes con mayor peso explicativo. El modelo se analiza mediante PLS-SEM (Hair et al., 2021).
2. Gobernanza, integridad académica y calidad percibida del servicio
Esta sección organiza los fundamentos conceptuales del estudio sobre la incorporación de la inteligencia artificial generativa en educación superior. En primer lugar, se describen usos, beneficios y límites de la IAG en el contexto universitario; luego se desarrollan los componentes de la gobernanza responsable y la gestión del riesgo. A continuación, se revisa el enfoque de calidad percibida del servicio educativo en universidades, y finalmente se presenta el modelo e hipótesis que articulan la gestión institucional percibida con la calidad percibida.
2.1. Inteligencia artificial generativa en educación superior: usos, beneficios y límites
La inteligencia artificial generativa (IAG) comprende sistemas capaces de generar contenido a partir de instrucciones del usuario y patrones aprendidos de grandes corpus; en educación superior se usa para redacción, apoyo al estudio, tutoría y automatización de tareas académicas y administrativas (Fui-Hoon Nah et al., 2023).
Además, evidencia reciente muestra que su adopción estudiantil en educación superior se ha expandido con rapidez y que las percepciones frente a estas herramientas suelen ser favorables, aunque heterogéneas según el campo de estudio, el nivel académico, la edad, el tipo de institución y las políticas institucionales vigentes. Asimismo, los estudiantes reconocen beneficios asociados a la eficiencia, el apoyo al aprendizaje y la personalización, pero también expresan preocupaciones sobre exactitud, privacidad, uso ético e integridad académica (Chan & Hu, 2023; Stöhr et al., 2024; Baek et al., 2024; Yusuf et al., 2024; Johnston et al., 2024).
La literatura enfatiza un doble efecto: puede elevar eficiencia y personalización, pero también inducir dependencia, desplazar pensamiento crítico y tensionar la evaluación si no existen orientaciones institucionales consistentes (Kasneci et al., 2023). Además, los modelos pueden producir respuestas plausibles pero incorrectas (“alucinaciones”), introduciendo riesgos de calidad informacional en procesos formativos y decisiones basadas en contenido generado (Wider et al., 2024). Por ello, el foco se desplaza hacia responsabilidad institucional, trazabilidad y controles (NIST, 2024).
2.2. Gobernanza responsable: políticas, controles y gestión del riesgo
La gestión institucional de IAG se entiende como decisiones, reglas y capacidades que habilitan y controlan su uso (políticas, roles, procesos, soporte, formación, monitoreo y controles) para maximizar beneficios y minimizar riesgos. La gobernanza se expresa en prácticas estructurales y procedimentales que coordinan decisiones, asignan responsabilidades y sostienen rendición de cuentas (Papagiannidis et al., 2025).
En el plano normativo, ISO/IEC 42001 aporta requisitos de sistema de gestión y mejora continua (ISO, 2023). En paralelo, NIST (AI RMF y perfil para IAG) define funciones organizacionales y salvaguardas sobre confiabilidad, seguridad, privacidad, transparencia y trazabilidad, enfatizando evaluación y mitigación sistemática del riesgo (NIST, 2023, 2024).
En educación, la gobernanza tiende a integrar marcos generales de tecnología con orientaciones específicas para IAG, lo que refuerza la necesidad de capacidad gerencial interna para reglas de uso, criterios de evaluación y soporte (OECD, 2023). UNESCO complementa este enfoque al enfatizar políticas de integridad, formación y salvaguardas de derechos, transparencia y seguridad, y al proponer competencias docentes en dominios éticos, pedagógicos y profesionales (UNESCO, 2023; UNESCO, 2024). En esta misma línea, estudios recientes sobre políticas universitarias de IA sostienen que una gobernanza efectiva requiere marcos institucionales explícitos, comunicación formal de lineamientos, delimitación de roles y responsabilidades, gestión de datos sensibles y recursos de apoyo para docentes y estudiantes, de modo que la adopción de la IAG no quede librada a respuestas dispersas o improvisadas (Chan, 2023; Wang et al., 2024; Jin et al., 2025; Ally & Mishra, 2025).
En línea con Papagiannidis et al. (2025), OECD (2023) y UNESCO (2023, 2024), una gobernanza universitaria efectiva requiere articular controles formales —como políticas, procesos y gestión del riesgo— con el desarrollo de capacidades humanas vinculadas a la ética, las competencias digitales y la toma de decisiones responsables, a fin de evitar respuestas fragmentadas o meramente declarativas. Esta articulación también resulta clave para resguardar la integridad académica, dado que el uso de IAG en contextos universitarios ha intensificado el debate sobre plagio, autoría, uso legítimo de asistencia automatizada y necesidad de lineamientos éticos institucionales más claros (Bin-Nashwan et al., 2023; Bittle & El-Gayar, 2025).
En universidades, la gobernanza suele operar con arreglos multiunidad y lineamientos de uso y responsabilidades, demandando coordinación interfuncional (Wider et al., 2024). La integridad académica es un riesgo crítico: evidencia muestra infiltración de producción generada por IA en evaluación con baja detectabilidad, afectando validez y credibilidad si no se fortalecen controles y rediseños (Scarfe et al., 2024), en un contexto presionado por contract cheating (Sweeney, 2023).
2.3. Calidad percibida: de SERVQUAL a HEdPERF en universidades
La calidad percibida del servicio es el juicio del usuario sobre excelencia del servicio en función de expectativas y desempeño percibido (Parasuraman et al., 1988). En educación superior se emplean dimensiones tipo fiabilidad, capacidad de respuesta, aseguramiento, empatía y tangibles.
SERVQUAL ofrece comparabilidad general, mientras HEdPERF incorpora dimensiones más específicas del contexto universitario y se orienta al desempeño del servicio educativo (Abdullah, 2005), facilitando diagnósticos más accionables. A esta discusión se han sumado desarrollos posteriores, como HESQUAL, así como estudios que muestran que la calidad del servicio en educación superior se asocia con satisfacción, imagen institucional, lealtad, intención de permanencia y comportamiento futuro del estudiante, lo que refuerza su pertinencia como indicador gerencial del desempeño universitario (Teeroovengadum et al., 2019; Ali et al., 2016; Tan et al., 2022; Rahman & Nasrin, 2024; Toscano-Hernández et al., 2024).
Evidencia reciente respalda su utilidad para evaluar desempeño percibido y su relación con satisfacción (Wider et al., 2024; Seitova et al., 2024). En este estudio, la calidad percibida se utiliza como indicador de desempeño del servicio desde la perspectiva del estudiante, coherente con un enfoque gerencial centrado en la experiencia del usuario.
2.4. Gestión y calidad: hipótesis y modelo
Se plantea que una gestión institucional percibida más robusta de IAG (reglas claras, orientación y soporte, integridad y gestión de riesgos) incrementa consistencia, seguridad y confiabilidad del servicio, elevando la calidad percibida. Este mecanismo es consistente con enfoques de gobernanza responsable y gestión de riesgos (Papagiannidis et al., 2025; NIST, 2023; NIST, 2024) y, en Perú, se vuelve más relevante por exigencias de licenciamiento y aseguramiento de condiciones básicas de calidad (SUNEDU, 2021).
Con el fin de asegurar coherencia entre el marco teórico y el modelo empírico, la gestión institucional percibida de la IAG se conceptualiza como un constructo multidimensional integrado por políticas y expectativas, soporte y capacitación, integridad y controles, y gestión de riesgos. Estas dimensiones se operacionalizan en el cuestionario y se vinculan con la calidad percibida del servicio educativo, medida mediante dimensiones adaptadas de los enfoques SERVQUAL y HEdPERF. Sobre esta base, se formulan las siguientes hipótesis:
H1. La gestión institucional percibida de la inteligencia artificial generativa se asocia positiva y significativamente con la calidad percibida del servicio educativo.
H1a. Las políticas y expectativas institucionales sobre el uso de la inteligencia artificial generativa se asocian positiva y significativamente con la calidad percibida del servicio educativo.
H1b. El soporte y la capacitación institucional sobre el uso de la inteligencia artificial generativa se asocian positiva y significativamente con la calidad percibida del servicio educativo.
H1c. La integridad y los controles institucionales vinculados al uso de la inteligencia artificial generativa se asocian positiva y significativamente con la calidad percibida del servicio educativo.
H1d. La gestión institucional de riesgos asociados al uso de la inteligencia artificial generativa, en términos de privacidad, seguridad, transparencia y trazabilidad, se asocia positiva y significativamente con la calidad percibida del servicio educativo.
De este modo, el modelo propuesto permite evaluar tanto la relación global entre la gestión institucional percibida de la IAG y la calidad percibida del servicio educativo, como el peso específico de cada una de sus dimensiones. El uso de PLS-SEM se justifica por su adecuación al análisis de constructos latentes y a objetivos explicativo-predictivos (Hair et al., 2021). El Cuadro 1 sintetiza el puente teórico-operativo del modelo planteado.
Cuadro 1
Puente teórico–operativo del modelo
|
Constructo |
Dimensiones |
Qué observa el estudiante |
Hipótesis |
|
Gestión institucional percibida de IAG |
Políticas/expectativas; soporte/capacitación; integridad/controles; gestión de riesgos |
Reglas comunicadas, orientación disponible, controles visibles en evaluación, salvaguardas de privacidad/seguridad |
H1, H1a–H1d |
|
Calidad percibida del servicio educativo |
Dimensiones SERVQUAL/HEdPERF adaptadas |
Consistencia del servicio, respuesta institucional, confianza, trato, infraestructura (incl. digital) |
Endógeno |
Este trabajo aporta al integrar la gobernanza institucional de la IAG como constructo perceptual medido desde el estudiante y vincularlo con un resultado gerencial —la calidad percibida del servicio educativo—, proponiendo un modelo empírico replicable en universidades latinoamericanas y, en particular, en contextos sometidos a exigencias de aseguramiento de la calidad.
3. Metodología: encuesta estudiantil y PLS-SEM para evaluar relaciones latentes
Esta sección describe el diseño metodológico y las decisiones técnicas empleadas para contrastar el modelo propuesto. Se detallan el enfoque, diseño y alcance del estudio, así como el contexto, población y muestra. Además, se presentan los instrumentos y escalas utilizados, el procedimiento de aplicación, la estrategia de análisis mediante PLS-SEM y las consideraciones éticas seguidas durante el trabajo de campo.
El estudio se desarrolló desde un enfoque cuantitativo, con diseño no experimental, transversal y alcance correlacional, orientado a estimar la asociación entre la gestión institucional percibida de la inteligencia artificial generativa (IAG) y la calidad percibida del servicio educativo. Para el análisis del modelo se empleó la técnica de ecuaciones estructurales por mínimos cuadrados parciales (PLS-SEM), debido a su pertinencia para estudios con fines explicativo-predictivos y para la evaluación simultánea del modelo de medición y del modelo estructural en investigaciones con constructos latentes y escalas psicométricas (Hair et al., 2021).
La investigación se realizó en una universidad del Perú y tuvo como unidad de análisis la experiencia del estudiante de pregrado en relación con el servicio educativo y con las prácticas institucionales asociadas al uso de la IAG. La población estuvo conformada por 4860 estudiantes matriculados durante el periodo de levantamiento de información. A partir de ello, se aplicó un muestreo probabilístico estratificado proporcional, considerando como estratos la facultad o escuela profesional y el ciclo académico. Sobre esa base, se seleccionó a 820 estudiantes, de los cuales se obtuvieron 345 respuestas; luego del proceso de depuración por completitud y consistencia, la muestra final quedó constituida por 312 estudiantes, lo que representó una tasa de respuesta efectiva de 38,0 %.
La recolección de datos se efectuó mediante un cuestionario estructurado compuesto por tres bloques. El primero estuvo orientado a medir la gestión institucional percibida del uso de inteligencia artificial generativa a partir de cuatro dimensiones: políticas y expectativas, soporte y capacitación, integridad y controles, y gestión de riesgos. Estas dimensiones fueron formuladas como prácticas institucionales observables por el estudiante y se alinearon con enfoques de gobernanza responsable y gestión de riesgos en inteligencia artificial (Papagiannidis et al., 2025; NIST, 2023; NIST, 2024). El segundo bloque midió la calidad percibida del servicio educativo a partir de ítems adaptados de escalas consolidadas de calidad de servicio en educación superior (Parasuraman et al., 1988; Abdullah, 2005). El tercer bloque incluyó variables de control relacionadas con el perfil del estudiante y con su experiencia de uso de inteligencia artificial generativa, entre ellas sexo, edad, facultad o escuela, ciclo académico y frecuencia de uso. Los ítems de los constructos principales se respondieron mediante una escala Likert de siete puntos, donde 1 correspondió a “totalmente en desacuerdo” y 7 a “totalmente de acuerdo” (Hair et al., 2021).
Antes de la aplicación definitiva, el instrumento fue sometido a validación de contenido mediante juicio de expertos en gestión universitaria, calidad educativa e inteligencia artificial/ética, quienes evaluaron la claridad, relevancia y suficiencia de los ítems. A partir de sus observaciones se realizaron ajustes de redacción y precisión conceptual (Lawshe, 1975). La aplicación del cuestionario se realizó en formato digital entre el 6 de mayo y el 2 de junio de 2025, garantizando la participación voluntaria, el anonimato y la confidencialidad de la información mediante consentimiento informado previo. Asimismo, se implementaron controles para asegurar la calidad del dato, tales como la verificación de unicidad de respuesta por participante, la revisión de patrones de respuesta inverosímiles y la eliminación de registros incompletos conforme a criterios previamente establecidos.
El procesamiento y análisis de los datos se realizó en SmartPLS 4. Previamente, se revisaron valores perdidos, posibles valores atípicos y patrones de respuesta. Los valores faltantes fueron bajos, inferiores al 2 % por ítem, por lo que se optó por la eliminación de casos cuando la falta de respuesta afectaba a los constructos principales. El modelo de medición fue evaluado bajo una especificación reflectiva, considerando la consistencia interna mediante alfa de Cronbach, rho_A y fiabilidad compuesta, así como la validez convergente a través de la varianza media extraída. La validez discriminante se examinó con el criterio HTMT (Henseler et al., 2015) y la colinealidad mediante el factor de inflación de la varianza. Posteriormente, el modelo estructural fue estimado mediante bootstrapping con 5.000 remuestras, reportándose coeficientes estandarizados, niveles de significancia, intervalos de confianza, varianza explicada, tamaños de efecto y relevancia predictiva (Hair et al., 2021). Dado que la información provino de autoinforme, también se consideró la posible presencia de sesgo por método común, el cual fue mitigado mediante decisiones de diseño del instrumento y contrastado mediante una prueba estadística reportable (Kock, 2017; Podsakoff et al., 2003).
En el plano ético, se garantizó que la información recolectada fuera utilizada exclusivamente con fines académicos. La participación de los estudiantes fue voluntaria y anónima, previa aceptación del consentimiento informado. Los datos fueron almacenados en un repositorio institucional con acceso restringido al equipo investigador durante los seis meses posteriores al cierre del levantamiento, y posteriormente resguardados conforme a la normativa interna vigente.
4. Dimensiones institucionales que mueven la calidad percibida
En esta sección se presentan los resultados obtenidos a partir de la encuesta aplicada a estudiantes. Primero, se describe la caracterización de la muestra; luego se reportan estadísticos descriptivos de la gestión institucional percibida de la IAG y de la calidad percibida del servicio. Posteriormente, se evalúa el modelo de medición (fiabilidad y validez) y, finalmente, se exponen los hallazgos del modelo estructural y el contraste de hipótesis.
4.1. Características de la muestra
Se obtuvieron 312 cuestionarios válidos de estudiantes de pregrado de una universidad del Perú. La distribución por sexo fue 56,4% mujeres (n = 176) y 43,6% hombres (n = 136). La edad promedio fue M = 20,8 años (DE = 2,1), con mayor concentración en el rango 20–22 años (45,5%), seguido de 17–19 años (37,8%) y 23 años o más (16,7%). La Tabla 1 presenta la caracterización sociodemográfica y académica, así como la frecuencia de uso de IAG.
Tabla 1
Características de la muestra (n = 312)
|
Variable |
Categoría |
n |
% |
|
Sexo |
Mujer |
176 |
56,4 |
|
Hombre |
136 |
43,6 |
|
|
Edad |
17–19 |
118 |
37,8 |
|
20–22 |
142 |
45,5 |
|
|
23+ |
52 |
16,7 |
|
|
Facultad/Escuela |
Ciencias Sociales |
84 |
26,9 |
|
Ingenierías |
96 |
30,8 |
|
|
Ciencias Empresariales |
72 |
23,1 |
|
|
Salud |
60 |
19,2 |
|
|
Ciclo académico |
1–3 |
104 |
33,3 |
|
4–6 |
132 |
42,3 |
|
|
7–10 |
76 |
24,4 |
|
|
Frecuencia de uso de IAG |
Nunca |
46 |
14,7 |
|
Ocasional |
168 |
53,8 |
|
|
Frecuente |
98 |
31,4 |
Nota. n = frecuencia; % = porcentaje.
4.2. Nivel percibido de gestión institucional de IAG y calidad del servicio
La Tabla 2 presenta las medias y desviaciones estándar de los constructos y dimensiones evaluadas en escala Likert de 7 puntos. La gestión institucional percibida de IAG registró un promedio global de M = 4,72 (DE = 1,02). Por dimensiones, el promedio más alto correspondió a gestión de riesgos (M = 5,08; DE = 1,05) y el más bajo a soporte y capacitación (M = 4,35; DE = 1,20).
La calidad percibida del servicio educativo presentó un promedio global de M = 4,95 (DE = 0,88). Entre sus dimensiones, seguridad/confianza alcanzó M = 5,10 (DE = 0,92) y capacidad de respuesta registró M = 4,78 (DE = 1,00).
Tabla 2
Estadísticos descriptivos de constructos y dimensiones
(escala 1-7)
|
Constructo / dimensión |
k |
M |
DE |
Min–Max |
|
Gestión institucional percibida de IAG (global) |
16 |
4,72 |
1,02 |
1,50–7,00 |
|
Políticas y expectativas |
4 |
4,60 |
1,15 |
1,00–7,00 |
|
Soporte y capacitación |
4 |
4,35 |
1,20 |
1,00–7,00 |
|
Integridad y controles |
4 |
4,85 |
1,10 |
1,00–7,00 |
|
Gestión de riesgos |
4 |
5,08 |
1,05 |
1,25–7,00 |
|
Calidad percibida del servicio educativo (global) |
18 |
4,95 |
0,88 |
2,11–7,00 |
|
Fiabilidad/consistencia |
4 |
5,02 |
0,95 |
2,00–7,00 |
|
Capacidad de respuesta |
4 |
4,78 |
1,00 |
1,75–7,00 |
|
Seguridad/confianza |
4 |
5,10 |
0,92 |
2,00–7,00 |
|
Empatía/trato |
3 |
4,83 |
0,98 |
1,67–7,00 |
|
Tangibles/infraestructura (incl. digital) |
3 |
5,03 |
0,97 |
2,00–7,00 |
Nota. k = número de ítems; M = media; DE = desviación estándar; Min–Max = rango observado.
4.3. Modelo de medición: fiabilidad y validez
La consistencia interna se estimó mediante alfa de Cronbach (α), rho_A y confiabilidad compuesta (CR). Los coeficientes indicaron niveles adecuados: α osciló entre 0,80 y 0,91, rho_A entre 0,81 y 0,91, y CR entre 0,88 y 0,93. La validez convergente se evidenció con AVE superiores a 0,50 (0,56–0,74) (Tabla 3).
Tabla 3
Fiabilidad y validez convergente del modelo de medición
|
Constructo |
α |
rho_A |
CR |
AVE |
|
Políticas y expectativas |
0,86 |
0,87 |
0,91 |
0,71 |
|
Soporte y capacitación |
0,88 |
0,89 |
0,92 |
0,74 |
|
Integridad y controles |
0,84 |
0,85 |
0,90 |
0,69 |
|
Gestión de riesgos |
0,82 |
0,83 |
0,89 |
0,67 |
|
Fiabilidad/consistencia |
0,85 |
0,86 |
0,90 |
0,69 |
|
Capacidad de respuesta |
0,87 |
0,88 |
0,92 |
0,74 |
|
Seguridad/confianza |
0,83 |
0,84 |
0,90 |
0,70 |
|
Empatía/trato |
0,80 |
0,81 |
0,88 |
0,71 |
|
Tangibles/infraestructura |
0,81 |
0,82 |
0,89 |
0,73 |
|
Calidad percibida (global) |
0,91 |
0,91 |
0,93 |
0,58 |
|
Gestión institucional percibida de IAG (global) |
0,90 |
0,90 |
0,92 |
0,56 |
Nota. α = alfa de Cronbach; CR = confiabilidad compuesta; AVE = varianza media extraída.
La validez discriminante se evaluó mediante HTMT. La Tabla 4 muestra valores HTMT por debajo de umbrales de referencia, sin exceder 0,85 en las comparaciones principales.
Tabla 4
Validez discriminante (HTMT)
|
|
Calidad |
IAG |
Políticas |
Soporte |
Integridad |
Riesgos |
|
Calidad |
— |
0,62 |
0,45 |
0,41 |
0,54 |
0,50 |
|
IAG |
0,62 |
— |
0,74 |
0,78 |
0,71 |
0,69 |
|
Políticas |
0,45 |
0,74 |
— |
0,72 |
0,63 |
0,60 |
|
Soporte |
0,41 |
0,78 |
0,72 |
— |
0,66 |
0,64 |
|
Integridad |
0,54 |
0,71 |
0,63 |
0,66 |
— |
0,70 |
|
Riesgos |
0,50 |
0,69 |
0,60 |
0,64 |
0,70 |
— |
Nota. Criterio: HTMT < 0,85.
4.4. Modelo estructural: contraste de hipótesis y capacidad predictiva
Los coeficientes de ruta se estimaron mediante bootstrapping con 5.000 remuestras. La Tabla 5 presenta los resultados para H1a–H1d. Las rutas políticas y expectativas → calidad (β = 0,18; p = 0,012), integridad y controles → calidad (β = 0,26; p < 0,001) y gestión de riesgos → calidad (β = 0,21; p = 0,003) fueron estadísticamente significativas. La ruta soporte y capacitación → calidad no alcanzó significancia estadística (β = 0,09; p = 0,150). Los tamaños de efecto f² oscilaron entre 0,01 y 0,10.
Tabla 5
Resultados del modelo estructural (bootstrapping 5.000 remuestras)
|
Hipótesis / Ruta |
β |
EE |
t |
p |
IC 95% |
f² |
VIF |
|
H1a: Políticas → Calidad |
0,18 |
0,07 |
2,52 |
0,012 |
[0,04; 0,31] |
0,05 |
1,78 |
|
H1b: Soporte → Calidad |
0,09 |
0,06 |
1,44 |
0,150 |
[-0,03; 0,21] |
0,01 |
2,41 |
|
H1c: Integridad → Calidad |
0,26 |
0,07 |
3,70 |
<0,001 |
[0,12; 0,39] |
0,10 |
1,92 |
|
H1d: Riesgos → Calidad |
0,21 |
0,07 |
3,02 |
0,003 |
[0,07; 0,35] |
0,07 |
1,38 |
Nota. β = coeficiente estandarizado; EE = error estándar; IC 95% = intervalo de confianza; f² = tamaño de efecto; VIF = factor de inflación de varianza.
Se evaluó la colinealidad entre predictores del constructo endógeno (calidad percibida), registrándose VIF entre 1,38 y 2,41. El modelo explicó el 46% de la varianza de la calidad percibida (R² = 0,46; R² ajustado = 0,45) y mostró relevancia predictiva (Q² = 0,31).
Dado el uso de autoinforme en un único cuestionario, se evaluó el sesgo por método común mediante el enfoque de colinealidad completa. Los VIF de colinealidad completa se mantuvieron por debajo del umbral conservador de 3,3; no se observaron indicios de sesgo severo por método común.
En este sentido, los resultados muestran que la gestión institucional percibida de la IAG se asocia positivamente con la calidad percibida del servicio educativo, con capacidad explicativa moderada. Gerencialmente, esto sugiere que la institucionalización visible de reglas, controles y salvaguardas opera como señal de consistencia y confiabilidad del servicio, coherente con enfoques de calidad de servicio centrados en expectativas y desempeño percibido (Parasuraman et al., 1988; Seitova et al., 2024).
En primer lugar, la claridad percibida de políticas y expectativas se asoció con mayor calidad percibida. Este hallazgo es consistente con evidencia de que las universidades difieren en precisión normativa y en el grado en que traducen lineamientos a prácticas operativas, lo que condiciona la experiencia del estudiantado (Xiao et al., 2023; McDonald et al., 2024; Wang et al., 2024; Jin et al., 2025). Desde gestión, reglas comunicadas y aplicables reducen ambigüedad (qué se permite, en qué condiciones y con qué responsabilidad), disminuyen variabilidad entre cursos/unidades y fortalecen rendición de cuentas, elevando la fiabilidad percibida del servicio.
En segundo lugar, integridad y controles mostraron asociación positiva. La IAG desplaza la frontera entre apoyo legítimo y deshonestidad, con impacto directo en credibilidad de la evaluación y de las credenciales (Sweeney, 2023). Evidencia de infiltración de producción generada por IA con baja detectabilidad refuerza la necesidad de controles procedimentales y rediseños de evaluación (Scarfe et al., 2024; Bin-Nashwan et al., 2023; Bittle & El-Gayar, 2025; Johnston et al., 2024). En términos de servicio, la percepción de justicia procedimental y consistencia (p. ej., criterios explícitos, verificación, trazabilidad y consecuencias) puede elevar la confianza del estudiante, influyendo en el juicio global de calidad.
En tercer lugar, la gestión de riesgos percibida (privacidad, seguridad, transparencia y trazabilidad) se asoció con mayor calidad percibida. Este resultado se alinea con marcos que conciben el riesgo de IA como función organizacional continua (NIST, 2023) y con salvaguardas específicas para IAG (NIST, 2024), así como con el enfoque de sistema de gestión y mejora continua (ISO, 2023). Considerando límites técnicos como “alucinaciones” y riesgos de calidad informacional (Huang et al., 2025), además de exigencias regulatorias emergentes (Regulation (EU) 2024/1689, 2024), es plausible que señales institucionales de protección de datos y control de riesgos se traduzcan en percepciones de seguridad/confianza y, por extensión, en mayor calidad percibida.
En contraste, soporte y capacitación no fueron significativos. Una explicación es su visibilidad variable: si el soporte/capacitación no se integra a momentos críticos del servicio (evaluación, comunicación de reglas, canales de consulta, herramientas institucionales de verificación), puede quedar fuera del radar perceptual del estudiante. Esto es consistente con marcos de competencias que subrayan que el impacto depende de continuidad, accesibilidad y alineamiento con necesidades reales (UNESCO, 2024; Chan, 2023; Ally & Mishra, 2024), y con la literatura que enfatiza supervisión humana sostenida para mitigar errores y sesgos (Kasneci et al., 2023).
6. Conclusiones
El objetivo central de esta investigación fue analizar la relación entre la gestión institucional percibida de la inteligencia artificial generativa (IAG) y la calidad percibida del servicio educativo en una universidad peruana. En función de los resultados obtenidos, se concluye que existe una asociación positiva y significativa entre ambos constructos, lo que permite afirmar que, desde la perspectiva estudiantil, una gestión institucional más clara, visible y estructurada del uso de la IAG contribuye a una valoración más favorable de la calidad del servicio educativo.
De manera específica, los hallazgos evidencian que las dimensiones con mayor capacidad explicativa fueron las políticas y expectativas institucionales, la integridad y los controles vinculados a la evaluación, y la gestión explícita de riesgos asociados a la privacidad, la seguridad, la transparencia y la trazabilidad. Esto sugiere que la institucionalización de reglas claras, mecanismos de supervisión y salvaguardas frente a los riesgos de la IAG fortalece la percepción de consistencia, confiabilidad y seguridad del servicio educativo. En contraste, la dimensión soporte y capacitación no mostró una asociación significativa, lo que indica que su impacto depende no solo de su existencia formal, sino de su integración efectiva en momentos críticos de la experiencia estudiantil, como la evaluación, la comunicación de normas de uso y la disponibilidad de canales de orientación y consulta.
En términos de implicancias prácticas, los resultados permiten sostener que la gestión universitaria no debe limitarse a permitir o restringir el uso de la IAG, sino que debe avanzar hacia la construcción de marcos institucionales coherentes, visibles y operativos, capaces de orientar su uso pedagógico y administrativo sin comprometer la integridad académica ni la confianza en el servicio educativo. En el contexto peruano, donde los procesos de licenciamiento y aseguramiento de la calidad incrementan el costo reputacional y regulatorio de las inconsistencias institucionales, estas decisiones adquieren un carácter estratégico para la sostenibilidad y legitimidad de las universidades.
Entre las principales limitaciones del estudio, se reconoce que el diseño transversal impide establecer relaciones causales definitivas, mientras que el uso de autoinforme y la realización de la investigación en una sola institución restringen la generalización de los hallazgos. En consecuencia, futuras investigaciones deberían ampliar la validez externa del modelo mediante estudios comparativos entre universidades, diseños longitudinales, mediciones multifuente e incorporación de indicadores operacionales vinculados con integridad académica, adopción tecnológica y desempeño institucional.
Referencias
Abdullah, F. (2005). HEdPERF versus SERVPERF: The quest for ideal measuring instrument of service quality in higher education sector. Quality Assurance in Education, 13(4), 305-328. https://doi.org/10.1108/09684880510626584
Ally, M., & Mishra, S. (2025). Policies for artificial intelligence in higher education: A call for action. Canadian Journal of Learning and Technology, 50(3), 1–12. https://doi.org/10.21432/cjlt28869
Ali, F., Zhou, Y., Hussain, K., Nair, P. K., & Ragavan, N. A. (2016). Does higher education service quality effect student satisfaction, image and loyalty? A study of international students in Malaysian public universities. Quality Assurance in Education, 24(1), 70–94. https://doi.org/10.1108/QAE-02-2014-0008
Baek, C., Tate, T., & Warschauer, M. (2024). “ChatGPT seems too good to be true”: College students’ use and perceptions of generative AI. Computers and Education: Artificial Intelligence, 7, 100294. https://doi.org/10.1016/j.caeai.2024.100294
Bin-Nashwan, S. A., Sadallah, M., & Bouteraa, M. (2023). Use of ChatGPT in academia: Academic integrity hangs in the balance. Technology in Society, 75, 102370. https://doi.org/10.1016/j.techsoc.2023.102370
Bittle, K., & El-Gayar, O. (2025). Generative AI and academic integrity in higher education: A systematic review and research agenda. Information, 16(4), 296. https://doi.org/10.3390/info16040296
Chan, C. K. Y. (2023). A comprehensive AI policy education framework for university teaching and learning. International Journal of Educational Technology in Higher Education, 20, 38. https://doi.org/10.1186/s41239-023-00408-3
Chan, C. K. Y., & Hu, W. (2023). Students’ voices on generative AI: Perceptions, benefits, and challenges in higher education. International Journal of Educational Technology in Higher Education, 20, 43. https://doi.org/10.1186/s41239-023-00411-8
Fui-Hoon Nah, F., Zheng, R., Cai, J., Siau, K., & Chen, L. (2023). Generative AI and ChatGPT: Applications, challenges, and AI-human collaboration. Journal of Information Technology Case and Application Research, 25(3), 277-304. https://doi.org/10.1080/15228053.2023.2233814
Hair, J. F., Hult, G. T. M., Ringle, C. M., Sarstedt, M., Danks, N. P., & Ray, S. (2021). Partial Least Squares Structural Equation Modeling (PLS-SEM) Using R: A Workbook. Springer International Publishing. https://doi.org/10.1007/978-3-030-80519-7
Henseler, J., Ringle, C. M., & Sarstedt, M. (2015). A new criterion for assessing discriminant validity in variance-based structural equation modeling. Journal of the Academy of Marketing Science, 43(1), 115-135. https://doi.org/10.1007/s11747-014-0403-8
Huang, L., Yu, W., Ma, W., Zhong, W., Feng, Z., Wang, H., Chen, Q., Peng, W., Feng, X., Qin, B., & Liu, T. (2025). A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions. ACM Transactions on Information Systems, 43(2), 1-55. https://doi.org/10.1145/3703155
International Organization for Standardization- ISO (2023). Information technology—Artificial intelligence—Management system (International Standard ISO/IEC ٤٢٠٠١:٢٠٢٣; ١.a ed.). ISO. https://www.iso.org/standard/42001
Jin, Y., Yan, L., Echeverria, V., Gašević, D., & Martinez-Maldonado, R. (2025). Generative AI in higher education: A global perspective of institutional adoption policies and guidelines. Computers and Education: Artificial Intelligence, 8, 100348. https://doi.org/10.1016/j.caeai.2024.100348
Johnston, H., Wells, R. F., Shanks, E. M., Boey, T., & Parsons, B. N. (2024). Student perspectives on the use of generative artificial intelligence technologies in higher education. International Journal for Educational Integrity, 20, 2. https://doi.org/10.1007/s40979-024-00149-4
Kasneci, E., Sessler, K., Küchemann, S., Bannert, M., Dementieva, D., Fischer, F., Gasser, U., Groh, G., Günnemann, S., Hüllermeier, E., Krusche, S., Kutyniok, G., Michaeli, T., Nerdel, C., Pfeffer, J., Poquet, O., Sailer, M., Schmidt, A., Seidel, T., … Kasneci, G. (2023). ChatGPT for good? On opportunities and challenges of large language models for education. Learning and Individual Differences, 103, 102274. https://doi.org/10.1016/j.lindif.2023.102274
Kock, N. (2017). Common Method Bias: A Full Collinearity Assessment Method for PLS-SEM. En H. Latan & R. Noonan (Eds.), Partial Least Squares Path Modeling (pp. ٢٤٥-٢٥٧). Springer International Publishing. https://doi.org/10.1007/978-3-319-64069-3_11
Lawshe, C. H. (1975). A quantitative approach to content validity. Personnel Psychology, 28(4), 563-575. https://doi.org/10.1111/j.1744-6570.1975.tb01393.x
McDonald, N., Johri, A., Ali, A., & Hingle, A. (2024). Generative Artificial Intelligence in Higher Education: Evidence from an Analysis of Institutional Policies and Guidelines (Versión ١). arXiv. https://doi.org/10.48550/ARXIV.2402.01659
National Institute of Standards and Technology (US). (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0) (NIST AI ١٠٠-١; p. NIST AI ١٠٠-١). National Institute of Standards and Technology (U.S.). https://doi.org/10.6028/NIST.AI.100-1
National Institute of Standards and Technology (US). (2024). Artificial intelligence risk management framework: Generative artificial intelligence profile (Error: 600-1; p. error: 600-1). National Institute of Standards and Technology (U.S.). https://doi.org/10.6028/NIST.AI.600-1
OECD. (2023). OECD Digital Education Outlook 2023: Towards an Effective Digital Education Ecosystem. OECD Publishing. https://doi.org/10.1787/c74f03de-en
Papagiannidis, E., Mikalef, P., & Conboy, K. (2025). Responsible artificial intelligence governance: A review and research framework. The Journal of Strategic Information Systems, 34(2), 101885. https://doi.org/10.1016/j.jsis.2024.101885
Parasuraman, A., Zeithaml, V. A., & Berry, L. L. (1988). SERVQUAL: A multiple-item scale for measuring consumer perceptions of service quality. Journal of Retailing, 64(1), 12–40.
Podsakoff, P. M., MacKenzie, S. B., Lee, J.-Y., & Podsakoff, N. P. (2003). Common method biases in behavioral research: A critical review of the literature and recommended remedies. Journal of Applied Psychology, 88(5), 879-903. https://doi.org/10.1037/0021-9010.88.5.879
Rahman, M. M., & Nasrin, S. (2024). Perceived service quality at higher education institutions: A study on the success factors of total quality management practices in Bangladesh. Social Sciences & Humanities Open, 10, 100997. https://doi.org/10.1016/j.ssaho.2024.100997
Scarfe, P., Watcham, K., Clarke, A., & Roesch, E. (2024). A real-world test of artificial intelligence infiltration of a university examinations system: A “Turing test” case study. PLOS ONE, 19(6), e0305354. https://doi.org/10.1371/journal.pone.0305354
Seitova, M., Temirbekova, Z., Kazykhankyzy, L., Khalmatova, Z., & Çelik, H. E. (2024). Perceived service quality and student satisfaction: A case study at Khoja Akhmet Yassawi University, Kazakhstan. Frontiers in Education, 9, 1492432. https://doi.org/10.3389/feduc.2024.1492432
Stöhr, C., Ou, A. W., & Malmström, H. (2024). Perceptions and usage of AI chatbots among students in higher education across genders, academic levels and fields of study. Computers and Education: Artificial Intelligence, 7, 100259. https://doi.org/10.1016/j.caeai.2024.100259
Superintendencia Nacional de Educación Superior Universitaria. (2021). Aprueban el Modelo de Renovación de Licencia Institucional y modifican la Resolución del Consejo Directivo N° 008-2017-SUNEDU/CD que aprobó las “Medidas de simplificación administrativa para el licenciamiento institucional” y el “Reglamento del procedimiento de licenciamiento institucional” (Resolución del Consejo Directivo N° ٠٩١-٢٠٢١-SUNEDU-CD; p. ٤٩). Superintendencia Nacional de Educación Superior Universitaria (SUNEDU). https://www.gob.pe/institucion/sunedu/normas-legales/٢١٣١٧١٤-٠٩١-٢٠٢١-sunedu-cd
Sweeney, S. (2023). Who wrote this? Essay mills and assessment – Considerations regarding contract cheating and AI in higher education. The International Journal of Management Education, 21(2), 100818. https://doi.org/10.1016/j.ijme.2023.100818
Tan, P. S. H., Choong, Y. O., & Chen, I.-C. (2022). The effect of service quality on behavioural intention: The mediating role of student satisfaction and switching barriers in private universities. Journal of Applied Research in Higher Education, 14(4), 1394–1413. https://doi.org/10.1108/JARHE-03-2021-0122
Teeroovengadum, V., Nunkoo, R., Grönroos, C., Kamalanabhan, T. J., & Seebaluck, A. K. (2019). Higher education service quality, student satisfaction and loyalty: Validating the HESQUAL scale and testing an improved structural model. Quality Assurance in Education, 27(4), 427–445. https://doi.org/10.1108/QAE-01-2019-0003
Toscano-Hernández, A. E., Álvarez-González, L. I., Sanzo-Pérez, M. J., & Esparza Rodríguez, S. A. (2024). Calidad del servicio en la educación superior: Una revisión sistemática de la literatura 2007–2023. Estudios Gerenciales, 40(170), 13–30. https://doi.org/10.18046/j.estger.2024.170.6244
United Nations Educational, Scientific and Cultural Organization. (2023). Guidance for generative AI in education and research. UNESCO Publishing.
United Nations Educational, Scientific and Cultural Organization. (2024). AI competency framework for teachers. UNESCO. https://doi.org/10.54675/ZJTE2084
Wang, H., Dang, A., Wu, Z., & Mac, S. (2024). Generative AI in higher education: Seeing ChatGPT through universities’ policies, resources, and guidelines. Computers and Education: Artificial Intelligence, 7, 100326. https://doi.org/10.1016/j.caeai.2024.100326
Wider, W., Tan, F. P., Tan, Y. P., Lin, J., Fauzi, M. A., Wong, L. S., Tanucan, J. C. M., & Hossain, S. F. A. (2024). Service quality (SERVQUAL) model in private higher education institutions: A bibliometric analysis of past, present, and future prospects. Social Sciences & Humanities Open, 9, 100805. https://doi.org/10.1016/j.ssaho.2024.100805
Xiao, P., Chen, Y., & Bao, W. (2023). Waiting, Banning, and Embracing: An Empirical Analysis of Adapting Policies for Generative AI in Higher Education (Versión ١). arXiv. https://doi.org/١٠.٤٨٥٥٠/ARXIV.٢٣٠٥.١٨٦١٧
Yusuf, A., Pervin, N., & Román-González, M. (2024). Generative AI and the future of higher education: A threat to academic integrity or reformation? Evidence from multicultural perspectives. International Journal of Educational Technology in Higher Education, 21, 21. https://doi.org/10.1186/s41239-024-00453-6