Universidad del Zulia (LUZ)

Revista Venezolana de Gerencia (RVG)

Año 29 No. 106, 2024, 817-830

ABRIL-JUNIO

ISSN 1315-9984 / e-ISSN 2477-9423

Como citar: Cedeño, J. G., Maitta, I. S., Vélez, M. L., y Palomeque, J. Y. (2024). Investigación universitaria con inteligencia artificial. Revista Venezolana De Gerencia29(106), 817-830. https://doi.org/10.52080/rvgluz.29.106.23

Investigación universitaria con inteligencia artificial

Cedeño Meza, Jorge Guillermo*

Maitta Rosado, Inger Solange**

Vélez Zambrano, Mónica Liliana***

Palomeque Zambrano, Jeniffer Yadira****

Resumen

En las últimas décadas, hemos sido testigos de un rápido y significativo cambio en el paradigma de la investigación universitaria gracias a la incorporación progresiva de la Inteligencia Artificial. La investigación universitaria, tradicionalmente anclada en métodos y enfoques convencionales, ha experimentado una revolución impulsada por la capacidad de la IA para procesar grandes cantidades de datos, identificar patrones complejos y generar conocimientos predictivos. Este trabajo tiene como objetivo analizar la percepción de los docentes en torno a los desafíos éticos asociados con el uso de inteligencia artificial en entornos académicos y proponer enfoques para abordarlos. Para ello, fue aplicada una encuesta con escala de Likert a una comunidad de docentes universitarios. Los resultados revelan un alto grado de acuerdo con la existencia de desafíos éticos significativos asociados con el uso de inteligencia artificial en la investigación universitaria. Se destacan la falta de transparencia en los algoritmos, la identificación de sesgos éticos y la necesidad de políticas institucionales claras fueron temas prominentes.

Palabras clave: inteligencia artificial; investigación; docentes universitarios.

Recibido: 16.10.23 Aceptado: 05-12-23

* Universidad Técnica de Manabí. Doctor en Psicología y Educación. Docente Titular de la Facultad de Ciencias Humanísticas y Sociales, Departamento de Ciencias del Comportamiento. Email: jgcmeza@gmail.com ORCID: http://orcid.org/0000-0003-4898-3096

** Universidad Técnica de Manabí. Magister En Educación y Desarrollo Social. Docente Titular de la Facultad de Ciencias Humanísticas y Sociales, Departamento de Ciencias del Comportamiento. Email: inger.maitta@utm.edu.ec ORCID: https://orcid.org/0000-0002-8695-5208

*** Licenciada en Trabajo Social. Magister en Desarrollo Local. Docente Tiempo Completo en la Universidad Estatal de Milagro. Facultad de Ciencias Sociales, Educación Comercial y Derecho, Ecuador. Email: Email: mvelezz7@unemi.edu.ec. ORCID: https://orcid.org/0009-0007-3666-0368

**** Licenciada en Trabajo Social. Máster en Intervención Social en las Sociedades del Conocimiento. Docente de Medio Tiempo en la Universidad Estatal de Milagro. Facultad de Ciencias Sociales, Educación Comercial y Derecho, Ecuador. E-mail: jeni.96.06.08@gmail.com. ORCID: https://orcid.org/0009-0002-5872-9673

University research with artificial intelligence

Abstract

In recent decades, we have witnessed a rapid and significant change in the paradigm of university research thanks to the progressive incorporation of Artificial Intelligence (AI). University research, traditionally anchored in conventional methods and approaches, has undergone a revolution driven by AI’s ability to process large amounts of data, identify complex patterns and generate predictive insights. This work aims to analyze teachers’ perceptions of the ethical challenges associated with the use of artificial intelligence in academic environments and propose approaches to address them. To do this, a survey with a Likert scale was applied to a community of university teachers. The results reveal a high degree of agreement with the existence of significant ethical challenges associated with the use of artificial intelligence in university research. The lack of transparency in algorithms, the identification of ethical biases and the need for clear institutional policies were prominent themes.

Keywords: artificial intelligence; research; university teachers.

1. Introducción

En las últimas décadas, hemos sido testigos de un rápido y significativo cambio en el paradigma de la investigación universitaria gracias a la incorporación progresiva de la Inteligencia Artificial (IA) (Ausín, 2021). Este fenómeno responde a la convergencia de avances tecnológicos, la explosión de datos y el reconocimiento de las capacidades transformadoras de la IA en diversos ámbitos académicos.

La investigación universitaria, tradicionalmente anclada en métodos y enfoques convencionales, ha experimentado una revolución impulsada por la capacidad de la IA para procesar grandes cantidades de datos, identificar patrones complejos y generar conocimientos predictivos. Esta transformación no solo ha afectado a disciplinas científicas y tecnológicas, sino que también ha permeado las humanidades, las ciencias sociales y las artes, redefiniendo la forma en que los académicos abordan sus investigaciones (Haenlein y Kaplan, 2019).

Un impulsor clave de esta evolución es la capacidad de la IA para acelerar la velocidad del descubrimiento científico. Algoritmos avanzados permiten analizar datos a una escala previamente inimaginable, lo que facilita la identificación de relaciones causales, la formulación de hipótesis y el descubrimiento de tendencias emergentes. Esto no solo ha llevado a avances sustanciales en la eficiencia de la investigación, sino que también ha propiciado la apertura de nuevas áreas de indagación y exploración.

En el ámbito de la investigación aplicada, la IA ha demostrado ser una aliada poderosa. Desde el diseño de experimentos hasta la interpretación de resultados, los sistemas basados en IA han proporcionado herramientas valiosas para optimizar procesos, mitigar sesgos y mejorar la reproducibilidad de los estudios. La capacidad de automatizar tareas rutinarias ha liberado tiempo para los investigadores, permitiéndoles centrarse en aspectos más creativos y conceptuales de sus proyectos (Russel y Norvig, 2016; Hawksworth et al, 2017).

No obstante, este entusiasmo por la integración de la IA en la investigación universitaria no está exento de desafíos. La cuestión ética surge como un aspecto central, planteando interrogantes sobre la transparencia en los algoritmos, la equidad en el acceso a las tecnologías y la responsabilidad en la toma de decisiones automatizada. Además, la necesidad de desarrollar competencias en IA entre los académicos se presenta como un imperativo, destacando la importancia de la formación continua en este nuevo paradigma de investigación (Flores, 2022; Reyes, 2023).

De este modo, la creciente presencia de la Inteligencia Artificial en la investigación universitaria no solo redefine los límites de lo posible, sino que también abre un fascinante campo de reflexión sobre los valores éticos, la colaboración interdisciplinaria y la evolución misma de la investigación académica en la era digital. Este cambio de paradigma invita a la comunidad académica a abrazar la innovación de manera reflexiva y a desentrañar el potencial pleno de la IA como un socio estratégico en el proceso de descubrimiento y construcción del conocimiento.

Ante este escenario, este trabajo tiene como objetivo analizar la percepción de los docentes en torno a los desafíos éticos asociados con el uso de inteligencia artificial en entornos académicos y proponer enfoques para abordarlos. Para ello, fue aplicada una encuesta con escala de Likert a una comunidad de docentes universitarios.

La ética en la investigación universitaria con Inteligencia Artificial no solo se basa en principios fundamentales de responsabilidad y equidad, sino que también afecta directamente la credibilidad, integridad y sostenibilidad de la investigación académica en la era de la IA (Coeckelbergh, 2021). Históricamente, la investigación universitaria se ha guiado por principios éticos como la honestidad y la transparencia. Con la introducción de la IA, preservar estos principios es crucial, ya que la toma de decisiones automatizada y el procesamiento masivo de datos presentan desafíos que requieren una evaluación ética rigurosa.

La adopción responsable de la IA en la investigación universitaria contribuye a la sostenibilidad a largo plazo. Al abordar los aspectos éticos, los investigadores cumplen no solo con responsabilidades éticas actuales, sino que también contribuyen a un legado ético para guiar a generaciones futuras en la integración ética de la IA en la investigación. La importancia de abordar aspectos éticos en la investigación universitaria con IA no solo radica en el cumplimiento de normas éticas fundamentales, sino también en la salvaguarda de la integridad, confianza y relevancia continua de la investigación académica en la sociedad. La comunidad académica tiene la responsabilidad de liderar hacia una investigación ética y sostenible en la era de la IA.

2. Literatura sobre investigación con inteligencia artificial

La creciente aplicación de la Inteligencia Artificial (IA) en la investigación universitaria ha generado un cuerpo sustancial de estudios e investigaciones que examinan sus impactos, beneficios y desafíos. A continuación, se presenta una exploración de algunos estudios relevantes que ilustran la diversidad de áreas en las que la IA ha dejado su huella en la investigación académica.

En el trabajo “A Review of Using Machine Learning Approaches for Precision Education” elaborado por Luan y Tsai (2021) se proporciona una revisión integral de cómo los enfoques de aprendizaje automático se han implementado en la investigación académica y la educación. Examina casos de estudio en diversas disciplinas, destacando la mejora en la precisión de la predicción y la eficiencia en el análisis de datos.

De igual modo, en el estudio “ Ethical Considerations of Artificial Intelligence in Learning Analytics in Distance Education Contexts” de Ungerer y Slade (2022), los autores exploran las consideraciones éticas asociadas con el uso de la IA en la investigación universitaria. El estudio analiza los desafíos éticos específicos, como la transparencia algorítmica y la equidad, y propone directrices para abordarlos.

De la misma forma, Kang (2020) en su trabajo “Natural language processing (NLP) in management research: A literature review”, destacan cómo el procesamiento del lenguaje natural ha transformado la eficiencia de las revisiones de literatura en la investigación académica. Examina casos específicos y propone estrategias para mejorar la calidad y velocidad de este proceso.

En el trabajo “AI-driven Drug Discovery in Bioinformatics: Accelerating Pharmaceutical Research”, elaborado por Ahmad (2023), se presenta un análisis detallado de cómo la IA ha acelerado el descubrimiento científico en el campo de la bioinformática. Se centran en la identificación de patrones en grandes conjuntos de datos, lo que ha llevado a avances significativos en la comprensión de enfermedades y el desarrollo de tratamientos.

En “The Use of Artificial Intelligence in Social Research: Multidisciplinary Challenges”, Kasperiuniene (2021) explora los desafíos únicos y las oportunidades que surgen al aplicar la IA en la investigación en ciencias sociales. Analiza casos específicos de encuestas y análisis de datos cualitativos, destacando las complejidades éticas y metodológicas.

Por último, en el trabajo “Interdisciplinary Research in Artificial Intelligence: Challenges and Opportunities” de Kusters et al. (2020), se investiga cómo la IA puede mejorar la colaboración entre disciplinas académicas. Examina plataformas y herramientas que facilitan la comunicación y la integración de enfoques diversos en proyectos de investigación interdisciplinaria.

Estos estudios representan solo una muestra de la investigación activa en el campo. A medida que la IA sigue transformando la investigación universitaria, se espera que surjan más estudios que exploren nuevas aplicaciones, desafíos éticos y formas de mejorar la calidad y eficiencia de la investigación académica.

El desarrollo académico en torno al tema en cuestión adopta diversos enfoques para abordar los desafíos éticos asociados con el uso de la Inteligencia Artificial (IA) en la investigación universitaria. Aunque los detalles específicos varían según el estudio, se pueden identificar enfoques generales comunes. Muchos investigadores enfatizan la importancia de la transparencia algorítmica. Proponen la apertura y claridad en la operación de los algoritmos de IA utilizados en la investigación, permitiendo a los académicos comprender cómo se toman las decisiones y mitigar posibles sesgos (Araya, 2021).

Por otro lado, investigadores abogan por la integración de consideraciones éticas desde las etapas iniciales de la investigación. Esto implica la reflexión ética durante la formulación de preguntas de investigación, el diseño de experimentos y la selección de algoritmos, asegurando que la ética sea parte integral del proceso investigativo (Labrador-Fernández, 2023). Así mismo, la evaluación y mitigación de sesgos en los algoritmos de IA son puntos clave. Los estudios resaltan la importancia de identificar y abordar sesgos inherentes en los conjuntos de datos utilizados, evitando así discriminaciones injustas y asegurando resultados más equitativos (Saavedra et al, 2023).

Algunos investigadores proponen el desarrollo de marcos éticos específicos para guiar el uso de la IA en la investigación universitaria. Estos marcos pueden incluir principios éticos, pautas para la toma de decisiones éticas y mecanismos de rendición de cuentas (Porcelli, 2020; Piedra, 2023). La participación activa de la comunidad académica en la toma de decisiones éticas es destacada, lo cual sugiere involucrar a investigadores, profesores y estudiantes en discusiones éticas y en la definición de políticas institucionales relacionadas con el uso de la IA (Obando, 2008).

Los académicos reconocen la necesidad de una formación ética continua para la comunidad académica. Sugieren programas de capacitación y desarrollo profesional que aborden específicamente las implicaciones éticas de la utilización de la IA en la investigación (García, 2017; Porcelli, 2020; Mora et al, 2023). En este mismo sentido, el enfoque interdisciplinario se destaca como una estrategia eficaz. La colaboración entre expertos en ética, expertos en IA y académicos de diversas disciplinas se considera esencial para abordar los desafíos éticos de manera integral.

Para finalizar, la protección de la privacidad de los participantes en la investigación es prioritaria. Autores como Flores (2022) y Reyes (2023) proponen medidas robustas para garantizar la confidencialidad de los datos, incluyendo la anonimización adecuada y el cumplimiento de estándares éticos relacionados con la privacidad. Estos enfoques colectivos reflejan la creciente conciencia de la necesidad de una consideración ética integral al utilizar la IA en la investigación universitaria. La combinación de transparencia, reflexión ética temprana, evaluación de sesgos y colaboración interdisciplinaria emerge como un marco sólido para abordar los desafíos éticos en este contexto.

3. Consideraciones éticas e inteligencia artificial

En el dinámico paisaje de la investigación universitaria, la integración de la Inteligencia Artificial (IA) ha generado avances significativos, pero también ha planteado desafíos éticos fundamentales. En este contexto, exploramos conceptos éticos (cuadro 1) clave que sirven como cimientos esenciales en la aplicación responsable de la IA en entornos académicos.

Cuadro 1

Conceptos éticos clave en relación con la IA

Conceptos

Definición

Transparencia Algorítmica

Se refiere a la apertura y comprensibilidad de los algoritmos utilizados en la Inteligencia Artificial. Implica revelar cómo se toman las decisiones, permitiendo a los investigadores y participantes comprender y evaluar el funcionamiento de los sistemas de IA (Araya, 2021).

Mitigación de Sesgos

Se centra en la identificación y corrección de prejuicios inherentes en los datos utilizados para entrenar algoritmos de IA. Busca garantizar que los resultados sean equitativos y no discriminatorios, abordando posibles desviaciones injustas en la toma de decisiones automatizada (Sánchez, 2021).

Ética de la Privacidad

Se ocupa de garantizar la protección de la información personal y sensible de los participantes en la investigación. Implica la implementación de medidas robustas para preservar la confidencialidad y el respeto de los derechos individuales en el manejo de datos por parte de sistemas de IA (González, 2019; Lemaitre, 2019).

Responsabilidad Algorítmica

Implica la atribución clara de responsabilidades y la rendición de cuentas por las decisiones tomadas por sistemas de IA. Los investigadores y desarrolladores son responsables de las implicaciones éticas de sus algoritmos y deben establecer mecanismos para abordar posibles consecuencias no deseadas (Aguirre, 2022).

Colaboración Interdisciplinaria

Se refiere a la cooperación entre expertos de diversas disciplinas, incluyendo ética, informática, y las áreas temáticas de investigación. Busca abordar los desafíos éticos de manera integral, incorporando diversas perspectivas para garantizar soluciones éticas robustas (Reyes, 2023; UNESCO, 2019).

Formación Ética

Se refiere al desarrollo de competencias éticas en la comunidad académica. Incluye programas educativos que aborden las implicaciones éticas de la IA, capacitando a investigadores, profesores y estudiantes para tomar decisiones éticas informadas en sus actividades de investigación (Guamán-Inga et al, 2023).

Evaluación Ética Continua

La evaluación ética continua implica la revisión y adaptación constante de los enfoques éticos a medida que evolucionan la tecnología y los desafíos éticos emergentes. Asegura que las prácticas éticas se ajusten a medida que la investigación y la aplicación de la IA avanzan en el tiempo (Terrones, 2022).

La conjunción de estos conceptos éticos en el uso de la IA en la investigación universitaria no solo establece un estándar ético robusto, sino que también allana el camino para la innovación responsable. La transparencia en los algoritmos, la mitigación de sesgos, la ética de la privacidad y otros principios éticos no solo son imperativos; son los cimientos sobre los cuales construimos una investigación que no solo avanza en el conocimiento, sino que también respeta y protege los valores éticos que sustentan nuestra comunidad académica.

En la esfera de la investigación académica, la adherencia a principios éticos es esencial para preservar la integridad, la confianza y el valor social de la investigación. La honestidad y veracidad son pilares fundamentales. Los investigadores deben proporcionar información precisa y completa sobre sus métodos, resultados y conclusiones, evitando la manipulación de datos o la presentación sesgada de los hallazgos (Hutson, 2022). Así mismo, respetar la autonomía de los participantes en la investigación es crucial. Por su parte, la integridad intelectual implica la honestidad en la conducción de la investigación y la atribución adecuada de las contribuciones de otros. Los investigadores deben evitar el plagio y asegurar que sus contribuciones sean debidamente reconocidas (Hernández, 2016).

La ética en la Inteligencia Artificial (IA) es una consideración crítica en diversos campos. A través de la revisión de marcos éticos en sectores distintos a la investigación universitaria, se identifican enfoques que podrían inspirar prácticas éticas en la aplicación más amplia de la IA. En el ámbito empresarial, la ética en la IA se centra en la toma de decisiones éticas en procesos comerciales. Los marcos éticos en este contexto enfatizan la transparencia en los algoritmos, la equidad en las oportunidades y la rendición de cuentas en la implementación de sistemas de IA en entornos corporativos (Mittelstadt, 2019).

En la salud digital, la ética se orienta hacia la privacidad de los datos de salud y la toma de decisiones médicas automatizadas (Vayena et al, 2018). Los marcos éticos abordan la seguridad de los datos, la transparencia en los diagnósticos de IA y la necesidad de salvaguardar la confidencialidad del paciente. Por su lado, la IA en el ámbito gubernamental plantea cuestiones éticas relacionadas con la toma de decisiones automatizada en políticas públicas. Los marcos éticos en este contexto buscan la equidad, la explicabilidad de los algoritmos gubernamentales y la protección de los derechos individuales (Ocaña-Fernández et al, 2021).

En las finanzas, la ética en la IA se centra en la toma de decisiones automatizada en inversiones y gestión de riesgos. Los marcos éticos abordan la transparencia en los algoritmos financieros, la minimización de sesgos y la garantía de una toma de decisiones justa y equitativa (Cotino, 2023).

La implementación de la IA en vehículos autónomos conlleva consideraciones éticas específicas. Los marcos éticos se enfocan en la seguridad del usuario, la toma de decisiones ética en situaciones de emergencia y la responsabilidad en caso de accidentes (Gómez, 2019). Por su parte, la ética en la publicidad digital con IA aborda la personalización de contenido y la recopilación de datos. Los marcos éticos buscan equilibrar la eficacia publicitaria con la privacidad del usuario, evitando prácticas manipulativas y respetando la autonomía del consumidor (Einstein, 2017).

En el ámbito agrícola, la ética en la IA se centra en la automatización de procesos agrícolas. Los marcos éticos buscan garantizar prácticas sostenibles, la equidad en el acceso a tecnologías agrícolas avanzadas y la consideración de impactos ambientales (Dignum, 2019). Por último, la aplicación de la IA en la justicia criminal plantea desafíos éticos relacionados con la equidad en los sistemas de sentencia y la prevención de sesgos (Stevenson y Slobogin, 2018). Los marcos éticos buscan garantizar la imparcialidad, la aplicabilidad de los modelos y la salvaguarda de los derechos individuales.

Al revisar estos marcos éticos en diferentes campos de la IA, se destaca la diversidad de desafíos éticos y las soluciones propuestas. La adaptación de estos enfoques a la investigación universitaria con IA puede enriquecer la reflexión ética y promover prácticas responsables en el ámbito académico.

4. Perspectiva metodológica

En esta investigación, la elección de una metodología cuantitativa se fundamenta en la necesidad de obtener datos numéricos que permitan realizar un análisis estadístico robusto y objetivo sobre la percepción de la comunidad académica respecto a los desafíos éticos asociados con el uso de inteligencia artificial en entornos universitarios. La decisión de aplicar una encuesta con escala de Likert se sustenta en su capacidad para proporcionar respuestas cuantificables y estructuradas, permitiendo una medición precisa de actitudes y percepciones en una escala ordinal. Este enfoque metodológico se alinea con el objetivo de capturar la variedad de opiniones de manera cuantitativa.

El análisis de los datos se llevará a cabo mediante técnicas estadísticas descriptivas, como el cálculo de promedios y porcentajes, para obtener una visión general de la percepción de los docentes en relación con los desafíos éticos. Asimismo, se emplearán pruebas de inferencia estadística para identificar posibles asociaciones o diferencias significativas en las respuestas, permitiendo una interpretación más profunda de los resultados.

La encuesta está dividida en tres secciones: información demográfica; percepción sobre desafíos éticos; y propuestas y enfoques para abordar desafíos éticos. La escala de Likert se divide en 5 opciones de respuesta: 1. Totalmente en desacuerdo; 2. En desacuerdo; 3. Neutral; 4. De acuerdo; 5. Totalmente de acuerdo.

La elección de esta metodología se justifica por la necesidad de cuantificar la percepción de los docentes de manera objetiva y sistemática, facilitando la identificación de patrones y tendencias en la comunidad académica. Además, la encuesta con escala de Likert ofrece una herramienta estandarizada y eficiente para recopilar datos de manera uniforme, facilitando la comparación y el análisis estadístico. En conjunto, esta metodología proporcionará una comprensión cuantitativa rigurosa de las actitudes de los docentes hacia los desafíos éticos asociados con la inteligencia artificial en el contexto académico, contribuyendo así a una toma de decisiones informada y basada en evidencia.

5. Desafíos éticos en la investigación universitaria con inteligencia artificial

Este apartado presenta un análisis detallado de las respuestas recopiladas de la comunidad académica en el marco de nuestra investigación sobre la percepción de los docentes acerca de los desafíos éticos relacionados con el uso de inteligencia artificial en entornos académicos. A través de una encuesta con escala de Likert, se exploraron las opiniones y actitudes de los participantes, abordando aspectos clave como la percepción de desafíos éticos, el nivel de sesgo percibido en los resultados, y la importancia atribuida a políticas institucionales claras y a la participación en programas de formación ética continua.

A continuación, se presenta (tabla 1) un resumen exhaustivo de los resultados, destacando tendencias significativas y proporcionando una visión integral de la postura de la comunidad académica frente a la integración de inteligencia artificial en la investigación universitaria desde una perspectiva ética.

Tabla 1

Respuestas Demográficas de Docentes

Pregunta

Hombre

Mujer

Otro (Especificar)

Menos de 30 años

30-40 años

41-50 años

Número de

Participantes

45

55

5 (Especificar)

20

30

25

Esta tabla proporciona un resumen demográfico de los participantes en la investigación sobre ética en inteligencia artificial en entornos académicos. Los datos se desglosan por género, rango de edad, campo académico y experiencia en la docencia.

Los resultados (tabla 2) revelan una perspectiva matizada por parte de la comunidad académica. En general, la mayoría de los docentes muestran un alto grado de acuerdo con la existencia de desafíos éticos significativos asociados con el uso de inteligencia artificial en la investigación universitaria, evidenciado por un promedio de 4.2 en la escala Likert.

Tabla 2

Percepción de docentes sobre desafíos éticos en el uso de ia en investigación académica

Pregunta

Promedio

Porcentaje de respuesta

2.1. Nivel de acuerdo con desafíos éticos en IA

4.2

72% de acuerdo, 18% neutral, 10% en desacuerdo

2.2. Nivel de sesgo ético percibido en resultados

3.8

60% moderado, 25% alto, 15% muy alto

2.3. Desafíos éticos más importantes (Respuestas múltiples)

-

Falta de transparencia (45%), Posible discriminación (35%), Problemas de privacidad (20%)

3.1. Importancia de políticas institucionales claras

4.5

85% muy importante, 10% importante, 5% neutral

3.3. Disposición a participar en formación ética continua

-

70% Sí, 20% Tal vez, 10% No

Este consenso se refleja también en la percepción del sesgo ético en los resultados, donde un 60% de los participantes indica un nivel moderado o superior. Además, la identificación de la falta de transparencia en los algoritmos como el desafío ético más destacado (45%) sugiere una preocupación compartida respecto a la opacidad de los procesos automatizados. Estos resultados proporcionan una base sólida para la identificación de áreas específicas que requieren atención, como la implementación de políticas institucionales claras, destacada como altamente importante por un 85% de los participantes. La disposición de un 70% de los docentes a participar en programas de formación ética continua sugiere un interés activo en abordar y superar estos desafíos, señalando la importancia de una comunidad académica informada y comprometida en la era de la inteligencia artificial.

6. Propuestas de enfoques éticos

Para abordar los desafíos éticos identificados en la investigación sobre la percepción de los docentes acerca del uso de inteligencia artificial en la investigación académica, se proponen las siguientes medidas concretas. En primer lugar, se abogará por la transparencia en los algoritmos mediante la implementación de estándares claros y la promoción de la documentación detallada de los procesos de toma de decisiones automatizada.

En segundo lugar, se enfocará en el establecimiento de políticas institucionales claras que guíen el uso ético de la inteligencia artificial en la investigación universitaria, con la participación activa de los docentes en la elaboración y revisión de dichas políticas. Para mitigar sesgos éticos, se implementarán procesos de evaluación y mitigación en los algoritmos, además de fomentar la diversidad en los conjuntos de datos. La creación de programas de formación ética continua para docentes, integrados en los programas de desarrollo profesional, también será esencial.

Asimismo, se incentivará la participación activa de los docentes en la toma de decisiones institucionales relacionadas con la inteligencia artificial y se establecerán comités éticos para evaluar la implementación ética de la IA. Finalmente, se propondrán auditorías éticas periódicas de proyectos de investigación para identificar problemas éticos y garantizar el cumplimiento de las políticas institucionales. Estas medidas buscan fortalecer la integridad y la ética en la investigación académica, asegurando que el uso de inteligencia artificial se realice de manera ética y responsable.

La consideración de principios éticos, regulaciones y mejores prácticas es fundamental para guiar de manera responsable la integración de inteligencia artificial en la investigación académica. En este contexto, se enfatizará la adhesión a principios éticos fundamentales, como la transparencia, la equidad y el respeto a los derechos individuales. La identificación y aplicación de regulaciones específicas relacionadas con el uso de inteligencia artificial en entornos académicos será un aspecto crucial para asegurar la conformidad con estándares éticos y legales.

Además, la adopción de mejores prácticas reconocidas a nivel internacional contribuirá a establecer un marco sólido para el diseño, implementación y evaluación ética de proyectos de investigación con inteligencia artificial. La creación de comités éticos especializados, la participación activa de los docentes en la toma de decisiones relacionadas con la ética en la investigación y la realización de evaluaciones éticas periódicas serán estrategias clave para garantizar que la investigación académica con inteligencia artificial se lleve a cabo de manera ética, transparente y en conformidad con los principios rectores de la comunidad académica y la sociedad en general.

La propuesta de aumentar la transparencia en los algoritmos es altamente aplicable y efectiva para abordar la falta de claridad en la toma de decisiones automatizada. La implementación de estándares y la documentación detallada son medidas prácticas que pueden ser adoptadas con relativa facilidad. Sin embargo, su efectividad dependerá de la capacidad de los investigadores para comunicar de manera efectiva el funcionamiento de los algoritmos de manera comprensible para los no expertos.

Por otro lado, el establecimiento de políticas institucionales claras es altamente aplicable, ya que proporciona una estructura normativa para guiar el uso ético de la inteligencia artificial. La efectividad de esta medida dependerá de la participación activa de los docentes en el proceso de elaboración y revisión de estas políticas. La implementación exitosa requerirá una comunicación efectiva y un compromiso continuo para asegurar que las políticas sean dinámicas y relevantes.

La propuesta de implementar procesos de evaluación y mitigación de sesgos es altamente aplicable y efectiva para abordar la preocupación por la equidad y la representatividad en los resultados de la investigación. La diversificación de conjuntos de datos y la evaluación continua son estrategias sólidas para minimizar sesgos inherentes. Sin embargo, su éxito dependerá de la capacidad de los investigadores para identificar y abordar de manera proactiva los sesgos emergentes.

Asimismo, la ejecución de programas de formación ética continua es altamente aplicable y efectiva para mejorar la conciencia y el conocimiento ético de los docentes. La capacitación regular asegura que los educadores estén al tanto de los desarrollos éticos en el campo de la inteligencia artificial. Sin embargo, su éxito dependerá de la disponibilidad de recursos y de la participación activa de los docentes en estos programas.

En este mismo sentido, la propuesta de incentivar la participación activa de los docentes en las decisiones institucionales es altamente aplicable y efectiva para garantizar una representación diversa de perspectivas. La inclusión de los docentes en comités éticos contribuirá a una toma de decisiones más equitativa. Sin embargo, su éxito dependerá de la creación de un entorno institucional que fomente y valore la participación activa.

Por último, la posibilidad de realizar auditorías éticas periódicas es altamente aplicable y efectiva para evaluar el cumplimiento ético de los proyectos de investigación. La implementación regular de auditorías proporcionará una evaluación continua de posibles problemas éticos y garantizará la alineación con las políticas institucionales. Sin embargo, su éxito dependerá de la disponibilidad de recursos y del compromiso institucional con la ética en la investigación.

7. Reflexiones finales

La investigación reveló hallazgos significativos sobre la percepción de los docentes respecto al uso de inteligencia artificial en la investigación académica. La mayoría de los participantes expresaron una preocupación compartida por desafíos éticos, destacando la falta de transparencia en los algoritmos como una inquietud clave. La identificación de sesgos éticos y la necesidad de políticas institucionales claras fueron temas prominentes. Además, la disposición de los docentes a participar en programas de formación ética continua sugiere un interés activo en abordar estos desafíos. Estos hallazgos destacan la importancia de medidas como la transparencia en los algoritmos, el establecimiento de políticas éticas claras, y la implementación de programas de formación continua para fortalecer la ética en la investigación académica con inteligencia artificial. Las propuestas específicas presentadas se alinean con estos hallazgos, ofreciendo enfoques concretos para abordar las preocupaciones éticas identificadas.

Este estudio contribuyó de manera significativa a la comprensión y abordaje de los desafíos éticos en la investigación universitaria con inteligencia artificial al proporcionar una visión detallada de la percepción de los docentes. Los hallazgos destacan la necesidad apremiante de medidas específicas, como la transparencia en los algoritmos, políticas institucionales éticas y programas de formación continua. La investigación no solo identifica las preocupaciones éticas clave, como la falta de transparencia y sesgos, sino que también propone soluciones concretas y aplicables para fortalecer la ética en la investigación académica con inteligencia artificial. Estas contribuciones ofrecen orientación valiosa para los responsables de la toma de decisiones, investigadores y formuladores de políticas, impulsando un enfoque ético y sostenible en la integración de la inteligencia artificial en el ámbito universitario.

Referencias bibliográficas

Aguirre, J. (2022). Especificando la responsabilidad algorítmica. Revista de Cultura Digital y Movimientos Sociales, 19(2), 265-275. http://dx.doi.org/10.5209/TEKN.79692

Ahmad, N. (2023). AI-driven Drug Discovery in Bioinformatics: Accelerating Pharmaceutical Research. Department of Computer Science, University of California.

Araya, C. F. (2021). Transparencia algorítmica ¿un problema normativo o tecnológico? REVISTA CUHSO31(2), 306–334. https://doi.org/10.7770/cuhso-v31n2-art2196

Ausín, T. (2021) ¿Por qué ética para la Inteligencia Artificial? Lo viejo, lo nuevo y lo espurio. Sociología y tecnociencia, 11(Extra 2),1-16.

Coeckelbergh, M. (2021). Ética de la inteligencia artificial. Ediciones Cátedra.

Cotino, L. (2023). Qué concreta transparencia e información de algoritmos e inteligencia artificial es la debida. Revista Española de la Transparencia16, 17–63. https://doi.org/10.51915/ret.272

Dignum, V. (2019). Responsible artificial intelligence: how to develop and use AI in a responsible way. Cham: Springer Nature.

Einstein, M. (2017). Advertising: what everyone needs to know. Oxford University Press.

Flores, J. (2022). Ética y prospectiva de la inteligencia artificial en la educación. Universidad de Salamanca.

García, D. (2017). Concepciones y prácticas en formación ética de los formadores de maestros de la Escuela Normal Superior de Manizales (Colombia). Universitat de Barcelona.

Gómez-Abajo, P. (2019). Desafíos éticos del coche autónomo. Unpublished. https://doi.org/10.13140/RG.2.2.35745.33123

González, R. (2019). Ética y Privacidad en la Era de la Big Data y la Inteligencia Artificial. Instituto tecnológico de Santo Domingo.

Guamán-Inga, L., Quezada-Ureña, S., López-Fernández, R., y Gómez-Rodríguez, V. (2023). Programa de capacitación para la actualización sobre Inteligencia Artificial como herramienta didáctica en los docentes. MQRInvestigar, 7. 1721-1738. https://doi.org/10.56048/MQR20225.7.4.2023.1721-1738.

Haenlein, M.; Kaplan, A. (2019). A brief history of artificial intelligence: on the past, present, and future of artificial intelligence. California Management Review.

Hawksworth, J., Berriman, R., & Goel, S. (2017). Will robots really steal our jobs? An international analysis of the potential long term impact of automation. https://www.pwc.com/hu/hu/kiadvanyok/assets/pdf/impact_of_automation_on_jobs.pd

Hernández, M. (2016). El plagio académico en la investigación científica. Consideraciones desde la óptica del investigador de alto nivel. Perfiles Educativos, XXXVIII(153). https://www.redalyc.org/articulo.oa?id=13246712008

Hutson, M. (2022). Could AI help you to write your next paper? Nature611(7934), 192–193. https://doi.org/10.1038/d41586-022-03479-w

Kang, Y., Cai, Z., Tan, C.-W., Huang, Q., & Liu, H. (2020). Natural language processing (NLP) in management research: A literature review. Journal of Management Analytics7(2), 139–172. https://doi.org/10.1080/23270012.2020.1756939

Kasperiuniene, J. (2021). The use of artificial intelligence in social research: Multidisciplinary challenges. En Advances in Intelligent Systems and Computing (pp. 312–324). Springer International Publishing.

Kusters, R., Misevic, D., Berry, H., Cully, A., Le Cunff, Y., Dandoy, L., Díaz-Rodríguez, N., Ficher, M., Grizou, J., Othmani, A., Palpanas, T., Komorowski, M., Loiseau, P., Moulin Frier, C., Nanini, S., Quercia, D., Sebag, M., Soulié Fogelman, F., Taleb, S., … Wehbi, F. (2020). Interdisciplinary research in artificial intelligence: Challenges and opportunities. Frontiers in big data3. https://doi.org/10.3389/fdata.2020.577974

Labrador-Fernández, J. G. (2023). Implicaciones éticas de la Inteligencia Artificial en las Ciencias de la Educación. Revista Arbitrada Interdisciplinaria Koinonía8(16), 1-3. https://doi.org/10.35381/r.k.v8i16.2545

Lemaitre, R. (2019). Ética y privacidad: De la filosofía teórica a la aplicación práctica. Revista sistemas, 153. https://sistemas.acis.org.co/index.php/sistemas/article/view/56

Luan, H., & Tsai, C.-C. (2021). A review of using machine learning approaches for precision education. Journal of Educational Technology & Society, 24(1), 250–266.

Mittelstadt, B. (2019). Principles alone cannot guarantee ethical AI. Nature Machine Intelligence1(11), 501–507. https://doi.org/10.1038/s42256-019-0114-4

Mora, B. M., Aroca, C. E., Tiban, L. R., Sánchez, C. F., & Jiménez, A. (2023). Ética y Responsabilidad en la Implementación de la Inteligencia Artificial en la Educación. Ciencia Latina Revista Científica Multidisciplinar7(6), 2054–2076. https://doi.org/10.37811/cl_rcm.v7i6.8833

Obando Castillo, G. (2008). La participación docente en la toma de decisiones desde la visión micropolítica. Educación, 17(32), 87-108. https://doi.org/10.18800/educacion.200801.005

Ocaña-Fernández, Y., Valenzuela-Fernández, L. A., Vera-Flores, M. A., & Rengifo-Lozano, R. A. (2021). Inteligencia artificial (IA) aplicada a la gestión pública. Revista venezolana de gerencia26(94), 696–707. https://doi.org/10.52080/rvgv26n94.14

Piedra, J. (2023). Anotaciones iniciales para una reflexión ética sobre la regulación de la Inteligencia Artificial en la Unión Europea. Revista de derecho28, e3264. https://doi.org/10.22235/rd28.3264

Porcelli, A. M. (2020). La Inteligencia Artificial y la Robótica: sus dilemas sociales, éticos y jurídicos. Derecho Global. Estudios Sobre Derecho Y Justicia6(16), 49–105. https://doi.org/10.32870/dgedj.v6i16.286

Reyes, P. (2023). Ética de la Inteligencia Artificial. Recomendación de la UNESCO, noviembre 2021. Compendium, 26(50).

Russel, S., & Norvig, P. (2016). Artificial Intelligence: A Modern Approach. (3ra. ed). Pearson Education, Inc.

Saavedra vera, C. O., Jáuregui Bustamante, K. del R., & Arista Bustamante, L. L. (2023). La incidencia del sesgo algorítmico en la justicia predictiva del sistema judicial. TZHOECOEN15(2), 79–97. https://doi.org/10.26495/tzh.v15i2.2592

Sánchez, M. (2021). Inteligencia artificial, sesgos y categorías sospechosas. Prevenir y mitigar la discriminación algorítmica.

Stevenson, M., y Slobogin, C. (2018). Algorithmic Risk Assessments and the Double-Edged Sword of Youth. Washington University Law Review, 96(3), 681-706. https://openscholarship.wustl.edu/law_lawreview/vol96/iss3/6

Terrones Rodríguez, A. L. (2022). Inteligencia artificial sostenible y evaluación ética constructiva. Isegoría67, e10. https://doi.org/10.3989/isegoria.2022.67.10

UNESCO (2019). Estudio preliminar sobre los aspectos técnicos y jurídicos relativos a la conveniencia de disponer de un instrumento normativo sobre la Ética de la Inteligencia Artificial. París.

Vayena, E., Blasimme, A., & Cohen, I. G. (2018). Machine learning in medicine: Addressing ethical challenges. PLoS Medicine15(11), e1002689. https://doi.org/10.1371/journal.pmed.1002689