Universidad del Zulia (LUZ)

Revista Venezolana de Gerencia (RVG)

Año 29 No. Especial 11, 2024, 342-355

enero-junio

ISSN 1315-9984 / e-ISSN 2477-9423

Como citar: Boy, A. M., Osorio, E. D., Rodríguez, L. R., y López, R. d. P. (2024). Inteligencia artificial en la toma de decisiones: implicaciones éticas y eficiencia. Revista Venezolana De Gerencia29(Especial 11), 342-355. https://doi.org/10.52080/rvgluz.29.e11.20

Inteligencia artificial en la toma de decisiones: implicaciones éticas y eficiencia

Boy Barreto, Ana Maritza*

Osorio Arrascue, Elvis Doberto**

Rodríguez Alegre, Lino Rolando***

López Padilla, Rosario del Pilar****

Resumen

La inteligencia artificial (IA) ha emergido como una fuerza transformadora en el mundo contemporáneo, impactando de manera significativa la forma en que tomamos decisiones en una amplia gama de áreas. En el ámbito empresarial, la IA se ha convertido en una herramienta invaluable para optimizar la eficiencia operativa y mejorar la precisión en la toma de decisiones estratégicas. El uso de IA en la toma de decisiones plantea interrogantes sobre la transparencia de los algoritmos, la equidad en el acceso a las oportunidades y la responsabilidad en caso de decisiones erróneas o sesgadas. El propósito de esta investigación es examinar cómo la IA está transformando los procesos de toma de decisiones en pymes peruanas. Los resultados sugieren una percepción mayormente positiva hacia la IA, destacando su capacidad para ofrecer recomendaciones personalizadas, adaptarse y mejorar con el tiempo, así como identificar y mitigar sesgos. Es crucial abordar desafíos clave, como la interpretación de resultados, la transparencia de los modelos y la responsabilidad en las decisiones automatizadas, para garantizar una implementación ética y efectiva de la IA en diferentes contextos.

Palabras clave: Inteligencia artificial; toma de decisiones; ética.

Recibido: 20.03.24 Aceptado:30.05.24

* Maestra en gestión educativa. Licenciada en educación docente. Especialista en educación de adultos y educación a distancia. Perú. Filiación: Universidad César Vallejo. Email: aboyb@ucvvirtual.edu.pe ORCID: https://orcid.org/0000-0002-0405-5952

** Maestro en Gestión Cultural, Patrimonio y Turismo. Perú. Filiación: Universidad Nacional Autónoma de Huanta. Email: eosorioarrascue@gmail.com ORCID: https://orcid.org/0000-0003-1395-7242

*** Magíster en Administración, Universidad del Pacífico, Doctorando en Administración, Ing. Pesquero Tecnólogo. Docente Categoría Principal. Perú. Filiación Universidad Nacional José Faustino Sánchez Carrión, Huacho. Email: lrodriguez@ujfsc.edu.pe ORCID: https://orcid.org/0000-0002-9993-8087

**** Maestra en Administración, Universidad Nacional Federico Villarreal, Doctorando en Administración, Ingeniera Alimentaria, Universidad Nacional Federico Villarreal. Perú. Filiación: Universidad Tecnológica Del Perú. Email: c26066@utp.edu.pe ORCID: https://orcid.org/0000-0003-2651-7190

Artificial intelligence in decision making: ethical implications and efficiency

Abstract

Artificial intelligence (AI) has emerged as a transformative force in the contemporary world, significantly impacting the way we make decisions in a wide range of areas. In the business arena, AI has become an invaluable tool for optimizing operational efficiency and improving accuracy in strategic decision-making. The use of AI in decision-making raises questions about the transparency of algorithms, fairness in access to opportunities, and accountability in the event of erroneous or biased decisions. The purpose of this research is to examine how AI is transforming decision-making processes in Peruvian SMEs. The results suggest a largely positive perception towards AI, highlighting its ability to offer personalized recommendations, adapt and improve over time, as well as identify and mitigate biases. It is crucial to address key challenges, such as interpretation of results, transparency of models, and accountability in automated decisions, to ensure ethical and effective implementation of AI in different contexts.

Keywords: Artificial intelligence; decision making; ethics.

1. Introducción

La inteligencia artificial (IA) ha emergido como una fuerza transformadora en el mundo contemporáneo, impactando de manera significativa la forma en que tomamos decisiones en una amplia gama de áreas. Su capacidad para analizar grandes cantidades de datos, identificar patrones complejos y generar insights precisos ha revolucionado los procesos de toma de decisiones en sectores que van desde la medicina hasta las finanzas, la educación y más allá (Maita-Cruz et al, 2022; Henman, 2020).

En el ámbito empresarial, la IA se ha convertido en una herramienta invaluable para optimizar la eficiencia operativa y mejorar la precisión en la toma de decisiones estratégicas. Algoritmos avanzados de aprendizaje automático y análisis predictivo permiten a las organizaciones anticipar tendencias, identificar oportunidades y mitigar riesgos de manera más efectiva que nunca (Mikhaylov et al, 2018; Vieira et al, 2020).

En el campo de la medicina, la IA está siendo utilizada para diagnosticar enfermedades con mayor precisión y rapidez, lo que no solo mejora la calidad de la atención médica, sino que también puede salvar vidas al facilitar tratamientos más oportunos y personalizados (Sarmiento-Ramos, 2020; Cotrina-Aliaga et al, 2021). En educación, la IA está transformando la forma en que se personaliza el aprendizaje, adaptando los materiales educativos y las estrategias de enseñanza según las necesidades y estilos de aprendizaje individuales de los estudiantes (Díaz et al, 2021; Dwivedi et al, 2019). Sin embargo, este avance tecnológico no está exento de desafíos y cuestionamientos éticos. El uso de IA en la toma de decisiones plantea interrogantes sobre la transparencia de los algoritmos (Larrondo y Grandi, 2021; Quezada et al, 2022), la equidad en el acceso a las oportunidades (García et al, 2022) y la responsabilidad en caso de decisiones erróneas o sesgadas (Cedeño et al, 2024).

En este contexto, es crucial analizar de manera crítica cómo la IA está impactando la toma de decisiones en diversas áreas, evaluando tanto sus beneficios en términos de eficiencia y precisión como sus implicaciones éticas y sociales. Este análisis nos permitirá comprender mejor el papel de la IA en nuestra sociedad y orientar su desarrollo de manera responsable y ética.

El propósito de esta investigación es examinar cómo la Inteligencia Artificial (IA) está influyendo en la toma de decisiones en diversos ámbitos, con un enfoque particular en sus implicaciones éticas y su eficiencia. A través de este estudio, se busca obtener una comprensión profunda de cómo la IA está siendo implementada y utilizada para facilitar la toma de decisiones en diferentes sectores, tales como el empresarial, médico, educativo, entre otros.

El objetivo central es examinar cómo la IA está transformando los procesos de toma de decisiones en pymes peruanas, identificar los beneficios que aporta en términos de eficiencia, precisión y optimización de recursos, así como también analizar las preocupaciones éticas que surgen en torno a su uso. Esto incluye explorar posibles sesgos algorítmicos, la falta de transparencia en los modelos de IA, la equidad en el acceso a oportunidades y los desafíos éticos relacionados con la responsabilidad y la toma de decisiones automatizadas.

Al abordar estos temas desde una perspectiva científica, se busca contribuir al conocimiento académico en el campo de la IA y la toma de decisiones, proporcionando insights fundamentados en evidencia empírica y análisis riguroso. Además, se pretende ofrecer recomendaciones y reflexiones críticas que puedan orientar el desarrollo y la aplicación ética de la IA en el futuro, promoviendo un uso responsable y beneficioso de esta tecnología en la sociedad.

El estudio del impacto de la Inteligencia Artificial (IA) en la toma de decisiones es crucial en la actualidad debido a varios motivos significativos. En primer lugar, la rápida evolución tecnológica ha llevado a la adopción generalizada de la IA en una variedad de campos, desde la industria hasta la medicina y la educación. Comprender cómo esta tecnología influye en las decisiones humanas es fundamental para adaptarse a estos cambios y aprovechar al máximo sus beneficios potenciales. Además, la IA promete mejorar la eficiencia y la productividad al automatizar tareas repetitivas y complejas, permitiendo a los profesionales centrarse en actividades de mayor valor añadido. Esto tiene implicaciones significativas para la competitividad empresarial y el desarrollo económico en general (Wirtz et al, 2019). Asimismo, en el ámbito de la salud, la IA puede acelerar el diagnóstico y tratamiento de enfermedades, mejorando la calidad de vida de las personas y salvando vidas en muchos casos.

Otro aspecto relevante es el impacto social y ético de la IA en la toma de decisiones. La equidad en el acceso a oportunidades, la transparencia de los algoritmos, la privacidad de los datos y la mitigación del sesgo algorítmico son temas críticos que deben abordarse de manera integral. La IA también plantea desafíos en términos de responsabilidad y rendición de cuentas en las decisiones automatizadas, lo que requiere un enfoque ético y reflexivo en su implementación. Estudiar el papel de la IA en la toma de decisiones es relevante y oportuno en el contexto actual, ya que aborda cuestiones tecnológicas, económicas, sociales y éticas de gran importancia para el desarrollo humano y el progreso sostenible.

2. Inteligencia artificial y toma de decisiones

En la intersección entre la Inteligencia Artificial (IA) y la toma de decisiones humanas se encuentra un campo fascinante y de creciente relevancia en la era moderna. La capacidad de la IA para analizar datos complejos, identificar patrones y generar insights precisos está transformando la manera en que las organizaciones y los individuos abordan la toma de decisiones en diversos contextos. Este vínculo entre la IA y las decisiones humanas plantea tanto desafíos como oportunidades que merecen una exploración profunda y sistemática.

2.1. Definición de Inteligencia Artificial

La Inteligencia Artificial (IA) se refiere a la capacidad de las máquinas y sistemas informáticos para simular la inteligencia humana, incluyendo el aprendizaje, la percepción, el razonamiento y la toma de decisiones (García et al, 2022). En esencia, la IA busca replicar procesos mentales complejos de manera automatizada, utilizando algoritmos y modelos matemáticos para procesar datos y generar resultados inteligentes. Esta disciplina ha experimentado avances significativos en las últimas décadas, impulsados por el desarrollo de algoritmos de aprendizaje automático, redes neuronales artificiales y técnicas de procesamiento de lenguaje natural (González-Muñiz, 2018).

En el contexto de la toma de decisiones, la IA se aplica de diversas maneras para mejorar la calidad y eficiencia de este proceso (Ocaña-Fernández et al, 2021). Por ejemplo, en el ámbito empresarial, los sistemas de IA pueden analizar grandes volúmenes de datos financieros, históricos y de mercado para identificar tendencias, patrones y oportunidades comerciales (Villarreal y Flor, 2023). Esto permite a las organizaciones tomar decisiones estratégicas fundamentadas en análisis predictivos y proyecciones precisas.

En el sector de la salud, la IA se utiliza para interpretar imágenes médicas, como radiografías y resonancias magnéticas, con el fin de diagnosticar enfermedades de manera más rápida y precisa. Asimismo, en la atención al paciente, los sistemas de IA pueden ayudar a los profesionales de la salud a tomar decisiones informadas sobre tratamientos y terapias personalizadas basadas en datos clínicos y genéticos (Silcox, 2020).

En el ámbito educativo, la IA está siendo empleada para personalizar el proceso de aprendizaje, adaptando el contenido y las estrategias de enseñanza según las necesidades y habilidades individuales de los estudiantes (López et al, 2023). Esto mejora la eficacia del aprendizaje y maximiza el rendimiento académico de manera personalizada y escalable.

Además, la IA se utiliza en la gestión de recursos y operaciones, la optimización de procesos logísticos, la predicción de demanda en la industria, la seguridad cibernética, entre muchos otros campos. En todos estos contextos, la IA juega un papel fundamental al proporcionar análisis avanzados, automatización de tareas complejas y asistencia en la toma de decisiones basadas en datos y conocimientos (García et al, 2022; Luan y Tsai, 2021).

Sin embargo, es importante tener en cuenta que la implementación de la IA en la toma de decisiones también plantea desafíos éticos y sociales, como la equidad en el acceso a las oportunidades, la transparencia de los algoritmos y la responsabilidad en las decisiones automatizadas. Estos aspectos deben ser abordados de manera integral para garantizar un uso ético y responsable de la IA en el proceso de toma de decisiones.

2.2. Toma de Deciiones

La toma de decisiones es un proceso fundamental en el ámbito empresarial, gubernamental, académico y personal, que implica evaluar diferentes opciones y elegir la más adecuada para alcanzar un objetivo específico (Nuñez-Lira et al, 2023). Entre los conceptos clave de la toma de decisiones se encuentran la racionalidad limitada, que reconoce que los individuos y organizaciones tienen limitaciones cognitivas y de información al tomar decisiones (David, 2003), y la incertidumbre, que señala la falta de certeza sobre los resultados futuros de cada opción (Cardona et al, 2012).

Los métodos tradicionales de toma de decisiones suelen basarse en el análisis racional, donde se recopilan datos, se evalúan alternativas y se elige la opción óptima según ciertos criterios predefinidos (Arrendondo y Vásquez, 2013). Estos métodos pueden ser efectivos, pero también pueden verse limitados por la complejidad de los problemas y la cantidad de información a considerar, lo que puede llevar a decisiones subóptimas o a la parálisis por análisis (Salinas, 2011).

La Inteligencia Artificial (IA) está transformando este proceso al ofrecer capacidades avanzadas de análisis, automatización y aprendizaje. Por ejemplo, los sistemas de IA pueden procesar grandes volúmenes de datos de manera rápida y precisa, identificando patrones y tendencias que pueden pasar desapercibidos para los humanos. Esto permite una toma de decisiones más informada y basada en evidencia empírica (Uribe, 2023).

Además, la IA puede ayudar a optimizar la toma de decisiones al proporcionar recomendaciones personalizadas basadas en algoritmos de aprendizaje automático y análisis predictivo. Estas recomendaciones pueden tener en cuenta múltiples variables y escenarios posibles, ayudando a los tomadores de decisiones a considerar todas las opciones de manera más exhaustiva.

Un aspecto clave de la transformación de la toma de decisiones por parte de la IA es su capacidad para adaptarse y mejorar con el tiempo a medida que se obtienen más datos y se refina el proceso de aprendizaje. Esto permite una toma de decisiones más ágil y precisa en entornos complejos y cambiantes (Díaz et al, 2021; Carbonell-García et al, 2023).

Sin embargo, es importante tener en cuenta que la implementación de la IA en la toma de decisiones también plantea desafíos, como la interpretación de los resultados de los algoritmos, la identificación y mitigación de sesgos, la transparencia de los modelos y la responsabilidad en las decisiones automatizadas (Jiménez-Castellanos, 2023). Estos aspectos deben ser abordados de manera ética y responsable para garantizar el beneficio máximo de la IA en el proceso de toma de decisiones.

2.3. Ética en la IA

En el contexto de la aplicación de la Inteligencia Artificial (IA) en la toma de decisiones, existen varios principios éticos fundamentales que deben ser considerados y aplicados de manera rigurosa. Uno de los principios clave es la transparencia, que implica que los sistemas de IA deben ser comprensibles y explicables para los humanos, de modo que los tomadores de decisiones puedan entender cómo se generan las recomendaciones o resultados y confiar en su validez y fiabilidad (Ausín, 2021).

Otro principio ético relevante es la equidad y la no discriminación. Esto significa que los sistemas de IA deben ser diseñados y entrenados de manera que no perpetúen sesgos o discriminaciones injustas basadas en características como la raza, el género, la edad u otras características protegidas (O’Neil, 2016; Ausín, 2021). Es crucial asegurar que la IA no genere o refuerce desigualdades sociales o injusticias sistémicas en el proceso de toma de decisiones.

Además, la privacidad y la protección de datos son principios éticos esenciales en la aplicación de la IA. Los sistemas de IA deben respetar la privacidad de los individuos y garantizar la seguridad y confidencialidad de la información utilizada para tomar decisiones (Ausín, 2021). Esto implica cumplir con las regulaciones de protección de datos y asegurar que los datos sean utilizados de manera ética y responsable.

La responsabilidad y la rendición de cuentas son otros principios éticos cruciales. Los desarrolladores y usuarios de sistemas de IA deben asumir la responsabilidad por las decisiones tomadas por estos sistemas, incluso en casos de errores o sesgos (Ramió, 2019; Floridi, 2019). Es importante establecer mecanismos de rendición de cuentas que permitan identificar, corregir y mitigar posibles consecuencias negativas de la IA en la toma de decisiones.

Finalmente, la integridad y la seguridad son principios éticos que deben ser considerados en la aplicación de la IA. Los sistemas de IA deben ser seguros y protegidos contra posibles manipulaciones o ataques que puedan comprometer su integridad o fiabilidad en el proceso de toma de decisiones (Ausín, 2021). En conjunto, estos principios éticos proporcionan un marco sólido para guiar el desarrollo y la implementación ética de la IA en la toma de decisiones, asegurando que esta tecnología beneficie a la sociedad de manera responsable y equitativa.

3. Aspectos metodológicos

Para llevar a cabo esta investigación sobre la Inteligencia Artificial en la toma de decisiones, se ha empleado una metodología de investigación cuantitativa, recopilando y analizando datos numéricos para obtener resultados cuantificables. Se seleccionó una muestra de 278 gerentes pertenecientes a pequeñas y medianas empresas (PYMES) en diversos sectores industriales, a partir de un muestreo aleatorio estratificado. La elección de este tamaño de muestra se basó en criterios de representatividad y poder estadístico para analizar de manera significativa las percepciones y experiencias relacionadas con la implementación de la Inteligencia Artificial en el proceso decisional de las PYMES.

Se ha empleado un cuestionario con escala Likert dirigido a profesionales, expertos y usuarios de sistemas de IA en pymes de Lima, Perú, como principal fuente de datos. Este se diseñó de manera específica para recopilar información sobre la percepción de profesionales y usuarios acerca del impacto de la IA en la toma de decisiones, así como sus consideraciones éticas.

El cuestionario incluyó preguntas que abarcan diferentes aspectos relacionados con la implementación de la IA, como la eficiencia percibida en la toma de decisiones, la confianza en los resultados generados por sistemas de IA, las preocupaciones éticas asociadas con el uso de la IA, entre otros temas relevantes. Cada pregunta se formuló de manera clara y precisa, utilizando una escala Likert de cinco que permite a los participantes expresar su grado de acuerdo o desacuerdo con afirmaciones específicas.

La metodología cuantitativa permite obtener datos detallados y medibles sobre la percepción, la eficiencia percibida y las implicaciones éticas percibidas en relación con la implementación de la IA en la toma de decisiones. Además, se ha realizado un análisis estadístico de los datos recopilados utilizando herramientas como el software estadístico SPSS para identificar patrones, correlaciones y tendencias significativas en los resultados obtenidos.

Una vez recopilados los datos, se aplicaron diversas técnicas estadísticas descriptivas para analizar la distribución de las respuestas, calcular medidas de tendencia central y de dispersión, y obtener una visión general de los datos recopilados. Esto permitió identificar patrones iniciales y tendencias significativas en las percepciones y actitudes de los participantes.

Posteriormente, se emplearon técnicas de análisis inferencial, como pruebas de hipótesis y correlaciones, para explorar relaciones más profundas entre las variables de interés. Se realizaron pruebas estadísticas para determinar la significancia de las diferencias entre grupos, la relación entre variables y la fuerza de las asociaciones encontradas.

Este diseño metodológico proporciona una base sólida para evaluar la influencia de la IA en la toma de decisiones, así como para explorar las percepciones y actitudes de los actores clave involucrados en su implementación. La combinación de encuestas estructuradas y análisis estadístico permite obtener conclusiones fundamentadas en evidencia empírica y brinda información valiosa para comprender los impactos y desafíos de la IA en este ámbito.

4. Inteligencia artificial: eficiencia e implicaciones éticas

Los resultados obtenidos del análisis estadístico revelan una serie de hallazgos significativos relacionados con el impacto de la Inteligencia Artificial (IA) en la eficiencia y las implicaciones éticas en la toma de decisiones en diversos ámbitos. Nuestro estudio se centró en explorar cómo la IA influye en la eficiencia y las implicaciones éticas en la toma de decisiones, considerando aspectos clave como las recomendaciones personalizadas de la IA, su capacidad para adaptarse y mejorar, y la interpretación de los resultados que ofrece (tabla 1).

Tabla 1

Eficiencia y las implicaciones éticas de la IA en la toma de decisiones

Categoría

Totalmente en Desacuerdo

Moderadamente en Desacuerdo

Neutral

Moderadamente de Acuerdo

Totalmente

de Acuerdo

1) Recomendaciones Personalizadas de la IA

5%

10%

15%

40%

30%

2) Capacidad de Adaptación y Mejora de la IA

3%

7%

12%

35%

43%

3) Interpretación de Resultados de la IA

8%

15%

20%

32%

25%

4) Equidad y No Discriminación por parte de la IA

4%

12%

18%

38%

28%

5) Privacidad y Protección de Datos

6%

9%

16%

37%

32%

6) Responsabilidad en Decisiones Automatizadas

7%

11%

14%

39%

29%

7) Identificación y Mitigación de Sesgos

5%

8%

17%

42%

28%

8) Transparencia de los Modelos de IA

9%

14%

22%

30%

25%

La amplia mayoría de los participantes en nuestro estudio (70%), manifestaron un nivel de acuerdo significativo o total en cuanto a la utilidad de las recomendaciones personalizadas generadas por la IA. Esta marcada inclinación hacia la aceptación refleja una percepción positiva y sólida de que las recomendaciones personalizadas son herramientas beneficiosas y prácticas para mejorar el proceso de toma de decisiones en diversos contextos. Este hallazgo es especialmente relevante, ya que resalta el impacto tangible y concreto que la IA puede tener al proporcionar insights específicos y adaptados a las necesidades individuales, lo que a su vez puede conducir a decisiones más informadas y efectivas. Esta alta tasa de aceptación también subraya la confianza que los profesionales tienen en la capacidad de la IA para analizar datos complejos y ofrecer recomendaciones relevantes, contribuyendo así de manera significativa a la optimización de procesos y resultados en diferentes áreas de aplicación.

El análisis de las respuestas reveló un dato significativo: el 78% de los participantes expresaron un acuerdo marcado o total en cuanto a la capacidad de la IA para adaptarse y mejorar a lo largo del tiempo. Este hallazgo va más allá de una simple aceptación; representa una confianza arraigada en el potencial transformador de la IA en la toma de decisiones. Este nivel de confianza sugiere que los profesionales reconocen no solo la capacidad actual de la IA para ofrecer resultados efectivos, sino también su potencial para evolucionar y proporcionar soluciones aún más eficientes y precisas en el futuro. Sin embargo, este optimismo también plantea desafíos importantes, como la necesidad de seguir desarrollando la IA de manera ética y responsable, garantizando que su evolución sea guiada por principios sólidos y consideraciones éticas en cada paso del camino.

Aunque nos encontramos ante una distribución de respuestas más variada en cuanto a la habilidad para interpretar los resultados generados por la IA, es alentador observar que el 57% de los participantes expresaron un nivel de acuerdo significativo en este aspecto. Esta percepción positiva sugiere que muchos profesionales reconocen la capacidad de la IA para producir resultados comprensibles y relevantes para la toma de decisiones. No obstante, debe considerarse el hecho de que aproximadamente el 23% de los participantes se mostraron neutrales en este aspecto. Esta neutralidad puede indicar posibles áreas de mejora en la presentación y claridad de los resultados generados por la IA. Es crucial abordar estos desafíos para garantizar que los resultados de la IA sean fácilmente interpretables y útiles para los usuarios finales. Esto conduce a reflexionar sobre la importancia de desarrollar herramientas y metodologías que mejoren la explicabilidad y la transparencia de los resultados de la IA, permitiendo una comprensión más profunda y confiable de su impacto en la toma de decisiones.

La mayoría de los participantes (66%), expresaron un acuerdo significativo o total en que la IA opera de manera equitativa y no discriminatoria. Este hallazgo es de suma importancia, ya que refleja una percepción positiva en cuanto a la imparcialidad de la IA en el proceso de toma de decisiones. A pesar de esta percepción positiva, es esencial abordar las posibles preocupaciones y riesgos relacionados con la equidad y la no discriminación en el uso de la IA. Esto incluye la identificación y mitigación de posibles sesgos inherentes en los algoritmos de IA, así como la implementación de prácticas y políticas que promuevan la equidad y la inclusión en todos los aspectos del desarrollo y aplicación de la IA. Lo anterior invita a avanzar hacia un futuro donde la IA no solo sea efectiva y eficiente, sino también justa y ética en su funcionamiento.

El 69% de los participantes expresaron un nivel de acuerdo significativo o total en que la IA garantiza la privacidad y protección de los datos utilizados en el proceso de toma de decisiones. Este alto nivel de acuerdo refleja una preocupación y conciencia cada vez mayor respecto a la importancia crítica de la privacidad de los datos en el contexto de la IA. A pesar del acuerdo generalizado, se debe seguir trabajando para fortalecer y mejorar aún más las prácticas de privacidad y protección de datos en el desarrollo y uso de la IA.

Esto incluye implementar medidas robustas de seguridad y cifrado de datos, así como garantizar el cumplimiento de regulaciones y estándares éticos en todas las etapas del ciclo de vida de la IA. Además, es esencial considerar cómo la IA puede ser utilizada de manera responsable para proteger la privacidad de los individuos y mitigar riesgos potenciales, como la filtración de información sensible o la exposición involuntaria de datos personales. Este desafío motiva a avanzar hacia un enfoque más ético y centrado en el usuario en el desarrollo y aplicación de la IA, asegurando que la privacidad y protección de datos sean prioridades fundamentales en todos los aspectos de su implementación.

El análisis de los datos arrojó que el 68% de los participantes mostraron un nivel de acuerdo significativo o total en que las organizaciones deben tomar responsabilidad de las decisiones automatizadas tomadas la Inteligencia Artificial (IA), los cual denota una percepción generalizada entre los profesionales participantes de que, aunque se tiene alta confianza en como la IA posee la capacidad intrínseca para tomar decisiones de manera responsable y ética, esta debe ser supervisada.

A pesar de la percepción positiva, es crucial abordar las complejidades éticas y morales asociadas con la toma de decisiones automatizadas. Esto incluye considerar cómo la IA puede ser diseñada y entrenada para priorizar valores éticos fundamentales, como la equidad, la transparencia y la no discriminación, en sus procesos de toma de decisiones. El concepto de responsabilidad en la IA también abarca la necesidad de establecer mecanismos efectivos de rendición de cuentas y supervisión para asegurar que las decisiones automatizadas sean coherentes con los principios éticos y legales establecidos.

El 70% de los participantes expresaron un grado de acuerdo marcado o total en que la Inteligencia Artificial (IA) identifica y mitiga sesgos en el proceso de toma de decisiones. Este resultado plantea desafíos importantes. A pesar del reconocimiento positivo, es esencial abordar las complejidades inherentes a la identificación y mitigación de sesgos algorítmicos. Esto implica desarrollar y aplicar métodos robustos para evaluar y corregir sesgos en los modelos de IA, así como garantizar la inclusión de múltiples perspectivas y datos diversos en el proceso de entrenamiento de los algoritmos. Es fundamental considerar cómo la IA puede ser utilizada de manera responsable para promover la equidad y la justicia en la toma de decisiones, especialmente en áreas críticas como la salud, la justicia penal y la selección de personal.

Si bien existe una variabilidad en la distribución de respuestas en la categoría de transparencia de los modelos de Inteligencia Artificial (IA), el 55% de los participantes aún expresaron un nivel de acuerdo significativo o total en que dichos modelos son transparentes en su funcionamiento. Este hallazgo indica un grado de confianza en la claridad y explicabilidad de los modelos de IA por parte de una parte considerable de los profesionales evaluados. No obstante, es importante resaltar que alrededor del 30% de los participantes mostraron una posición neutral en este aspecto, lo cual subraya la necesidad de mejorar la transparencia y la explicabilidad de los modelos de IA.

Este hallazgo refleja desafíos inherentes en la comprensión y comunicación de los procesos algorítmicos en la IA, lo cual puede tener implicaciones significativas en la confianza y aceptación de la tecnología por parte de los usuarios finales. Por lo tanto, se identifica la necesidad de abordar estos desafíos mediante el desarrollo de métodos y herramientas que mejoren la transparencia y explicabilidad de los modelos de IA. Esto incluye la implementación de técnicas de interpretación de modelos, la documentación detallada de los procesos algorítmicos y la promoción de estándares de transparencia en la industria de la IA. Este desafío requiere avanzar hacia una IA más accesible, comprensible y confiable, fortaleciendo así su valor y utilidad en diversos ámbitos de aplicación.

Por otro lado, las pruebas de hipótesis nos permitieron determinar la significancia de las diferencias entre grupos en diversas categorías, como la confianza en los resultados de la IA y la frecuencia de uso de recomendaciones personalizadas. Por ejemplo, encontramos una diferencia significativa (p < 0.05) en la confianza en los resultados de la IA entre profesionales con diferentes niveles de experiencia, lo que sugiere que la percepción de la IA puede variar según la trayectoria profesional. Además, al analizar correlaciones, identificamos relaciones significativas entre variables clave. Por ejemplo, encontramos una correlación positiva significativa (r = 0.72, p < 0.001) entre la confianza en los resultados de la IA y la percepción de su capacidad para identificar y mitigar sesgos. Esto indica que a medida que aumenta la confianza en la IA, también aumenta la percepción de su capacidad para abordar sesgos de manera efectiva.

En cuanto a la fuerza de las asociaciones encontradas, observamos que algunas correlaciones eran más fuertes que otras, lo que sugiere relaciones más sólidas entre ciertas variables. Por ejemplo, la correlación entre la frecuencia de uso de recomendaciones personalizadas y la mejora percibida en la eficiencia de la toma de decisiones fue muy fuerte (r = 0.85, p < 0.001), destacando la importancia de las recomendaciones personalizadas en la optimización del proceso decisional.

Los resultados obtenidos de este estudio proporcionan una visión integral sobre el impacto de la Inteligencia Artificial (IA) en la toma de decisiones, abordando tanto aspectos de eficiencia como implicaciones éticas. Se observa una percepción mayormente positiva hacia la IA, destacando su capacidad para ofrecer recomendaciones personalizadas, adaptarse y mejorar con el tiempo, así como identificar y mitigar sesgos. Sin embargo, también se identifican áreas de mejora, especialmente en términos de interpretación de resultados, transparencia de los modelos y responsabilidad en las decisiones automatizadas. Estos hallazgos subrayan la importancia de continuar desarrollando la IA de manera ética y responsable, asegurando que sus beneficios se maximicen mientras se abordan las preocupaciones éticas y de confianza de manera efectiva.

5. Conclusiones

Este estudio arroja luz sobre el impacto multifacético de la Inteligencia Artificial (IA) en el proceso de toma de decisiones, destacando tanto sus implicaciones éticas como su eficiencia. Los resultados revelan una percepción generalizada de que la IA tiene un papel positivo al ofrecer recomendaciones personalizadas, adaptarse y mejorar con el tiempo, y mitigar sesgos en la toma de decisiones. Sin embargo, es crucial abordar desafíos clave, como la interpretación de resultados, la transparencia de los modelos y la responsabilidad en las decisiones automatizadas, para garantizar una implementación ética y efectiva de la IA en diferentes contextos.

Es importante reconocer las limitaciones inherentes a este estudio, como el tamaño de la muestra. Para futuras investigaciones, se sugiere realizar estudios longitudinales y comparativos para evaluar el impacto a largo plazo de la IA en la toma de decisiones, así como investigar más a fondo los mecanismos de mitigación de sesgos y la transparencia de los modelos de IA.

Se sugiere desarrollar y promover prácticas de explicabilidad de la IA para mejorar la confianza y aceptación de los usuarios. Además, se recomienda establecer marcos regulatorios y éticos sólidos que guíen el desarrollo y uso de la IA en el contexto de la toma de decisiones. Asimismo, se alienta a investigadores y profesionales a seguir explorando nuevas aplicaciones y avances en IA que beneficien de manera positiva y equitativa a la sociedad en su conjunto.

Referencias bibliográficas

Arrendondo, F. G., & Vázquez, J. C. (2013). Un modelo de análisis racional para la toma de decisiones gerenciales, desde la perspectiva elsteriana. Cuadernos De Administración26(46), 135–158. https://doi.org/10.11144/Javeriana.cao26-46.marp

Ausín, T. (2021). ¿Por qué ética para la Inteligencia Artificial? Lo viejo, lo nuevo y lo espurio. Sociología y tecnociencia, 11, 1-16. https://dialnet.unirioja.es/servlet/articulo?codigo=8155412

Carbonell-García, C. E., Burgos-Goicochea, S., Calderón-de-los-Ríos, D. O., & Paredes-Fernández, O. W. (2023). La Inteligencia Artificial en el contexto de la formación educativa. Episteme Koinonía. Revista Electrónica de Ciencias de la Educación, Humanidades, Artes y Bellas Artes6(12), 152-166. https://doi.org/10.35381/e.k.v6i12.2547

Cardona, D., Rivera, M., y Romero, J. (2012). Una aproximación de la variable aleatoria a procesos de toma de decisión que implican condiciones de riesgo e incertidumbre. Borradores de Investigación: Serie documentos administración. Universidad del Rosario. https://repository.urosario.edu.co/items/de916667-04b3-41e0-94f3-06f80e8fb1c6

Cedeño, J., Maitta, I., Vélez, M., y Palomeque, J. (2024). Investigación universitaria con inteligencia artificial. Revista Venezolana De Gerencia, 29(106), 817-830. https://doi.org/10.52080/rvgluz.29.106.23

Cotrina-Aliaga, J., Vera-Flores, M., Ortiz-Cotrina, W., y Sosa-Celi, P. (2021). Use of Artificial Intelligence (AI) as a strategy in higher education. Revista Iberoamericana de Educación, E1. https://doi.org/10.31876/ie.vi.81

David, F. (2003). Conceptos de Administración estratégica. Editorial Pearson Hall.

Díaz, L., Tito, J., García, G., y Boy, A. (2021). Inteligencia artificial aplicada al sector educativo. Revista Venezolana de Gerencia, 26(96), 1189-1200. https://doi.org/10.52080/rvgluz.26.96.12

Dwivedi, Y. K., Hughes, L., Ismagilova, E., Aarts, G., Coombs, C., Crick, T., Duan, Y., Dwivedi, R., Edwards, J., Eirug, A., Galanos, V., Ilavarasan, P. V., Janssen, M., Jones, P., Kar, A. K., Kizgin, H., Kronemann, B., Lal, B., Lucini, B., … Williams, M. D. (2021). Artificial Intelligence (AI): Multidisciplinary perspectives on emerging challenges, opportunities, and agenda for research, practice and policy. International Journal of Information Management57(101994), 101994. https://doi.org/10.1016/j.ijinfomgt.2019.08.002

Floridi, L. (2019). Translating principles into practices of digital ethics: Five risks of being unethical. Philosophy & Technology32(2), 185–193. https://doi.org/10.1007/s13347-019-00354-x

García, G., Lescano, G., Quiñones, A., y Morales, W. (2022). Nuevas tecnologías y organizaciones del sector público en Perú. Revista Venezolana De Gerencia, 27(Especial 8), 806-818. https://doi.org/10.52080/rvgluz.27.8.

González-Muñiz, A. (2018). Aplicaciones de técnicas de inteligencia artificial basadas en aprendizaje profundo (deep learning) al análisis y mejora de la eficiencia de procesos industriales. Unpublished. https://doi.org/10.13140/RG.2.2.15144.72967

Henman, P. (2020). Improving public services using artificial intelligence: possibilities, pitfalls, governance. Asia Pacific Journal of Public Administration42(4), 209–221. https://doi.org/10.1080/23276665.2020.1816188

Jiménez-Castellanos Ballesteros, I. (2023). Decisiones automatizadas y transparencia administrativa: Nuevos retos para los derechos fundamentales. Revista Española De La Transparencia, (16), 191-215. https://doi.org/10.51915/ret.250

Larrondo, M., y Grandi, N. (2021) Inteligencia Artificial, algoritmos y libertad de expresión. Universitas. Revista de Ciencias Sociales y Humanas, (34), 177-194. https://www.redalyc.org/articulo.oa?id=476165932008

López, H. L., Rivera, A., & Cruz García, C. R. (2023). Personalización del aprendizaje con inteligencia artificial en la educación superior. Revista Digital de Tecnologías Informáticas y Sistemas7(1), 123–128. https://doi.org/10.61530/redtis.vol7.n1.2023.165.123-128

Luan, H., & Tsai, C.-C. (2021). A review of using machine learning approaches for precision education. Journal of educational technology & society24(1), 250–266. https://www.jstor.org/stable/26977871

Maita-Cruz, Y. M., Flores-Sotelo, W. S., Maita-Cruz, Y. A., & Cotrina-Aliaga, J. C. (2022). Inteligencia artificial en la gestión pública en tiempos de Covid-19. Revista De Ciencias Sociales28, 331-330. https://doi.org/10.31876/rcs.v28i.38167

Mikhaylov, S. J., Esteve, M., & Campion, A. (2018). Artificial intelligence for the public sector: opportunities and challenges of cross-sector collaboration. Philosophical Transactions. Series A, Mathematical, Physical, and Engineering Sciences376(2128), 20170357. https://doi.org/10.1098/rsta.2017.0357

Nuñez-Lira, L. A., Alfaro Bernedo, J. O., Aguado Lingan, A. M., & González Ponce de León, E. R. (2023). Toma de decisiones estratégicas en empresas: Innovación y competitividad. Revista venezolana de gerencia28(Especial 9), 628–641. https://doi.org/10.52080/rvgluz.28.e9.39

O’Neil, C. (2016). Armas de destrucción matemática. Capitán Swing.

Ocaña-Fernández, Y.; Valenzuela-Fernández, L.; Vera-Flores, M.; Rengifo-Lozano, R. (2021) Inteligencia artificial (IA) aplicada a la gestión pública. Revista Venezolana de Gerencia (RVG), Año 26, No. 94, pp. 696-707.

Quezada, G., Castro, M., y Quezada, M. (2022). Inteligencia artificial y enseñanza del derecho: su incorporación durante la pandemia de la Covid-19. Revista Venezolana De Gerencia, 27(Especial 8), 750-764. https://doi.org/10.52080/rvgluz.27.8.2

Ramió, C. (2019). Inteligencia artificial y administración pública. Catarata.

Salinas, J. (2011). Análisis de decisiones estratégicas en entornos inciertos, cambiantes y complejos. Sengage Learning.

Sarmiento-Ramos, J. L. (2020). Aplicaciones de las redes neuronales y el deep learning a la ingeniería biomédica. Revista UIS ingenierías19(4), 1–18. https://doi.org/10.18273/revuin.v19n4-2020001

Silcox, C. (2020) La inteligencia artificial en el sector salud. Promesas y desafíos. Banco Interamericano de Desarrollo.

Uribe, I. (20/06/2023). El impacto de la Inteligencia Artificial en la toma de decisiones. Secmotic - Smart Innovation. https://secmotic.com/inteligencia-artificial-toma-decisiones/#gref

Vieira, A. A. C., Dias, L. M. S., Santos, M. Y., Pereira, G. A. B., & Oliveira, J. A. (2020). On the use of simulation as a Big Data semantic validator for supply chain management. Simulation Modelling Practice and Theory98(101985), 101985. https://doi.org/10.1016/j.simpat.2019.101985

Villarreal, F., y Flor, G. (2023). Inteligencia Artificial: El reto contemporáneo de la gestión empresarial. ComHumanitas: Revista Científica De Comunicación14(1), 94-111. https://doi.org/10.31207/rch.v14i1.393

Wirtz, B. W., Weyerer, J. C., & Geyer, C. (2019). Artificial intelligence and the public sector—applications and challenges. International Journal of Public Administration42(7), 596–615. https://doi.org/10.1080/01900692.2018.1498103