Universidad del Zulia (LUZ)
Revista Venezolana de Gerencia (RVG)
Año 29 No. 108, 2024, 1664-1677
octubre-diciembre
ISSN 1315-9984 / e-ISSN 2477-9423
Como citar: Massa, L. A., Cabel, D. J., Garcia, A. J., y Martinez, J. A. (2024). Desafíos de la implementación de la inteligencia artificial en políticas públicas. Revista Venezolana De Gerencia, 29(108), 1664-1677. https://doi.org/10.52080/rvgluz.29.108.12
Desafíos de la implementación de la inteligencia artificial en políticas públicas
Massa Palacios, Luis Alberto*
Cabel Moscoso, Domingo Jesús**
Garcia Espinoza, Antonina Juana***
Martinez Hernández, Jaime Antonio****
Resumen
El artículo describe los desafíos de implementar inteligencia artificial (IA) en políticas públicas. En un contexto donde la IA está transformando sectores, el estudio tiene como objetivo explorar los problemas técnicos, éticos y administrativos que enfrentan los gobiernos. Utilizando encuestas con escala Likert, se evaluaron las percepciones de profesionales del sector público sobre la integración de IA. Los principales hallazgos destacan la complejidad de integrar IA en infraestructuras existentes, los dilemas éticos en la toma de decisiones automatizadas, y la resistencia al cambio dentro de las instituciones gubernamentales. Se concluye que abordar estos desafíos requiere políticas claras, capacitación en IA y una gestión del cambio efectiva para maximizar los beneficios de la IA en el servicio público.
Palabras clave: desafíos; políticas públicas; inteligencia artificial.
Recibido: 06.05.24 Aceptado: 27.07.24
* Doctor. Docente principal. Perú. Filiación: Universidad Nacional de San Luis Gonzaga. Correo: lmassa@unica.edu.pe, ORCID: https://orcid.org/0000-0002-6570-2869
** Doctor. Docente principal. Perú. Filiación: Universidad Nacional de San Luis Gonzaga. Correo: jesús.cabel@unica.edu.pe ORCID: https://orcid.org/0000-0001-9361-7744
*** Doctor. Docente principal. Perú. Filiación: Universidad Nacional de San Luis Gonzaga. Correo: antonina.garcia@unica.edu.pe, ORCID: https://orcid.org/0000-0002-3498-7558
**** Doctor. Docente principal. Perú. Filiación: Universidad Nacional de San Luis Gonzaga. Correo: jaime.martinez@unica.edu.pe, ORCID: https://orcid.org/0000-0001-6708-4761
Challenges of implementing artificial intelligence in public policy
Abstract
The article describes the challenges of implementing artificial intelligence (AI) in public policies. In a context where AI is transforming sectors, the study aims to explore the technical, ethical and administrative issues faced by governments. Using Likert-scale surveys, the perceptions of public sector professionals on AI integration were assessed. Key findings highlight the complexity of integrating AI into existing infrastructures, ethical dilemmas in automated decision-making, and resistance to change within government institutions. It concludes that addressing these challenges requires clear policies, AI training and effective change management to maximize the benefits of AI in public service.
Keywords: Challenges; public policies; artificial intelligence.
1. Introducción
La implementación de la inteligencia artificial (IA) en el ámbito de las políticas públicas representa una evolución significativa en la forma en que los gobiernos pueden administrar y ofrecer servicios a sus ciudadanos. Este tema adquiere relevancia en un contexto donde las tecnologías digitales están transformando rápidamente todos los aspectos de la vida moderna, desde la economía hasta la salud y la educación (Fuenmayor, 2024). Los gobiernos se encuentran en la encrucijada de integrar estas tecnologías para mejorar la eficiencia administrativa, la transparencia y la toma de decisiones basada en datos (García et al, 2021; Montecinos, 2021). Sin embargo, la implementación de IA también plantea desafíos complejos y multifacéticos que requieren una comprensión profunda para garantizar que su adopción no solo sea efectiva, sino también ética y justa (Ávila et al, 2022).
La inteligencia artificial, en su definición más amplia, se refiere a la capacidad de las máquinas para realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, el razonamiento, la resolución de problemas, la percepción y la toma de decisiones (Jackson, 2019; Helbing et al, 2019; Cotrina-Aliaga et al, 2021; Cycleback, 2020; Pastor y Nogales, 2019). El concepto de IA no es nuevo; sus raíces se remontan a mediados del siglo XX, cuando Alan Turing propuso la idea de máquinas capaces de pensar (1950).
Desde entonces, la IA ha evolucionado a través de varias fases, incluyendo la creación de algoritmos básicos, el desarrollo de redes neuronales y el advenimiento del aprendizaje profundo, que ha permitido avances notables en áreas como el reconocimiento de voz e imagen, la automatización de procesos y el análisis predictivo (Goicochea et al, 2024). Hoy en día, la IA se encuentra en una fase de rápida expansión y aplicación práctica, impulsada por el aumento exponencial de la capacidad de procesamiento de datos y el acceso a grandes volúmenes de información.
La importancia de la IA en las políticas públicas radica en su potencial para transformar la administración pública y mejorar la calidad de vida de los ciudadanos (Vértiz-Osores et al, 2023). En la gestión pública, la IA puede facilitar una toma de decisiones más informada y basada en datos, optimizar los recursos, mejorar la eficiencia operativa y personalizar los servicios públicos de acuerdo con las necesidades específicas de la población (Llanes-Font et al, 2020). Por ejemplo, en la atención médica, la IA puede ayudar a predecir brotes de enfermedades y personalizar tratamientos, mientras que, en la educación, puede ofrecer herramientas de aprendizaje adaptativo que mejoran los resultados académicos. Además, la IA tiene el potencial de aumentar la transparencia gubernamental mediante la automatización de procesos que minimizan la corrupción y mejoran la rendición de cuentas (Finol, 2023).
No obstante, la implementación de IA en políticas públicas enfrenta una serie de desafíos técnicos, éticos, legales y administrativos que deben ser abordados para asegurar su éxito. Técnicamente, los gobiernos deben lidiar con la integración de sistemas de IA en infraestructuras existentes y la garantía de la calidad y seguridad de los datos utilizados (Sánchez-Huamán et al, 2023). Éticamente, se enfrentan a dilemas relacionados con la privacidad, el sesgo algorítmico y la transparencia de los sistemas automatizados (Ausín, 2021). Legalmente, la rápida evolución de la IA supera el ritmo de desarrollo de marcos regulatorios adecuados, lo que genera incertidumbres y riesgos (Jay et al, 2024). Administrativamente, la resistencia al cambio y la falta de habilidades técnicas dentro de las instituciones gubernamentales pueden obstaculizar la adopción efectiva de la IA (Pozo et al, 2020).
El objetivo de este estudio es describir y analizar estos desafíos en detalle, proporcionando una comprensión integral de las barreras que enfrentan los gobiernos al implementar IA en sus políticas públicas. Al hacerlo, se busca no solo delinear los problemas existentes, sino también proponer recomendaciones y estrategias para superarlos, con el fin de maximizar los beneficios potenciales de la IA y minimizar sus riesgos. Este análisis es crucial para guiar a los responsables de la formulación de políticas y a los administradores públicos en la adopción de tecnologías de IA de manera ética, eficiente y efectiva, asegurando que su implementación contribuya al bienestar general de la sociedad.
2. Inteligencia artificial y políticas públicas
La revisión de la literatura sobre la inteligencia artificial (IA) y su aplicación en políticas públicas revela un campo en rápida expansión y diversificación, impulsado por avances tecnológicos y la creciente disponibilidad de grandes volúmenes de datos. Autores como Domingos (2015) y Russell y Norvig (2020) han contribuido significativamente a la comprensión de los fundamentos y aplicaciones de la IA. En el contexto de las políticas públicas, estudios recientes de autores como Eubanks (2018) destacan tanto las oportunidades como los riesgos asociados con la adopción de IA en la gestión gubernamental. Estos trabajos subrayan la capacidad de la IA para transformar áreas clave como la atención médica, la educación y la administración pública, al tiempo que alertan sobre los posibles impactos negativos en términos de equidad, privacidad y sesgo algorítmico.
Los conceptos clave y definiciones relevantes en el estudio de la IA y su aplicación en políticas públicas incluyen términos como aprendizaje automático (machine learning), redes neuronales, big data y algoritmos. El aprendizaje automático, como explica Mitchell (1997), se refiere a la capacidad de las máquinas para aprender y mejorar automáticamente a partir de la experiencia sin ser programadas explícitamente. Las redes neuronales, una subcategoría del aprendizaje profundo, son modelos computacionales inspirados en el cerebro humano que han demostrado ser particularmente efectivos en tareas como el reconocimiento de voz e imagen, como detallan Goodfellow, Bengio y Courville (2016).
El término big data, discutido ampliamente por Mayer-Schönberger y Cukier (2013), se refiere a conjuntos de datos de gran volumen, variedad y velocidad que requieren nuevas formas de procesamiento para obtener valor. Los algoritmos, que son conjuntos de reglas y procedimientos lógicos para resolver problemas, son fundamentales para el funcionamiento de la IA y son analizados en profundidad por autores como Christian y Griffiths (2016), quienes destacan varios desafíos en la aplicación de algoritmos para la toma de decisiones humanas. Uno de los principales retos es la complejidad computacional, ya que algunos problemas son intrínsecamente difíciles de resolver de manera eficiente, haciendo que encontrar soluciones óptimas sea costoso o incluso inalcanzable. Además, los algoritmos dependen de datos precisos y completos y la falta de datos fiables puede llevar a decisiones incorrectas o subóptimas. Otro desafío significativo es la necesidad de que los algoritmos sean lo suficientemente flexibles para adaptarse a cambios en el entorno o en los parámetros del problema. La interpretabilidad y la transparencia también son cruciales, ya que los usuarios deben comprender cómo y por qué un algoritmo toma ciertas decisiones, especialmente en aplicaciones críticas, para generar confianza y garantizar la aceptación.
En cuanto a las teorías y modelos previos que abordan los desafíos de la implementación de IA, uno de los marcos más influyentes es el propuesto por McCarthy et al, (1956), considerado el punto de partida de la investigación en IA. Más recientemente, el trabajo de Jordan y Mitchell (2015) ofrece una visión crítica sobre el estado actual y futuro del aprendizaje automático, subrayando los desafíos técnicos y éticos. Christian y Griffiths (2016) destacan desafíos prácticos en la implementación de IA, como la complejidad computacional para resolver problemas de manera eficiente, la dependencia de datos precisos y completos, y la necesidad de flexibilidad y transparencia en los algoritmos.
En el ámbito de la ética de la IA, autores como Floridi (2014) y Bostrom (2014) han explorado los dilemas éticos y las implicaciones a largo plazo del desarrollo de IA. Además, el modelo de gestión del cambio de Kotter (1996) proporciona un marco útil para entender cómo las organizaciones pueden adaptarse a la implementación de nuevas tecnologías, incluyendo la IA, destacando la importancia del liderazgo y la gestión de la resistencia al cambio.
La literatura sobre IA y su aplicación en políticas públicas es rica y multidisciplinaria, abarcando desde los fundamentos técnicos hasta los desafíos éticos y administrativos. Los conceptos y teorías clave proporcionan una base sólida para comprender las complejidades de implementar IA en el sector público. Los modelos previos ofrecen valiosas lecciones y estrategias para abordar los múltiples desafíos asociados con esta transformación tecnológica. Es esencial que los responsables de la formulación de políticas y los administradores públicos se basen en esta amplia base de conocimientos para implementar la IA de manera ética, eficiente y efectiva.
La implementación de la inteligencia artificial (IA) en políticas públicas presenta una serie de desafíos significativos que abarcan aspectos técnicos, éticos, legales y administrativos. Estos desafíos deben ser cuidadosamente considerados y abordados para asegurar una adopción efectiva y beneficiosa de la IA en el ámbito gubernamental.
Los desafíos técnicos son quizás los más evidentes y se relacionan con la integración de sistemas de IA en infraestructuras gubernamentales existentes. La capacidad de procesar grandes volúmenes de datos (big data) es fundamental para el funcionamiento de la IA, pero muchos gobiernos carecen de la infraestructura tecnológica necesaria para manejar estos datos de manera efectiva (Flores et al, 2021). Además, la calidad de los datos es crucial; datos incompletos, inexactos o sesgados pueden conducir a resultados erróneos y decisiones inadecuadas. Por ejemplo, un sistema de IA utilizado para predecir delitos puede perpetuar sesgos raciales si se alimenta con datos históricos que reflejan prácticas policiales discriminatorias.
La escalabilidad y sostenibilidad de los sistemas de IA también representan desafíos técnicos. La implementación inicial puede ser costosa y requerir una inversión significativa en hardware y software, así como en la capacitación del personal técnico (Vértiz-Osores et al, 2023). Sin una planificación adecuada, estos costos pueden ser prohibitivos y dificultar la expansión y el mantenimiento a largo plazo de los sistemas de IA.
Desde una perspectiva ética, la implementación de IA en políticas públicas plantea importantes dilemas. La privacidad y la protección de datos son preocupaciones primordiales. Los sistemas de IA a menudo requieren acceso a grandes cantidades de datos personales, lo que plantea riesgos significativos en términos de privacidad. Los ciudadanos deben confiar en que sus datos serán manejados de manera segura y que su privacidad será protegida (Ocaña-Fernández et al, 2021; Guaña-Moya y Chipuxi-Fajardo, 2023). Además, el sesgo algorítmico es una preocupación ética central. Como argumenta O’Neil (2016), los algoritmos pueden perpetuar y amplificar las desigualdades existentes si no se diseñan y monitorean cuidadosamente.
La transparencia y explicabilidad de los sistemas de IA son también esenciales para garantizar la responsabilidad y la equidad en su uso. Los ciudadanos tienen derecho a saber cómo y por qué se toman decisiones que les afectan, y los sistemas opacos pueden socavar la confianza pública en las instituciones gubernamentales (Montecinos, 2021).
Los desafíos legales son igualmente complejos y se derivan en gran medida de la rapidez con que evoluciona la tecnología de IA en comparación con el desarrollo de marcos regulatorios adecuados. La legislación existente a menudo no aborda específicamente las particularidades de la IA, lo que crea un vacío legal que puede ser explotado o llevar a una aplicación inconsistente de la ley (Estupiñán et al, 2021).
Además, la responsabilidad y la rendición de cuentas en el uso de IA son áreas grises. Si un sistema de IA comete un error que resulta en daño, determinar quién es responsable (el desarrollador del software, el proveedor de datos, o la agencia gubernamental que lo implementó) puede ser complicado. La propiedad intelectual y los derechos sobre los datos utilizados por la IA también plantean desafíos legales. La recopilación y uso de datos de múltiples fuentes puede infringir los derechos de propiedad intelectual, y las leyes de protección de datos pueden limitar la capacidad de los gobiernos para utilizar información personal de manera efectiva (Mejía-Lobo et al, 2023).
Finalmente, los desafíos administrativos son una barrera significativa para la implementación de IA en políticas públicas. La resistencia al cambio es común en cualquier organización grande y los gobiernos no son una excepción. Los empleados pueden estar preocupados por la automatización y la posible pérdida de empleos, lo que puede generar resistencia a la adopción de nuevas tecnologías (Ramió, 2018). La falta de habilidades técnicas dentro de las instituciones gubernamentales es otro obstáculo importante (Zuluaga, 2020). La IA requiere conocimientos especializados que muchos empleados gubernamentales pueden no poseer, lo que hace necesaria una inversión considerable en capacitación y desarrollo profesional. Además, la gestión del cambio y el liderazgo son cruciales para la implementación exitosa de IA. Como argumenta Kotter (1996), es esencial tener líderes fuertes que puedan guiar a las organizaciones a través de la transición, gestionar la resistencia y asegurar que todos los empleados comprendan y apoyen los beneficios de la nueva tecnología. La coordinación interdepartamental e interinstitucional también es fundamental, ya que la implementación de IA a menudo requiere la colaboración de múltiples entidades gubernamentales.
De este modo, la implementación de inteligencia artificial en políticas públicas enfrenta una serie de desafíos técnicos, éticos, legales y administrativos que deben ser abordados de manera integral. Cada uno de estos desafíos presenta complejidades únicas que requieren soluciones específicas y estrategias de mitigación. Es esencial que los gobiernos adopten un enfoque holístico y multidisciplinario para abordar estos desafíos, asegurando que la implementación de IA no solo sea técnica y operacionalmente exitosa, sino también ética, legal y socialmente responsable.
3. Consideraciones metodológicas del estudio
El presente trabajo se orienta hacia un enfoque de investigación cuantitativo, adecuado para abordar los desafíos multifacéticos de la implementación de la inteligencia artificial (IA) en políticas públicas desde una perspectiva objetiva y medible. Este enfoque facilita la medición precisa de las percepciones y actitudes de los participantes hacia los desafíos técnicos, éticos, legales y administrativos asociados con la IA.
Para la recopilación de datos, se utilizarán encuestas con escala tipo Likert, una herramienta ampliamente reconocida en la investigación cuantitativa por su capacidad para capturar la intensidad de las actitudes y opiniones de los encuestados. Las encuestas serán diseñadas para evaluar de manera específica las percepciones de los profesionales del sector público sobre los diversos desafíos que enfrenta la implementación de IA.
La escala tipo Likert, que varía de 1 (totalmente en desacuerdo) a 5 (totalmente de acuerdo), permitirá a los encuestados expresar sus niveles de acuerdo o desacuerdo con una serie de afirmaciones relacionadas con los aspectos técnicos, éticos, legales y administrativos de la IA. Este tipo de escala es útil porque proporciona datos ordinales que pueden ser analizados estadísticamente para identificar tendencias y relaciones.
Sobre los procedimientos de análisis de datos, en primer lugar, se realizó una limpieza y preparación de los datos, eliminando respuestas incompletas o inconsistentes para garantizar la calidad del conjunto de datos. Posteriormente, se emplearon técnicas de estadística descriptiva para proporcionar un panorama general de las percepciones y actitudes de los encuestados. Esto incluirá el cálculo de medias, medianas, desviaciones estándar y frecuencias para cada ítem de la escala Likert. Para profundizar en el análisis, se utilizaron pruebas de hipótesis y análisis de varianza (ANOVA) para identificar diferencias significativas entre grupos demográficos o profesionales. Además, se aplicó análisis de correlación para explorar las relaciones entre los diferentes tipos de desafíos identificados y para evaluar cómo estos se interrelacionan.
La naturaleza estructurada de las encuestas facilita la comparación de respuestas entre diferentes grupos y contextos, proporcionando una visión integral y detallada de los desafíos percibidos en la implementación de IA. Además, la utilización de técnicas estadísticas avanzadas garantiza un análisis riguroso y objetivo, minimizando el sesgo del investigador y permitiendo la identificación de patrones y relaciones significativas dentro de los datos.
Este enfoque metodológico es particularmente adecuado para el estudio de la implementación de IA en políticas públicas debido a la complejidad y multidimensionalidad de los desafíos involucrados. Al cuantificar las percepciones de los profesionales del sector público, podemos obtener una comprensión más precisa y matizada de las barreras y facilitadores en la adopción de IA.
4. Desafíos de la implementación de IA en políticas públicas
La integración de sistemas de IA en infraestructuras existentes presenta desafíos significativos debido a la falta de interoperabilidad y adaptabilidad de los sistemas actuales. Según la encuesta (Tabla 1), el 65% de los encuestados considera que este problema es una barrera importante para la implementación efectiva de IA en el sector público. La escalabilidad y sostenibilidad de las soluciones de IA son aspectos críticos para su adopción a largo plazo. El 72% de los participantes expresó preocupación por la capacidad de escalar y mantener estas soluciones de manera sostenible en el tiempo.
Tabla 1
Desafíos Tecnológicos en la Implementación de IA
Desafío |
Totalmente en Desacuerdo |
En Desacuerdo |
Neutral |
De Acuerdo |
Totalmente de Acuerdo |
Integración en infraestructuras existentes |
5% |
10% |
20% |
40% |
25% |
Escalabilidad y sostenibilidad |
4% |
8% |
16% |
45% |
27% |
Requisitos de datos y calidad |
3% |
6% |
13% |
50% |
28% |
Capacidad técnica y habilidades |
2% |
5% |
12% |
48% |
33% |
La calidad de los datos es fundamental para el éxito de cualquier aplicación de IA. El 78% de los encuestados indicó que la calidad de los datos y los requisitos para obtenerlos son desafíos significativos que deben abordarse para implementar IA de manera efectiva. La falta de capacitación técnica y habilidades específicas en el sector público representa un obstáculo importante. Según la encuesta, el 81% de los participantes identificó esta carencia como una barrera significativa para la implementación exitosa de IA en políticas públicas.
La privacidad y la protección de datos personales son preocupaciones éticas y legales cruciales en el uso de IA (tabla 2). Según la encuesta, el 74% de los encuestados considera que las preocupaciones sobre privacidad representan un gran obstáculo para la implementación de IA en políticas públicas.
Tabla 2
Desafíos de Seguridad y Éticos en la Implementación de IA
Desafío |
Totalmente en Desacuerdo |
En Desacuerdo |
Neutral |
De Acuerdo |
Totalmente de Acuerdo |
Privacidad y protección de datos |
6% |
8% |
12% |
42% |
32% |
Sesgos algorítmicos |
7% |
9% |
17% |
38% |
29% |
Transparencia y explicabilidad |
5% |
10% |
15% |
40% |
30% |
Los sesgos algorítmicos pueden perpetuar y amplificar las desigualdades existentes, afectando la equidad y la justicia. El 67% de los participantes estuvo de acuerdo en que los sesgos algorítmicos son un problema serio que debe abordarse. La transparencia y la explicabilidad de los sistemas de IA son esenciales para ganar la confianza del público y garantizar la rendición de cuentas. Un 70% de los encuestados indicó que la falta de transparencia y explicabilidad es un desafío significativo en la implementación de IA.
Estos hallazgos subrayan la complejidad y las múltiples facetas que involucran la implementación de IA en el ámbito de las políticas públicas. Abordar estos desafíos tecnológicos y de seguridad es crucial para maximizar los beneficios de la IA mientras se mitigan sus riesgos potenciales.
La automatización de decisiones plantea dilemas éticos significativos, como la equidad, la justicia y la responsabilidad moral. Según la encuesta, el 69% de los encuestados consideró que estos dilemas son un desafío importante en la implementación de IA en políticas públicas. Por su parte, el marco regulatorio actual no siempre aborda adecuadamente los desafíos específicos que plantea la IA, generando incertidumbres legales y éticas. Un 63% de los participantes indicó que las limitaciones del marco regulatorio son un obstáculo significativo (tabla 3).
Tabla 3
Desafíos Éticos en la Implementación de IA
Desafío |
Totalmente en Desacuerdo |
En Desacuerdo |
Neutral |
De Acuerdo |
Totalmente de Acuerdo |
Dilemas éticos en decisiones automatizadas |
4% |
11% |
16% |
39% |
30% |
Marco regulatorio actual |
6% |
11% |
20% |
36% |
27% |
Creación de nuevas leyes y normativas |
5% |
10% |
19% |
37% |
29% |
Responsabilidad y rendición de cuentas |
4% |
9% |
19% |
40% |
28% |
Propiedad intelectual y derechos de datos |
7% |
10% |
21% |
34% |
28% |
La rápida evolución de la tecnología de IA requiere que las leyes y normativas se adapten constantemente para garantizar su eficacia y adecuación. Según la encuesta, el 66% de los encuestados señaló que la creación y aplicación de nuevas leyes y normativas son desafíos importantes a abordar. Asimismo, determinar quién es responsable de las decisiones tomadas por sistemas de IA y cómo rendir cuentas por ellas es esencial para garantizar su uso ético y responsable. El 68% de los encuestados identificó la rendición de cuentas como un problema significativo. Los derechos de propiedad intelectual y de datos plantean preguntas éticas y legales complejas sobre quién tiene derecho a usar y beneficiarse de los datos generados y utilizados por sistemas de IA. Según la encuesta, el 62% de los participantes consideró estos temas como desafíos importantes.
La resistencia al cambio es común en entornos gubernamentales y puede obstaculizar la adopción y adaptación de nuevas tecnologías como la IA. Según la encuesta, el 75 % de los encuestados consideró que la resistencia al cambio es un desafío significativo. La capacitación y el desarrollo profesional son esenciales para dotar al personal público de las habilidades necesarias para implementar y gestionar sistemas de IA de manera efectiva. Un 80% de los participantes indicó que la falta de capacitación adecuada es un problema importante a abordar (tabla 4).
Tabla 4
Desafíos Administrativos en la Implementación de IA
Desafío |
Totalmente en Desacuerdo |
En Desacuerdo |
Neutral |
De Acuerdo |
Totalmente de Acuerdo |
Resistencia al cambio |
4% |
6% |
15% |
40% |
35% |
Capacitación y desarrollo profesional |
3% |
6% |
11% |
42% |
38% |
Gestión del cambio y liderazgo |
4% |
8% |
10% |
41% |
37% |
Coordinación interdepartamental |
5% |
8% |
17% |
38% |
32% |
El liderazgo fuerte y la gestión efectiva del cambio son fundamentales para dirigir y apoyar la transformación digital dentro de las organizaciones gubernamentales. Según la encuesta, el 78% de los encuestados identificó la gestión del cambio como un desafío significativo. La implementación de IA en políticas públicas requiere colaboración y coordinación efectiva entre múltiples departamentos e instituciones gubernamentales. Un 70% de los encuestados estuvo de acuerdo en que la coordinación interdepartamental e interinstitucional es un desafío importante.
Estos hallazgos resaltan la complejidad y los desafíos variados que enfrentan los responsables de políticas públicas al implementar IA. Abordar estos desafíos éticos y administrativos es crucial para asegurar que la implementación de IA sea ética, efectiva y beneficiosa para la sociedad en su conjunto.
Los desafíos identificados tienen profundas implicaciones para la implementación efectiva de IA en políticas públicas. En primer lugar, abordar estos desafíos es crucial para asegurar que la adopción de IA sea ética, transparente y equitativa. La falta de integración tecnológica adecuada puede limitar el potencial transformador de la IA en la mejora de servicios y la toma de decisiones gubernamentales.
Éticamente, los dilemas en la toma de decisiones automatizadas y los problemas de privacidad y sesgos algorítmicos plantean riesgos significativos que podrían erosionar la confianza pública en el uso de IA por parte del gobierno (Soriano, 2021). Es fundamental establecer marcos regulatorios claros y mecanismos robustos de rendición de cuentas para mitigar estos riesgos y garantizar prácticas justas y éticas.
Administrativamente, superar la resistencia al cambio y desarrollar capacidades adecuadas en el sector público son imperativos para la implementación exitosa de IA. Esto requiere liderazgo efectivo, coordinación interdepartamental e inversión en desarrollo profesional para asegurar que los beneficios potenciales de la IA se materialicen plenamente en políticas públicas efectivas y eficientes.
Para abordar estos desafíos, se proponen varias estrategias integrales. Técnicamente, es crucial invertir en infraestructuras flexibles y escalables que faciliten la integración de sistemas de IA en las operaciones existentes del gobierno. Mejorar la calidad y accesibilidad de los datos también es esencial para garantizar que los sistemas de IA funcionen de manera óptima y proporcionen resultados precisos y confiables.
Desde una perspectiva ética, se recomienda desarrollar directrices claras y éticas para la implementación de IA, asegurando la transparencia en los algoritmos utilizados y abordando activamente los sesgos algorítmicos. Establecer mecanismos de evaluación continua y auditorías independientes puede ayudar a garantizar que las decisiones automatizadas sean justas y equitativas.
En el ámbito administrativo, se enfatiza la importancia de programas de capacitación y desarrollo profesional en IA para equipar al personal público con las habilidades necesarias. Promover una cultura organizacional que fomente la innovación y la adaptabilidad también puede ayudar a superar la resistencia al cambio y facilitar una implementación efectiva de IA.
Finalmente, fortalecer la colaboración interdepartamental e interinstitucional es esencial para asegurar una implementación coherente y coordinada de IA en políticas públicas. Esto puede lograrse mediante la creación de redes de colaboración y la estandarización de procesos que faciliten la integración de soluciones de IA en múltiples áreas gubernamentales (Jay, Padilla & Rodelo, 2024).
En conjunto, estas propuestas están diseñadas para mitigar los desafíos identificados y aprovechar plenamente el potencial transformador de la IA en el ámbito de las políticas públicas, asegurando que se implementen de manera ética, efectiva y equitativa para el beneficio de la sociedad en su conjunto.
5. Conclusiones
En este estudio, se han explorado los desafíos fundamentales asociados con la implementación de inteligencia artificial (IA) en políticas públicas, abordando aspectos técnicos, éticos, legales y administrativos. Los principales hallazgos revelan que los desafíos tecnológicos incluyen la integración de sistemas de IA en infraestructuras existentes, la escalabilidad y sostenibilidad tecnológica, así como los requisitos y la calidad de los datos necesarios para alimentar estos sistemas. Desde una perspectiva ética, los dilemas en la toma de decisiones automatizadas, los problemas de privacidad y los sesgos algorítmicos emergen como preocupaciones significativas. En el ámbito administrativo, la resistencia al cambio, la necesidad de capacitación en IA y la coordinación interdepartamental se destacan como barreras cruciales.
Entender y abordar estos desafíos es de suma importancia debido al potencial transformador de la IA en la eficiencia de los servicios públicos, la toma de decisiones informadas y la mejora de la calidad de vida de los ciudadanos. Sin embargo, la implementación de IA conlleva riesgos significativos si no se manejan adecuadamente, incluidos los problemas éticos y legales que podrían erosionar la confianza pública y afectar negativamente la equidad y la justicia.
Para avanzar en este campo, se necesitan investigaciones adicionales que profundicen en áreas específicas, como el desarrollo de marcos regulatorios adaptados a la IA, la mitigación de sesgos algorítmicos, y la evaluación de impacto a largo plazo de la IA en la eficiencia y efectividad de los servicios gubernamentales. Además, estudios comparativos entre diferentes países y contextos culturales pueden proporcionar insights valiosos sobre las mejores prácticas y lecciones aprendidas.
Para superar estos desafíos, es crucial invertir en infraestructuras tecnológicas flexibles y escalables que puedan integrar sistemas de IA de manera efectiva. Es fundamental establecer marcos regulatorios sólidos que aborden las preocupaciones éticas y legales, asegurando la transparencia y la rendición de cuentas en la toma de decisiones automatizadas. Administrativamente, se debe promover una cultura organizacional que fomente la innovación y la colaboración interdepartamental para maximizar el impacto positivo de la IA en el sector público.
La implementación de IA en políticas públicas representa un desafío complejo, pero también una oportunidad significativa para mejorar la eficiencia y la efectividad del gobierno. Abordar estos desafíos de manera proactiva y estratégica es esencial para maximizar los beneficios de la IA mientras se mitigan sus riesgos potenciales, asegurando así un impacto positivo y sostenible en la sociedad.
Referencias bibliográficas
Ausín, T. (2021). Why Ethics for Artificial Intelligence? The old, the new and the spurious. Sociología Y Tecnociencia, 11(Extra_2), 1–16. https://revistas.uva.es/index.php/sociotecno/article/view/5618
Avila, H., Olmos, D., Quispe, G. C., y Diaz, L. P. (2022). Talento humano en la cuarta revolución industrial. Revista Venezolana de Gerencia, 27(97), 161-169. https://doi.org/10.52080/rvgluz.27.97.1
Christian, B. & Griffiths, T. (2016). Algorithms to Live By: The Computer Science of Human Decisions. Henry Holt and Co.
Cotrina-Aliaga, J. C., Vera-Flores, M. Á., Ortiz-Cotrina, W. C., y Sosa-Celi, P. (2021). Use of Artificial Intelligence (AI) as a strategy in higher education. Revista Iberoamericana de Educación, (E1). https://doi.org/10.31876/ie.vi.81
Cycleback, D. (2020). Examining the intelligence in artificial intelligence. https://philpapers.org/rec/CYCETI
Domingos, P. (2015). The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. Basic Books.
Estupiñán, J., Leyva, M. Y., Peñafiel, A. J., & El Assafiri, Y. (2021). Inteligencia artificial y propiedad intelectual. Universidad Y Sociedad, 13(S3), 362–368. Recuperado a partir de https://rus.ucf.edu.cu/index.php/rus/article/view/2490
Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press.
Finol, L. (2023). Evaluación de políticas públicas: Experiencias comparadas en América Latina y Europa. Opción, 39(100), 234-263. https://doi.org/10.5281/zenodo.7637525
Flores, J. P., Manrique, M., Serna, G. J., y Aybar, I. E. (2021). Liderazgo en tiempos de 4ta revolución industrial. Revista Venezolana de Gerencia, 26(96), 1096-1107. https://doi.org/10.52080/rvgluz.26.96.7
Floridi, L. (2014). The Fourth Revolution: How the Infosphere is Reshaping Human Reality. Oxford University Press.
Fuenmayor, J. (2024). Editorial. La educación superior en la era de la IA, principales tendencias y desafíos. Revista De Ciencias Sociales, 30(2), 9-13. https://doi.org/10.31876/rcs.v30i2.41930
García, R., Yupanqui, W. F., Pérez, W., & Fierro, G. A. (2021). Integridad del sistema de Inversión pública y e-government en servicios municipales. Revista Venezolana De Gerencia, 26(6), 266-282. https://doi.org/10.52080/rvgluz.26.e6.16
Goicochea, D. I., Manrique, M. A. L., Ogosi, J. A., y Palumbo, G. B. (2024). Nuevas tecnologías y modernización de la gestión pública perspectivas futuras. Revista Venezolana De Gerencia, 29(107), 1366-1381. https://doi.org/10.52080/rvgluz.29.107.25
Goodfellow, I., Bengio, Y. & Courville, A. (2016). Deep Learning. MIT Press.
Guaña-Moya, J., y Chipuxi-Fajardo, L. (2023). Impacto de la inteligencia artificial en la ética y la privacidad de los datos. RECIAMUC, 7(1), 923-930. https://doi.org/10.26820/reciamuc/7.(1).enero.2023.923-930
Helbing, D., Frey, B. S., Gigerenzer, G., Hafen, E., Hagner, M., Hofstetter, Y., Van den Hoven, J.,Zicari, R. V., y Zwitter, A. (February 25, 2017). Will democracy survive Big Data and Artificial Intelligence? Scientific American. https://www.scientificamerican.com/article/will-democracy-survive-bigdata-and-artificial-intelligence/
Jackson, P. C. (2019). Introducción a la Inteligencia Artificial. Courier Dover Publications.
Jay, W., Padilla, M. G., y Rodelo, M. K. (2024). Políticas públicas ante la Revolución de la inteligencia artificial en Colombia. Revista Venezolana De Gerencia, 29(106), 865-883. https://doi.org/10.52080/rvgluz.29.106.26
Jordan, M. I., & Mitchell, T. M. (2015). Machine Learning: Trends, Perspectives, and Prospects. Science, 349(6245), 255-260. https://www.cs.cmu.edu/~tom/pubs/Science-ML-2015.pdf
Kotter, J. P. (1996). Leading Change. Harvard Business Review Press.
Llanes-Font, M., Salvador-Hernández, Y., Suárez-Benítez, M., y SolórzanoBenítez, R. (2020) Cuarta revolución industrial y administración pública de América Latina y el Caribe. Ciencias Holguín, 26(3). https://www.redalyc.org/articulo.oa?id=181563834007
Mayer-Schönberger, V. & Cukier, K. (2013). Big Data: A Revolution That Will Transform How We Live, Work, and Think. Houghton Mifflin Harcourt.
McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (1956). A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. Dartmouth College,Hanover, New Hampshire.
Mejía-Lobo, M., Hurtado-Gil, S. V., & Grisales-Aguirre, A. M. (2023). Ley de delitos informáticos colombiana, el convenio de Budapest y otras legislaciones: Estudio comparativo. Revista De Ciencias Sociales, 29(2), 356-372. https://doi.org/10.31876/rcs.v29i2.39981
Mitchell, T. M. (1997). Machine Learning. McGraw-Hill.
Montecinos, E. (2021). Cuarta revolución industrial y la administración pública en América Latina. Revista Venezolana De Gerencia, 26(93), 10-32. https://doi.org/10.52080/rvgluz93.02
Ocaña-Fernández, Y., Valenzuela-Fernández, L. A., Vera-Flores, M. A., & Rengifo-Lozano, R. A. (2021). Inteligencia artificial (IA) aplicada a la gestión pública. Revista Venezolana De Gerencia, 26(94), 696-707. https://doi.org/10.52080/rvgv26n94.14
O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group.
Pastor, A. y Nogales, P. (2019). El futuro del trabajo en la administración pública ¿estamos preparados? Revista Vasca de Gestión de Personas y Organizaciones Públicas, (Extra 3), 34-51. https://www.ivap.euskadi.eus/contenidos/informacion/especial_3_revgp/en_def/Pastor%20&%20Nogales%2034_%2051.pdf
Pozo, C., Ruiz, J., Vigo, E., y Flores, F. (2020). Tendencias gerenciales en las organizaciones: una mirada teórica. Revista Venezolana De Gerencia, 25(91), 1095-1113. https://doi.org/10.37960/rvg.v25i91.33184
Ramió, C. (2018). El impacto de la inteligencia artificial y la robótica en el empleo público. GIGAPP working papers, (98), 401-421.
Russell, S. & Norvig, P. (-020). Artificial Intelligence: A Modern Approach. (4th ed.). Pearson.
Sánchez-Huamán, Y. D., VillafuerteMiranda, C. A., FloresMorales, J. A., y Neyra Huamani, L. (2023). Gestión del cambio organizacional en la Administración Pública. Estudio de caso. Revista Venezolana De Gerencia, 28(Edición Especial 10), 1126-1139. https://doi.org/10.52080/rvgluz.28.e10.16
Soriano, A. (2021). Decisiones automatizadas: problemas y soluciones jurídicas. Más allá de la protección de datos. Revista de Derecho Público: Teoría y método, 3, 85–127. https://doi.org/10.37417/rpd/vol_3_2021_535
Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433-60. https://philpapers.org/rec/TURCMA
Vértiz-Osores, J. J., Buendia, A. R., Chilet, S. E., y Massa, L. A. (2023). Gobierno en línea y nuevas tendencias de la gestión pública: caso peruano. Revista Venezolana De Gerencia, 28(No. Especial 9), 580-594. https://doi.org/10.52080/rvgluz.28.e9.36
Zuluaga, L. (2020). Inteligencia artificial en América Latina: cultura de datos, infraestructura y habilidades digitales. Fundación Konrad Adenauer. Inteligencia artificial en Latinoamérica. https://dialogopolitico.org/wp-content/uploads/2023/04/InteligenciaArtificial-en-Latinoamerica.pd