Revista de Ciencias Sociales (RCS)

Vol. XXX, No. 1, Enero - Marzo 2024. pp. 251-267

FCES - LUZ ● ISSN: 1315-9518 ● ISSN-E: 2477-9431

 

Como citar: Barrios-Tao, H., y Díaz, V. (2024). Inteligencia artificial y emociones: Psicopolítica mediante datos y algoritmos (2015-2022). Revista De Ciencias Sociales, XXX(1), 251-267.

 

Inteligencia artificial y emociones: Psicopolítica mediante datos y algoritmos (2015-2022)*

 

Barrios-Tao, Hernando**

Díaz Pérez, Vianney***

 

Resumen

 

Los sistemas de inteligencia artificial invadieron los espacios vitales y se orientan a reconfigurar las subjetividades, sus relaciones e identidades. En estos desarrollos se entrelazan dispositivos, datos y algoritmos que se alimentan de la información emocional entregada libremente por los usuarios en los escenarios digitales. Estas emociones se convirtieron en un capital utilizado por el neoliberalismo para el ejercicio de la psicopolítica, mediante dispositivos y estrategias suaves de manipulación, gobierno y modificación conductual. El artículo de revisión narrativa (2015-2022) se orienta a establecer la configuración de la psicopolítica ejercida sobre las emociones, mediante datos y algoritmos en los sistemas fuertes de inteligencia artificial. Los resultados temáticos indican que los datos emocionales transformados en inscripciones digitales son utilizados para el ejercicio del biopoder dirigido al interior (psique) de los individuos en una secuencia de manipulación, dominación, gobernanza, modificación de conducta y reconfiguración de las subjetividades en forma de máscaras y perfiles. Las conclusiones principales indican que los sistemas de inteligencia artificial trasegaron de mejorar aspectos de la vida, a la invasión de la interioridad de los individuos, la cual se convirtió en un capital explotable que posibilita el ejercicio del psicopoder, con el riesgo para los derechos humanos.

 

Palabras clave: Psicopolítica; inteligencia artificial; emociones; datos; algoritmos.

 

 

Artificial intelligence and emotions: Psychopolitics through data and algorithms (2015-2022)

 

Abstract

 

Artificial intelligence systems invaded vital spaces and are aimed at reconfiguring subjectivities, their relationships and identities. These developments intertwine devices, data and algorithms that feed on the emotional information freely provided by users in digital scenarios. These emotions became capital used by neoliberalism for the exercise of psychopolitics, through devices and soft strategies of manipulation, government and behavioral modification. The narrative review article (2015-2022) is aimed at establishing the configuration of psychopolitics exercised on emotions, through data and algorithms in strong artificial intelligence systems. The thematic results indicate that emotional data transformed into digital inscriptions are used for the exercise of biopower directed to the interior (psyche) of individuals in a sequence of manipulation, domination, governance, behavior modification and reconfiguration of subjectivities in the form of masks. and profiles. The main conclusions indicate that artificial intelligence systems went from improving aspects of life to the invasion of the interiority of individuals, which became an exploitable capital that enables the exercise of psychopower, with the risk for human rights.

 

Keywords: Psychopolitics; artificial intelligence; emotions; data; algorithms.

 

 

Introducción

La Inteligencia Artificial (IA) es una “fuerza poderosa” con dispositivos, datos y algoritmos que reconfigura la sociedad, sus entornos e interacciones (Floridi et al., 2018) e invade dominios como la cultura, saber, salud, transporte, trabajo, finanzas, amor, sexo, entre otros; estos sistemas fabrican, organizan y orientan la realidad, imponen jerarquía de valores y dibujan marcos cognitivos y culturales a las sociedades. La IA sobrepasa procesos automatizados, robots sociales, realidades mixtas y aumentadas, hasta llegar a las subjetividades (Huici y Davila, 2016). Por último, reconfigura la vida misma en su identidad, naturaleza y condición: “fabricamos estos dispositivos de cálculo, pero a su vez, ellos nos construyen” (Cardon, 2018, p. 13).

Los desarrollos de IA y la investigación neurocientífica difuminan los límites entre cuerpo y mente (Damasio, 1996); comprenden el cuerpo humano como máquina y se disponen a superar la mente e incidir en lo orgánico del ser humano para mejorarlo, modificarlo o recrearlo (García-Gutiérrez, 2017; Arbeláez-Campillo, Villasmil y Rojas-Bahamón, 2021), con la posibilidad de declararlo obsoleto y “cambiar el propio concepto de lo que significa ser humano” (Telefónica, 2018, p. 9).

En el marco predictivo de Virilio (1997), acerca de la colonización del cuerpo vivo hasta convertirlo en un cuerpo sin alma, profanado por una ciencia sin conciencia, que constituye la domesticación definitiva de la percepción humana; se indica un nuevo paso de las tecnologías que protegían al ser humano del mundo exterior y “se internan ahora en él, lo transforman y construyen” (García, 2010, p. 237) con posibilidades de configurar su identidad desde fuera.

En la interioridad del ser humano, los sistemas de IA explotan su intimidad, emociones y sentimientos. Este capitalismo despliega discursos emocionales y mercantiles que convierten el afecto en un aspecto esencial del comportamiento económico (Illou, 2007), se favorece por la exposición de la intimidad como espectáculo (Sibilia, 2008), y arriba a la auto-explotación del individuo quien, en su convicción de libertad, entrega sus datos en el nuevo “panóptico digital” (Han, 2014).

En este ámbito se inscriben las reflexiones acerca de que el siglo XX inició pensando la política desde categorías técnicas y culminó pensando la técnica desde categorías políticas (Broncano, 2006), como los planteamientos de Fukuyama (2008), sobre el conocimiento y manipulación del cerebro que se constituirían en fuente del control de la conducta con significativas implicaciones políticas. Frente a la problemática planteada y a la necesidad de comprender las nuevas formas de poder, el artículo se orienta a establecer la configuración de la psicopolítica ejercida sobre las emociones, mediante datos y algoritmos en los sistemas fuertes de IA.

 

1. Fundamentación teórica

1.1. Inteligencia artificial

La evolución conceptual de la IA se dinamiza por sus desarrollos. Las definiciones pasan de concebirla como actividad creadora de máquinas que interactúan con sus entornos (Stone, 2016), a una disciplina o conjunto de ciencias computacionales, sociales y humanas orientadas a diseñar sistemas inteligentes (Benítez et al., 2014; Maita-Cruz et al., 2022) y arriban a una concepción plural (IA): Sistemas que integran información, datos, algoritmos y tecnologías con capacidad de actuar en las realidades física y digital, percibir su entorno mediante datos e interpretarlos, y tomar decisiones de acuerdo con su configuración algorítmica, criterios y objetivos determinados por sus valores éticos y contextuales (European Commission, 2018; 2020).

Esta dinámica conceptual conduce a clasificarlas en versiones “débiles” y “fuertes” (Zawacki-Richter et al., 2019); “estrechas”, “generales” y “súper” (Kaplan y Haenlein, 2019). El artículo se centra en aquellas IA “fuertes” o “súper” diseñadas para actuar sobre los seres humanos, en cuyas características de aprendizaje se integran datos y entornos, e incorporan sensaciones y emociones que les permitiría afrontar desafíos relacionados con la razón y la conciencia (Colmenarejo, 2018). En este ámbito, se ubica la clasificación de IA de Kaplan y Haenlein (2019): Analítica (inteligencia cognitiva), emocional (inspirada en humanos) y humanizada (adición de inteligencia social).

 

1.2. Big data y algoritmos

Los sistemas fuertes de IA se configuran mediante big data y algoritmos. El big data es un “fenómeno socio-tecnológico” (Colmenarejo, 2018, p. 113) que recoge, almacena, gestiona y utiliza datos masivos mediante redes y dispositivos de almacenamiento, los configura con métodos estadísticos y de aprendizaje automático, sin atención a factores como la privacidad, propiedad, identidad, intimidad, confianza o reputación. Por su parte, los algoritmos son códigos de software, cálculos o constructos matemáticos que procesan instrucciones, con el fin de obtener determinadas respuestas, resultados o propósitos, a partir de criterios establecidos (Hil, 2016). La omnipresencia, opacidad, universalidad, subjetividad y parcialidad orientada por particulares motivos éticos, contextuales y económicos, son algunas de sus propiedades (Monasterio, 2017).

Los cálculos algorítmicos aprenden a partir de los comportamientos de los usuarios y predicen acciones, de acuerdo con la información e historial de los datos. Más allá de procesos computacionales abstractos, los algoritmos se enmarcan económica, política, ética, temporal y filosóficamente, y se determinan como “unidades epistemológicas” (Prinsloo, 2017, p. 143) con poder para representar realidades materiales y moldear la vida personal y social, cada vez más con menos control por parte de los individuos, hasta el riesgo de convertirse en “armas de destrucción” (O’Neil, 2018).

La configuración de sistemas de IA con algoritmos, posibilita la inserción y actuación en la interioridad, psiche, en las emociones del individuo, sin su conocimiento, conciencia y consentimiento, atrapando sus proyectos y experiencias (O’Neil, 2018). En consecuencia, se pueden dirigir ofertas con herramientas para organizar, elegir, regular y optimizar sus decisiones (Cardon, 2018).

 

1.3. Emociones y psicopolítica

En cuanto a las emociones, los enfoques y contextos mediante los cuales se han abordado, integran, tanto, la concepción multidimensional que las considera, como un “proceso multicomponente” y complejo que vincula respuestas neurofisiológicas, motoras y cognitivas (Sutton y Wheatley, 2003), así como su expresión múltiple en aspectos biológicos, individuales, contextuales, culturales y sociales (Du Toit, 2014). De manera particular, su enfoque sociocultural indica la fusión entre significados culturales y relaciones sociales, así como la correspondencia entre las estructuras social, emotiva e individual (Nussbaum, 2003; Zembylas, 2007).

Las emociones transitan de la esfera privada al ámbito social y colectivo en aplicaciones, redes y dispositivos, en forma de datos, comentarios y emoticones. En el ciberespacio, las emociones son “inscripciones digitales” u objetos almacenables, gestionables, visualizables, comparables, susceptibles de ser compartidas y con mayor facilidad de generarse, distribuirse, contagiarse e influenciarse mutuamente, debido a la intensidad y cantidad de emociones circulantes (Serrano-Puche, 2016).

En este contexto, se vinculan con la acción social y se clasifican en “emociones colectivas”: “Compartidas” y “recíprocas” (García, Guzmán y Marín, 2017) y se pueden predecir mediante patrones de comportamiento a partir de preferencias, perfiles y personalidades de los usuarios (Firdaus, Ding y Sadeghian, 2021). Asimismo, los análisis de sentimientos y emociones con técnicas de IA (Naive Bayes, Bayesian Network, Graphs, K-means, Neural network, Maximum entropy), se convirtieron en tendencia para las organizaciones y empresas, debido al interés económico que genera conocer y analizar las motivaciones, orientaciones e inclinaciones de los usuarios (Henríquez y Guzmán, 2017; Chanchí-Golondrino, Hernández-Londoño y Ospina-Alarcón, 2022).

Por último, la psicopolítica se determina como un nuevo y sofisticado paso del ejercicio del poder: De la biopolítica que lo ejerce sobre el cuerpo, a la psicopolítica que se orienta a la interioridad (pensamientos, emociones, pensamientos y necesidades internas) (Han, 2014). Mientras que la biopolítica del capitalismo, se asoció a lo corporal como modelo somatocrático (Foucault, 2009), la psicopolítica neoliberal ejerce su poder sobre lo psíquico, nueva fuerza productiva, en forma de producción inmaterial e incorpórea y configurada en sistemas de IA (Galparsoro, 2017).

Este nuevo ejercicio del poder utiliza estrategias no de sometimiento, sino de seducción, motivación e ilusión, a partir de los datos personales entregados voluntariamente por los usuarios (Han, 2014). Así, se configura una “psicopolítica digital”, como una forma más efectiva de control ejercido desde dentro (Cruz, 2017; Espinosa, 2018), debido a su capacitad, tanto de la lectura como el control de los pensamientos y las emociones (Han, 2014).

 

2. Metodología

La metodología se determina como una revisión narrativa caracterizada por investigar un tópico de forma selectiva y presentar resultados de forma descriptiva acerca de los textos investigados (Popay et al., 2006). El tópico se condensa en la pregunta que conduce el proceso investigativo: ¿Cómo se configura la psicopolítica ejercida sobre las emociones, mediante datos y algoritmos en los sistemas fuertes de IA?

La búsqueda y selección de los textos para la revisión se delimitaron por el tópico establecido mediante descriptores en inglés y castellano (“emotions”, “artificial intelligence”, “big data”, “algorithms”, “psychopolitics”) y con los siguientes criterios de inclusión: Estudios e investigaciones teóricas, experimentales o revisiones, en índices o bases de datos internacionales (Science Direct, Scopus, EBSCO, Proquest, Scielo); informes de entidades internacionales; marco temporal (2015-2022); tesis doctorales. Se excluyeron artículos de opinión, material gris, trabajos de maestría.

El diseño metodológico para la revisión se estructuró en etapas: 1) Formulación del tópico/pregunta; 2) Búsqueda e identificación de textos; 3) Organización y selección de las fuentes; 4) Identificación de líneas temáticas; 5) Estructura y presentación de resultados. De la búsqueda e identificación de fuentes, a partir de los criterios establecidos, resultaron 121 documentos, los cuales se organizaron en una matriz con datos sobre tipo, título, resumen, unidades conceptuales sobre psicopolítica y resultados principales. Por razón de su aporte al objetivo se incluyeron algunos textos fuera del marco temporal. Esta matriz permitió deducir información para la selección de las fuentes que contribuyesen con el tópico determinado.

Los 57 documentos seleccionados se sistematizaron a través de unidades conceptuales sobre psicopolítica: N-Neoliberalismo; I-Internet; M-Manipulación; G-Gobernanza; C-Conducta; P-Perfiles. Esta sistematización permitió identificar líneas temáticas (L 1-6) organizadas en unidades conceptuales emergentes, a partir de la dinámica sobre cómo se configura la psicopolítica en los sistemas de IA, lo cual permitió estructurar y presentar de forma narrativa los resultados.

 

3. Resultados y discusión

3.1. (L-1 N) IA, emociones, capitalismo y neoliberalismo

La primera línea temática refiere las emociones como un capital posible de invasión, de objetivo del ejercicio del biopoder por parte del neoliberalismo. La alianza tácita entre técnica, medios de comunicación y mercado refleja un “espíritu empresarial” e impacta las subjetividades en sus dimensiones externas y en su vida interior. En consecuencia, las habilidades corporales, emocionales y afectivas, así como los “cuerpos y subjetividades” son ahora las que mejor cotizan en el mercado de valores (Sibilia, 2012). En adición, los presupuestos del régimen neoliberal consideran las emociones como “recursos para incrementar la productividad y el rendimiento” (Han, 2014, p. 38).

Mientras que Han (2014), analiza el vínculo entre proceso económico y emociones que explota su performatividad, intencionalidad, finalidad y dinámica situacional; Illou (2007), plantea una configuración mutua entre prácticas, discursos emocionales y económicos, que genera un movimiento en el cual “el afecto se convierte en un aspecto esencial del comportamiento económico” (p. 20). Se configura una mercantilización del “yo” que se puede aprehender mediante textos y así clasificarse, cuantificarse y representarse en el ámbito público. Las emociones se convierten en entidades “evaluadas, examinadas, discutidas, negociadas, cuantificadas y mercantilizadas” (Illou, 2007, p. 227).

Otro aspecto de esta línea temática es la relación entre biocapital, capitalización del cuerpo humano y economía de datos digitales. Emociones y hábitos se invierten con valor comercial y se reutilizan para beneficios financieros de otros: “Producen valor en términos de los íntimos conocimientos bio-digitales que generan los individuos” (Lupton, Mewburn y Thomson, 2018, p. 116). Han (2014), indica estrategias del neoliberalismo que utiliza la “emocionalidad” y sus sentimientos de libertad y despliegue de la personalidad, para la explotación mediante técnicas invasivas de la interioridad individual, con modelos emocionales orientados a maximizar el consumo y bajo el presupuesto de que las emociones se consumen indefinidamente.

Por último, en el ámbito educativo, biometría y bibliometría se configuran como factores de mercado, que identifican formas de actuación y definen perfiles emocionales de los actores educativos: “Seres economizados”, “auditables” y sujetos ideales configurados y arrastrados por sus propios deseos con las denominadas “tecnologías del yo” (Moffat et al., 2018, p. 10).

 

3.2. (L-2 I) IA, emociones, datos y algoritmos

La segunda línea se ubica en el paso del homo psychologicus al tecnológico, ubicado en internet. Allí datos y algoritmos convocan a las subjetividades a exhibirse en las pantallas y son alter dirigidas y construidas en la exhibición exterior (Sibilia, 2008). Los dispositivos digitales son canales facilitadores “repentinos” que transportan afectos y establecen el “yo” como un asunto público, con la dimensión emocional antepuesta a las interacciones privadas (Han, 2014). En el mercado de las narrativas terapéuticas que comercian con la felicidad, las emociones se convierten en asunto público: Expuestas, analizadas y discutibles (Illou, 2007).

El aspecto central de esta línea es la transformación de las emociones en “inscripciones digitales”, objetivadas y dispuestas como información y datos, con la posibilidad de ser gestionadas, manipuladas, reconfiguradas y modificadas (Serrano-Puche, 2016). De este modo, los datos emocionales contribuyen con prácticas de biometría, bajo diferentes denominaciones: “Métrica” (Beer, 2016; Feldman y Sandoval, 2018), “cuantificación” (Moore y Robinson, 2016), “digitalización” (Lupton et al., 2018), o “dataísmo” (Cheney-Lippold, 2017).

Las emociones digitalizadas posibilitan configurar sistemas de IA para movilizar y condicionar respuestas mediante el contagio emocional, más que por diálogos racionales. De este modo, se establece una “cacofonía digital” que prioriza juicios emocionales, sentimientos y estados de ánimo, induciendo conexiones a corrientes promovidas por las tribus morales con las cuales se identifican los usuarios; allí “los juicios no expresan creencias, sino emociones” (Pérez, 2021, p. 14).

En la nueva “religión de los datos” (Harari, 2016), los usuarios inscriben la información emocional, ceden su autoridad al libre mercado y se exponen a los algoritmos. En cada interacción con dispositivos digitales se dejan huellas digitales, fácilmente rastreables y con la posibilidad de que la vida sea reproducida completamente (Galparsoro, 2017). La inteligencia de datos condiciona al sujeto a nivel pre-reflexivo para que su futuro inmediato sea predecible y controlable (Han, 2014).

El capital emocional circulante en forma de grandes datos abre las puertas al ejercicio del poder orientado a la interioridad de los individuos. Esta psicopolítica digital se va configurando en varios momentos que pasan de la manipulación y la gobernanza, hasta la modificación de la conducta. Las siguientes líneas temáticas desarrollan los resultados de cada una de estas etapas.

 

3.3. (L-3 M) IA, emociones y manipulación

La manipulación inicia con el suministro de datos emocionales por un yo múltiple, lúdico, flexible y abierto (Illou, 2007) y continúa con la identificación y aprovechamiento de sus debilidades y vulnerabilidades (Susser, Roessler y Nissenbaum, 2019). El sistema neoliberal explota la libertad en aquellas formas manipulables (emoción, juego y comunicación), que son sinónimos de realización individual, por un lado, y mediante la estrategia de agradar, maximizando el consumo y la positividad, las cuales activan el ánimo del sujeto para comunicar sus emociones, por otra parte (Han, 2014). Asimismo, el ámbito empresarial utiliza análisis de datos de las esferas íntimas y emocionales de sus empleados para tomar decisiones, con el riesgo de los posibles sesgos en sus configuraciones algorítmicas (Szlechter y Zangaro, 2020).

Algunos autores revisados indican teorías ubicadas en el fondo de la manipulación emocional. Mientras que la difusión emocional (Emotional Broadcaster Theory) identifica la necesidad innata de los individuos para compartir experiencias, en este caso las emociones (Segado-Boj, Díaz-Campo y Navarro-Sierra, 2020), áreas como la psicología, la cultura laboral y la informática plantean la teoría de la “extracción emocional” en sus dos acepciones.

La primera, se relaciona con la transferencia de emociones de un individuo o grupo a otro; y la segunda acepción, implica conocer las emociones para generar conclusiones y predicciones sobre el comportamiento humano. Las redes sociales configuran un big data de extracción emocional con el “me gusta”, el cual transmitee información emocional al ámbito público, así como a los desarrolladores de marketing (Padios, 2017).

Otros autores señalan prácticas manipuladoras en la configuración de los sistemas de IA; Broncano (2006), refiere la mezcla y ampliación de las realidades virtual y física, así como el dominio de la información en donde se manipulan patrones, viajeros de sistema en sistema y de proceso en proceso, que interactúan con los cerebros y mentes. La configuración de estos patrones manipula el mundo virtual y conforman realidades que influyen en el estado de ánimo e induce a determinadas decisiones, excluyendo la argumentación que permitiría establecer juicios de valor (Cotino, 2017).

Asimismo, mientras que Susser et al. (2019) identifican prácticas que explotan las vulnerabilidades, miedos, ansiedades, esperanzas y deseos, así como inclinaciones materiales y económicas para manipular las decisiones; Chapman, Fong y Fiedler (2021), analizan la gamificación como “un modo de control posdisciplinario”, a partir de la diversión experimentada por los usuarios que, al ser seducidos y emocionados, entregan esfuerzos corporales e intercambian datos personales.

Por último, autores refieren estrategias utilizadas en la configuración de sistemas de IA para manipular conductas. Las burbujas epistémicas encierran los individuos en sus propias elecciones, focalizándolos en el ámbito de lo probable y conduciéndolos a selecciones desproporcionadas de información personal (Cardon, 2018). En el caso de las emociones, estas burbujas las amplifican en discursos polarizadores de odio (Magallón y Campos, 2021) y encierran las personas en sus sentimientos y creencias (Nguyen, 2020). Por su parte, las cámaras de eco creadas por los mismos sujetos, excluyen, desacreditan voces disonantes (Nguyen, 2020) y polarizan cuando se favorece ciertos tipos de contenido, que confirman las propias opiniones y perfiles de los individuos envueltos en estos fenómenos (European Commission, 2018).

 

3.4. (L-4 G) IA, emociones, dominación y gobernanza

La cuarta línea señala el paso de la manipulación, al gobierno de los usuarios. Al explotar las corrientes positivas emocionales se accede a datos de quienes buscan información digital para optimizar su “yo” y solucionar necesidades creadas por los mismos algoritmos. Asimismo, al sobre estimular esta positividad se motiva el consumo e incrementa la productividad: “En pos de la producción permanente destruye continuidad y construye inestabilidad, impulsa la emocionalización del proceso productivo” (Han, 2014, p. 72). 

El centro de la línea es la gobernanza digital marcada con el denominado “dataísmo”. Mientras que para Lupton (2016), en esta práctica de “autoseguimiento” se identifican características vitales individuales, se combina biocapital con economía de datos digitales y se transporta la emotividad generada en ambientes laborales a los ámbitos privados de hogares y relaciones interpersonales; para Galparsoro y Pérez (2018), estos datos posibilitan el acceso a la motivación, competencia e iniciativa del individuo, armas de gobernanza, con las cuales se puede vigilar, dominar y controlar.

De este modo, en las corporaciones financieras y políticas, el análisis de las emociones trasegó de una psicometría a un dispositivo psicopolítico, en cuya base para la toma de decisiones están los datos de los usuarios como forma de control subjetivo (Melhado y Rabot, 2021). Ahora, es la piel vinculada con dispositivos que recogen y transmiten datos (wearables) a las plataformas digitales configuradas con la presión del cuidado, la mejora individual y que, al configurar perfiles, amenazan, tanto la privacidad como la democracia (O’Neil, 2018; De Azevedo, 2022).

Otros autores refieren las prácticas de gobernanza digital como los diseños que enlazan detección, procesamiento, actuación y aprendizaje algorítmico: Estructuran posibilidades; definen información para incluir en análisis; imaginan, planifican y transforman datos; filtran, seleccionan y reflejan información (Prinsloo, 2017, p. 143). Por otra parte, la práctica del psicopoder no es vertical, sino ideológica, con estrategias no represivas, sino que involucran emociones y deseos hacia imágenes identitarias y perfiles que permiten la inclusión en mercados (Palmeiro, 2010). En esta práctica, las redes sociales se utilizan para generar emociones, tanto de partidarios como de antagonistas, hasta el punto de configurar nuevas interpretaciones de la realidad (Poma y Gravante, 2017).

Otro ángulo de esta cuarta línea es la gobernanza mediante la polarización con discursos. Es el caso de quienes ejercen dominio con la post-verdad, cuya estructuración se base en apelar a las emociones (Niño, Barquero y García, 2017) y configurar una “polarización artificial”, mediante la cual los usuarios buscan mejorar su estatus o desahogarse con una escalada de expresiones emotivas, cuyo resultado es “un clima de aparente polarización amplificado por la dinámica viralizante de la red” (Pérez, 2021, p. 2).

Por último, autores refieren la suavidad y sutilidad de la gobernanza. Mientras que para Han (2014), este oscuro poder se direcciona a controlar y dominar pensamientos, emociones y procesos psicológicos, mediante la predicción del comportamiento humano, sin la posibilidad de resistencia; Saura y Bolívar (2019), indican que los sujetos son “auto-monitoreados y auto-controlados desde la libertad engañosa de la auto-seducción” que subordina la mente al cuerpo y a un ego ideal configurado por el sistema económico.

Los resultados paradójicos de esta gobernanza los trazan Lanier (2018), al referir el ciudadano convertido en un prosumidor vigilado, dominado y gobernado por fuerzas ocultas, un zombie o idiota que responde a las necesidades creadas mediante su información personal; y Espinosa (2018), que indica su posibilidad de ser un genio, lúcido y creativo. Por último, la estrategia del nudge o empujón que, al combinarse con los datos entregados, se configura como una herramienta reguladora e interviene en el comportamiento individual, prediciendo aspectos vitales que coartan la libertad de elección y anulan la posibilidad de resistencia (Barrero, 2022).

 

3.5. (L-5 C) IA, emociones y modificación de conductas

Otros autores refieren un nuevo paso en la psicopolítica, la modificación conductual. Ahora las corrientes emocionales negativas se utilizan para sacar lo peor de los individuos, más aún cuando la motivación se impulsa por modelos de negocio, cuyo incentivo es ubicar clientes con disposición económica para modificar la conducta de otras personas (Lanier, 2018). El uso de las emociones para configurar violencia en los niveles psíquicos se ejerce cuando se obliga a las personas rendimientos y resultados exorbitantes hasta conducirlos al autoagotamiento (Gomes y Vargas, 2019).

Otra estrategia para modificar conductas es el contagio emocional. El mismo Lanier (Zafra, 2018) considera que la capitalización de los datos se orienta a manipular personas generando adicciones, mediante las cuales se hipnotizan individuos con la consecuente modificación conductual. Los estados de ánimo se transfieren sin necesidad de encuentros físicos o contactos visuales y se fortalecen con fenómenos como la “viralidad” (Serrano-Puche, 2016). Es el caso de la indignación viralizada que genera discusiones violentas y polarizantes mediante provocaciones, genera respuestas emocionales y suprime debates argumentados (Acevedo, Chamorro y Quintero, 2021).

Asimismo, visualizar contenidos expresados con emociones morales genera una especie de “contagio moral”: Se atrae la atención de los usuarios, se despiertan sus emociones morales y se orienta su conducta hacia la indignación y condena al infractor (Pérez, 2021). En la revisión de Poma y Gravante (2017), se refiere la relación emociones y protesta social en ámbitos digitales y se aborda el concepto moralshock definido como la respuesta emocional a un evento o a una información con capacidad de producir en los individuos un proceso de reelaboración de la realidad.

Por último, autores refieren los fines económicos de la modificación conductual. El ejercicio del psicopoder orienta los usuarios hacia su optimización personal, al incremento de la eficiencia y la obligación de felicidad, mediante actividades de coaching empresarial, inteligencia emocional y management personal, las cuales se encaminan a eliminar supuestas imperfecciones y debilidades y alcanzar cierta perfección para funcionar en el sistema. El resultado de la optimización personal es la autoexplotación total, que es destructiva y conduce al colapso mental (Han, 2014).

Otra de las combinaciones revisadas es aquella que mezcla emociones y noticias falsas. En situaciones de crisis, las personas usan las redes sociales como apoyo emocional y allí se exponen a información relacionada con su crisis: Emociones como la ira o la ansiedad las impulsan a buscar y compartir información relevante (Vafeiadis y Xiao, 2021).

 

3.6. (L-6 P) IA, emociones y perfiles falsos

El punto de llegada de la psicopolítica es la reconfiguración de la identidad de los sujetos. Los sistemas de IA se determinan como “tecnologías afectivas” que encauzan emociones y reconfiguran subjetividades. Las experiencias emocionales se usan “como recursos en el trabajo identitario del usuario, [en el cual la persona] (…) no puede reafirmar su concepto del yo sin ser visible para los demás” (Serrano-Puche, 2016, p. 23).

El primer aspecto de esta línea es señalado por autores con relación a la disolución individual y comunitaria. A partir de la deslocalización del cuerpo o la “telepresencia”, se sigue la disolución del ser y la desintegración de la comunidad de individuos. Se está más cerca de aquellos lejanos que actúan en internet y se configura una distancia física de quien está presente: “Un fenómeno de disolución política de la especie humana” (Virilio, 1997, p. 48).

El primer resultado es la visión de unos “entes fantasmagóricos” (Lanier, 2018, p. 29) en forma de perfiles falsos, seguidores y amigos ficticios, cuya conducta ha sido modificada y en consecuencia sus actuaciones son uniformes, homogéneas y automáticas. Sus emociones explotadas y convertidas en capital configuran unos perfiles caracterizados por la “uniformidad, estandarización y reificación” (Illou, 2007, p. 177). Estos procesos de subjetivación se caracterizan por la uniformidad, basada en un “ego-ideal” y conducida por el estatus de la mirada cuantificada externa que autodefine a los sujetos digitales (Saura y Bolívar, 2019).

El punto central de esta línea es la configuración de una nueva subjetividad, “zoon elektronikón”, un animal cuyos vínculos sociales se articulan con dispositivos electrónicos, “permanentemente conectado, desubicado espacio-temporalmente [y por su actividad en la red necesita sólo] una limitada memoria de trabajo” (Huici y Dávila 2016, p. 767) y el protagonismo técnico de su mano. Otra denominación es la de “tecno” o “ciber-persona”, que refiere un individuo cuya identidad, funciones y relaciones se originan y desarrollan mediante dispositivos configurados con perfiles, claves y cuentas en la red. En este escenario las máscaras construidas tecnológicamente difuminan tanto las personas físicas como las jurídicas en identidades plurales (Echeverría, 2016).

Para otros autores las subjetividades se disponen en perfiles falsos creados con el concurso de los datos emocionales. Una vez diluida la autonomía individual, se sigue la pérdida de la identidad de forma heterónoma bajo el poder algorítmico. La identidad de los individuos ya no se reconoce por sus acciones, sino por su función en la red; el dispositivo prevé, calcula y orienta las acciones, de tal modo que estas acciones no revelan el individuo, sino la identidad del dispositivo y de quienes están detrás de su configuración (Marín-Casanova, 2018).

Los sistemas perfilan los individuos sin resistencia alguna, debido a que los algoritmos adecúan los procesos a sus gustos, sentimientos y emociones, cercenando la apertura y diversidad de la misma personalidad del individuo, bloqueando el acceso a otros productos que podrían enriquecerla, con el resultado de un individuo maleable, controlable y expuesto a que su identidad digital, ahora con valor comercial, ingrese al mercado financiero (Piñar, 2018).

Estos modos de ser, “kits de perfiles estandarizados”, constituyen un mercado que se adquiere y desecha: “Modelos subjetivos efímeros y descartables, vinculados a las caprichosas propuestas y a los volátiles intereses del mercado” (Sibilia, 2006, p. 33). Allí, los sujetos circulantes ingresan al mercado mediante su imagen que integra su fachada, exterioridad, imagen, figura, las cuales configuran su perfil (Barrios, Díaz y Guerra, 2020), y se confinan al anonimato con la única posibilidad de ser visibles mediante su doble función de productor y consumidor.

Por último, otros autores señalan el paso de la pérdida de identidad del individuo a la falsa identidad grupal. La identidad ligada al reconocimiento individual, al mismo tiempo que al reconocimiento de los otros, como ámbito de referencia e identidad comunitario, se difumina. La pérdida de identidad comunitaria se configura a partir de la dificultad y hasta imposibilidad de la conservación de la identidad individual y del aislamiento de las personas, con la consecuente actuación de las pseudocomunidades como un enjambre (Han, 2014; Piñar, 2018).

Los procesos de homogeneización y de uniformidad difuminarían la identidad de las comunidades, ahora alineadas como masas. Las sociedades tradicionales dispuestas en comunidades en torno de valores y configuradas por ellas mismas, se atomizan ahora en masas, las cuales concentran soledades y agrupan cantidad de “singulares disjuntos” (Marín-Casanova, 2018).

 

4. Psicopolítica ejercida sobre las emociones, mediante datos y algoritmos en los sistemas fuertes de IA

La discusión inicia con el final de los resultados que desembocan en la reconfiguración de subjetividades, pérdida de identidad y deshumanización. En último término, la psicopolítica amenaza lo que significa ser humano como “miembros de la comunidad humana universal” (Zovko y Dillon, 2018, p. 555). Más allá de las discusiones bioéticas acerca de la condición o naturaleza humana, los sistemas de IA desafían aspectos humanos como la autonomía, voluntad, autodeterminación y libertad, así como otras dimensiones: Identidad, corporeidad y racionalidad (Marín-Casanova, 2018).

El desarrollo personal, vinculado con los cuerpos sociales, tiene como uno de sus aspectos fundamentales la construcción de sentido que marca el horizonte de posibilidades para los seres humanos. La deslocalización y difuminación de las comunidades arriesga la construcción de futuro, “las posibilidades históricas de sentido” (García, 2010, p. 247) y el desarrollo humano y social sostenible.

Un segundo aspecto se relaciona con los denominados derechos humanos de cuarta generación que buscan proteger la interioridad, psique, ahora amenazada por quienes desarrollan, configuran y utilizan estos sistemas con fines lucrativos y de poder. Estos nuevos derechos brotan en esta cibercultura y caminan más allá de las libertades individuales de los de primera generación y de los derechos económicos, sociales y culturales de la segunda generación. El cuestionamiento de la dignidad, libertad, autonomía, privacidad, identidad e igualdad, se determinan como un reto para los nuevos derechos inherentes a estos valores humanos (De la Quadra-Salcedo, 2018).

De forma particular, se amenaza la identidad, “el derecho a ser uno mismo y diferente”, a construirse individualmente, presupuesto de la dignidad, debido a que se invade la interioridad y se busca dominar, modificar y reconfigurar la individualidad (Piñar, 2018). La distorsión y reconfiguración mediante la inmersión en burbujas ideológicas anula en la persona la posibilidad de reescribir su pasado y conservar su identidad. La protección de los derechos a la identidad, privacidad y autonomía es una alerta para quienes configuran sistemas y utilizan las emociones para crear identidades falsas y ejercer su poder mediante el asombro y la fascinación que subyugan al otro.

Por otra parte, el valor de la memoria para los procesos personales y sociales contrasta con el reclamo al derecho al olvido en los sistemas de IA. Este derecho debe garantizarse como una opción moral y colectiva, contra un pasado que se erige en “fantasma vengador” que condiciona y persigue para siempre el futuro sin la protección de tiempo y espacio. En otros términos, un derecho a construir y deconstruir un perfil y no a “quedar marcado” por las estadísticas de lo que otros han configurado, con las consecuencias en los ámbitos sociales, laborales y sanitarios (De la Quadra-Salcedo, 2018).

Un tercer aspecto de discusión se plantea como un llamado al cuidado del desarrollo emocional de las personas regidas, programadas con impulsos afectivos y convertidas en blanco de manipulación y comercialización (Mora et al., 2021). La preocupación de Damasio (1996,) se convierte en reto hoy: La importancia de “los sentimientos en la construcción de racionalidad” (p. 275), pero el poco esfuerzo por entender su compleja maquinaria biológica y sociocultural, su entrada en el comercio digital y la degradación del valor de las emociones en la adquisición y despliegue de conductas sociales adaptativas. En este sentido, la apelación de Serrano-Puche (2016) sobre la toma de conciencia de las capacidades digitales como espacio y cauce para la expresión emocional.

El cuidado emocional conduce a un cuarto aspecto: Frente al impacto de los desarrollos de lA en las experiencias emocionales se debe fortalecer la formación humanística o el cultivo de lo humano para repensar la identidad, convivencia, el aprendizaje socioemocional (Barrios-Tao, 2020) y afrontar los bombardeos de manipulación y gobernanza mediante los datos emocionales. Esta formación desarrolla conceptos básicos como el “uso público de la razón” (Cortina, 2013, p. 215), ciudadanía responsable y pensamiento crítico referido al “accionar independiente y para el desarrollo de una inteligencia resistente ante el poder de la autoridad y las tradiciones ciegas” (Nussbaum, 2010, p. 11).

El último aspecto de discusión se relaciona con la actitud, posición y disposición frente a los sistemas de IA. El planteamiento de Virilio (1997), acerca de la necesidad de críticos para evitar la tiranía de la tecnociencia y garantizar la libertad humana, se debe fundamentar en una radiografía analítica de los algoritmos que esclarezca “los retos sociales, éticos y políticos que acompañan el desarrollo del cálculo algorítmico” (Cardon, 2018, p. 21).

En cuanto a la disposición frente a los sistemas de IA, se utilizan dos figuras, la del idiota y la del gato. Han (2014), retoma la figura del idiota o hereje moderno quien dispone de una “elección libre” con su valor de desviarse de la ortodoxia, liberarse de la coacción a la conformidad y resistir la violencia del consenso y la uniformidad. El “idiotismo” es una oposición al dominio neoliberal, a la comunicación y vigilancia, al mismo tiempo que es una actitud de construir “espacios libres de silencio, quietud y soledad” (p. 54).

Por su parte, el simbolismo del gato de Lanier (2018) se basa en la caracterización del felino con sus comportamientos extraños, sorprendentes e impredecibles. Estos mininos no renuncian a ser ellos mismos y nadie los controla. Se trata de ser como gatos conservando la autonomía y frustrando las ganancias de las empresas que cobran por modificar comportamientos, manipulando las emociones: “Los gatos en la red son nuestro sueño y nuestra esperanza para el futuro de las personas en internet” (p. 6).

 

Conclusiones

La problemática planteada en la introducción acerca de la mutación de los sistemas de IA, de la automatización y contribución con el bienestar de las personas, hasta configuraciones algorítmicas que invaden la interioridad y la conducta de las personas, desnudando su intimidad en el espectáculo del mercado digital, obedece a un ejercicio del poder escalonado, como se evidencia en los hallazgos de la investigación. Los resultados presentados y discutidos permitieron responder la pregunta acerca de la forma cómo se configura la psicopolítica ejercida sobre las emociones, mediante datos y algoritmos en los sistemas fuertes de IA.

De forma sintética, a partir de los resultados se puede concluir que las emociones, expresión de la interioridad del ser humano, se convirtieron en un valioso capital, al ser puerta de entrada para la manipulación, dominación, gobernanza y modificación de la conducta por parte de quienes comercializan con información, datos y algoritmos.

Las expresiones positivas y negativas de las emociones se recopilan, reconfiguran y utilizan por el psicopoder, mediante los algoritmos. En consecuencia, emociones, datos y algoritmos no solo se convierten en realidades inseparables, sino que se determinan como un configurador de subjetividades. La caracterización de las nuevas identidades, en forma de máscaras, perfiles o usuarios, reflejan sujetos con relaciones insólitas mediadas por los entornos digitales y con actuaciones heterónomas y homogéneas con los grupos circulantes en la red.

Algunos hallazgos que surgen de la revisión, cuya orientación se diferencia de los resultados vinculados con el propósito y la pregunta orientadora de la investigación, plantean nuevos desafíos acerca del vínculo entre inteligencia artificial, emociones y humanismo.

Al mismo tiempo se abren nuevos interrogantes para futuras investigaciones: ¿Cómo interpretar los derechos humanos frente a los nuevos avances neurotecnológicos que invaden aún más el ser humano? ¿Se debe caminar hacia las sendas de recrear, repensar, reformular, reconfigurar los derechos humanos o formular una nueva generación de neuroderechos? ¿Cuál debe ser el rol de la educación y la política, entre otros, frente a los sistemas fuertes de IA que invaden la autonomía, la construcción de sentido, la responsabilidad individual y social? ¿Es necesario plantear nuevas políticas públicas con orientaciones, contenidos y estrategias para la formación integral frente a las configuraciones algorítmicas de los sistemas de IA?

 

Referencias bibliográficas

Acevedo, Á., Chamorro, A., y Quintero, M. (2021). Ciudadanías movedizas: Ciberpolítica y los dilemas de Twitter como esfera pública/privada. Recerca. Revista de Pensament i Anàlisi, 26(2), 1-23. http://dx.doi.org/10.6035/recerca.5511

Arbeláez-Campillo, D. F., Villasmil, J. J., y Rojas-Bahamón, M. J. (2021). Inteligencia artificial y condición humana: ¿Entidades contrapuestas o fuerzas complementarias? Revista de Ciencias Sociales (Ve), XXVII(2), 502-513. https://doi.org/10.31876/rcs.v27i2.35937

Barrero, J. M. (2022). Psicopolítica, Big Data y Nudge. Acerca del dominio sin resistencia. Revista de la Facultad de Derecho y Ciencias Políticas, 52(136), 239-261. https://doi.org/10.18566/rfdcp.v52n136.a10 

Barrios, H., Díaz, V., y Guerra, Y. (2020). Subjetividades e inteligencia artificial: Desafíos para ‘lo humano’. Veritas, (47), 81-107. http://dx.doi.org/10.4067/S0718-92732020000300081  

Barrios-Tao, H. (2020). Desarrollo de experiencias emocionales en educación: Una contribución para la formación humanística. Civilizar: Ciencias Sociales y Humanas, 20(38), 119-135. https://doi.org/10.22518/jour.ccsh/2020.1a08

Beer, D. (2016). Metric power. Palgrave Macmillan

Benítez, R., Escudero, G., Kanaan, S., y Masip, D. (2014). Inteligencia artificial avanzada. Editorial UOC.

Broncano, F. (2006). Entre ingenieros y ciudadanos: Filosofía de la técnica para días de democracia. Montesinos.

Cardon, D. (2018). Con qué sueñan los algoritmos: Nuestra vida en el tiempo de los Big Data. Dado Ediciones.

Chanchí-Golondrino, G.-E., Hernández-Londoño, C.-E., y Ospina-Alarcón, M.-A. (2022). Aplicación de la computación afectiva en el análisis de la percepción de los asistentes a una feria de emprendimiento del SENA. Revista Científica, 44(2), 215-227. https://doi.org/10.14483/23448350.18971

Chapman, C., Fong, W., y Fiedler, T. (2021). Seduction as control: Gamification at Foursquare. Management Accounting Research, 53, 100765. https://doi.org/10.1016/j.mar.2021.100765

Cheney-Lippold, J. (2017). We are data: Algorithms and the making of our digital selves. University Press.

Colmenarejo, R. (2018). Ética aplicada a la gestión de datos masivos. Anales de la Cátedra Francisco Suárez, 52, 113-129. https://doi.org/10.30827/acfs.v52i0.6553

Cortina, A. (2013). El futuro de las humanidades. Revista Chilena de Literatura, (84), 207-217. https://revistaliteratura.uchile.cl/index.php/RCL/article/view/28515

Cotino, L. (2017). Big data e inteligencia artificial. Una aproximación a su tratamiento jurídico desde los derechos fundamentales. Dilemata, 9(24), 131-150. https://www.dilemata.net/revista/index.php/dilemata/article/view/412000104

Cruz, M. (2017). De la biopolítica a la psicopolítica en el pensamiento social de Byung-Chul Han. Athenea Digital, 17(1), 187-203. https://doi.org/10.5565/rev/athenea.1782

Damasio, A. R. (1996). El error de Descartes. La razón de las emociones. Editorial Andrés Bello.

De Azevedo, R. C. (2022). Platformization of the skin? Biometric tattoos, dataism, and consumer datification. Cadernos EBAPE, 20(2), 207-217. https://doi.org/10.1590/1679-395120210032x  

De la Quadra-Salcedo, T. (2018). Retos, riesgos y oportunidades de la sociedad digital. En T. De la Quadra-Salcedo y J. L. Piñar (Dirs.), Sociedad digital y derecho (pp. 21-85). Boletín Oficial del Estado.

Du Toit, C. W. (2014). Emotion and the affective turn: Towards an integration of cognition and affect in real life experience. HTS Toelogiese Studies / Theological Studies, 70(1), a2692. https://doi.org/10.4102/hts.v70i1.2692

Echeverría, J. (9 de diciembre de 2016). Ciberpersonas y cibermasas en las cibersociedades. Acento. https://acento.com.do/opinion/ciberpersonas-cibermasas-las-cibersociedades-8408618.html

Espinosa, L. (2018). La mano y el algoritmo. Una antropología compleja ante los desafíos tecnológicos del presente. Araucaria, 20(40), 109-136. https://philpapers.org/rec/ESPLMY-2

European Commission (2018). Algorithms and Human Rights. European Commission. https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5

European Commission (2020). White Paper on Artificial Intelligence: A European approach to excellence and trust. European Commission. https://commission.europa.eu/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en

Feldman, Z., y Sandoval, M. (2018). Metric power and the academic self: Neoliberalism, knowledge and resistance in the British university. TripleC, 16(1), 214-233. https://doi.org/10.31269/triplec.v16i1.899

Firdaus, S. N., Ding, C., y Sadeghian, A. (2021). Retweet prediction based on topic, emotion and personality. Online Social Networks and Media, 25, 100165. https://doi.org/10.1016/j.osnem.2021.100165

Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., Luetge, C., Madelin, R., Pagallo, U., Rossi, F., Schafer, B., Valcke, P., y Vayena, E. (2018). AI4People – An ethical framework for a good AI society: Opportunities, risks, principles, and recommendations. Minds and Machines, 28, 689-707. https://doi.org/10.1007/s11023-018-9482-5

Foucault, M. (2009). El yo minimalista y otras conversaciones. La Marca Editora.

Fukuyama, F. (2008). El fin del hombre: Consecuencias de la revolución biotecnológica. Ediciones B.

Galparsoro, J. I. (2017). Big data y Psicopolítica. Dilemata, 9(24), 25-43. https://www.dilemata.net/revista/index.php/dilemata/article/view/412000099

Galparsoro, J. I., y Pérez, R. M. (2018). Revolución digital y psicopolítica algunas consideraciones críticas a partir de Byung-Chul Han, Foucault, Deleuze y Nietzsche. SCIO: Revista de Filosofía, (14), 251-275. https://doi.org/10.46583/scio_2018.14.493

García, A. (2010). Tiempo, cuerpo y percepción en la imagen técnica. Paul Virilio y la ‘estética de la desaparición’. STVDIVM. Revista de Humanidades, 16, 231-247.

García-Gutiérrez, J. (2017). ¿Cómo mejorar al ser humano? Un análisis de las tecnologías convergentes desde la antropología pedagógica. Pedagogia e Vita, 75, 94-105.

García, V., Guzmán, A., y Marín, R. D. (2017). El tránsito de las emociones en la acción colectiva. Revista Latinoamericana de Estudios sobre Cuerpos, Emociones y Sociedad, 8(22), 21-32. http://www.relaces.com.ar/index.php/relaces/article/view/93

Gomes, M. A., y Vargas, S. R. (2019). Da violência psicopolítica na contemporaneidade: uma análise das dimensões afetivas. Psicologia em Estudo, 24. https://doi.org/10.4025/psicolestud.v24i0.43021

Han, B.-C. (2014). Psicopolítica. Neoliberalismo y nuevas técnicas de poder. Herder.

Harari, Y. N. (2016). Homo Deus. Breve historia del mañana. Debate.

Henríquez C. N., y Guzmán J. (2017). A review of sentiment analysis in Spanish. TECCIENCIA, 12(22), 35-48. http://dx.doi.org/10.18180/tecciencia.2017.22.5

Hil, R. K. (2016). What an algorithm is? Philosophy and Technology, 29(1), 35-59. https://doi.org/10.1007/s13347-014-0184-5

Huici, V., y Davila, A. (2016). Del Zoon Politikón al Zoon Elektronikón. Política y Sociedad, 53(3), 757-772. https://doi.org/10.5209/rev_POSO.2016.v53.n3.50776

Illou, E. (2007). Intimidades congeladas: Las emociones en el capitalismo. Katz Editores.

Kaplan, A., y Haenlein, M. (2019). Siri, Siri, in my hand: Whos the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. Business Horizons, 62(1), 15-25. https://doi.org/10.1016/j.bushor.2018.08.004

Lanier, J. (2018). Diez razones para borrar tus redes sociales de inmediato. Debate.

Lupton, D. (2016). The diverse domains of quantified selves: self-tracking modes and dataveillance. Economy and Society, 45(1), 101-122. http://dx.doi.org/10.1080/03085147.2016.1143726

Lupton, D., Mewburn, I., y Thomson, P. (Eds.) (2018). The digital academic: Critical perspectives on digital technologies in higher education. Routledge.

Magallón, R., y Campos, E. (2021). Redes sociales y polarización. Cuando el algoritmo amplifica las emociones humanas. Dossieres EsF, (42), 27-31.

Maita-Cruz, Y. M., Flores-Sotelo, W. S., Maita-Cruz, Y. A., y Cotrina-Aliaga, J. C. (2022). Inteligencia artificial en la gestión pública en tiempos de Covid-19. Revista de Ciencias Sociales (Ve), XXVIII(E-5), 331-330. https://doi.org/10.31876/rcs.v28i.38167

Marín-Casanova, J. A. (2018). La resemantización TIC de la cultura humanista. index.Comunicación, 8(1), 179-195. https://indexcomunicacion.es/index.php/indexcomunicacion/article/view/367

Melhado, F., y Rabot, J.-M. (2021). Análise de sentimentos: Da Psicométrica à Psicopolítica. Comunicação e Sociedade, 39, 101-118. https://doi.org/10.17231/comsoc.39(2021).2797

Moffatt, K., Todd, S., Barnoff, L., Pyne, J., Panitch, M., Parada, H., McLeod, S., y Young, N. H. (2018). Worry about professional education: Emotions and affect in the context of neoliberal change in postsecondary education. Emotion, Space and Society, 26, 9-15. https://doi.org/10.1016/j.emospa.2017.10.006

Monasterio, A. (2017). Ética algorítmica: Implicaciones éticas de una sociedad cada vez más gobernada por algoritmos. Dilemata, (24), 185-217. https://www.dilemata.net/revista/index.php/dilemata/article/view/412000107

Moore, P., y Robinson, A. (2016). The quantified self: What counts in the neoliberal workplace. New Media & Society, 18(11), 1-19. https://doi.org/10.1177/1461444815604328

Mora, L. J., Pineda, G. E., Londoño, D. A., y Vásquez, A. M. (2021). Formación humana: De la deshumanización tecnológica a la reconstrucción del cuerpo. Horizontes Pedagógicos, 23(1), 1-9. https://doi.org/10.33881/0123-8264.hop.23101 

Nguyen, C. T. (2020). Echo chambers and epistemic bubbles. Episteme, 17(2), 141-161. https://doi.org/10.1017/epi.2018.32

Niño, J. I., Barquero, M., y García, E. (2017). Opinión pública e infoxicación en las redes: los fundamentos de la post-verdad. Vivat Academia, Revista de Comunicación, XX(139), 83-94. https://doi.org/10.15178/va.2017.139.83-94 

Nussbaum, M. C. (2003). Upheavals of thought: The intelligence of emotions. Cambridge University Press. https://doi.org/10.1017/CBO9780511840715

Nussbaum, M. C. (2010). Sin fines de lucro. Por qué la democracia necesita de las humanidades. Katz Editores.

O’neil, C. (2018). Armas de destrucción matemática: Cómo el Big Data aumenta la desigualdad y amenaza la democracia. Capitán Swing.

Padios, J. M. (2017). Mining the mind: emotional extraction, productivity, and predictability in the twenty-first century. Cultural Studies, 31(2-3), 205-231. https://doi.org/10.1080/09502386.2017.1303426 

Palmeiro, C. (2010). Escritas contemporâneas: Tecnologias e subjetividades. Viso Cadernos de Estética Aplicada, Revista Eletrônica de Estética, 4(8), 64-84. https://revistaviso.com.br/article/89

Pérez, P. J. (2021). Polarización artificial: cómo los discursos expresivos inflaman la percepción de polarización política en internet. RECERCA. Revista de Pensament i Anàlisi, 26(2), 1-23. http://dx.doi.org/10.6035/recerca.4661

Piñar, J. L. (2018). Identidad y persona en la sociedad digital. En T. De la Quadra-Salcedo y J. L. Piñar (Dirs.), Sociedad digital y derecho (pp. 95-111). Boletín Oficial del Estado.

Poma, A., y Gravante, T. (2017). Emociones, protesta y acción colectiva. Aposta. Revista de Ciencias Sociales, (74), 32-62. https://laoms.org/aposta-revista-ciencias-sociales-74/

Popay, J., Roberts, H., Sowden, A., Petticrew, M., Arai, L., Rodgers, M., y Britten, N. (2006). Guidance on the conduct of narrative synthesis in systematic reviews. ESRC.

Prinsloo, P. (2017). Fleeing from Frankensteins monster and meeting Kafka on the way: Algorithmic decision-making in higher education. E-Learning and Digital Media, 14(3), 138-163. https://doi.org/10.1177/2042753017731355

Saura, G., y Bolívar, A. (2019). Sujeto académico neoliberal: Cuantificado, digitalizado y bibliometrificado. REICE, 17(4), 9-26. https://doi.org/10.15366/reice2019.17.4.001

Segado-Boj, F., Díaz-Campo, J., y Navarro-Sierra, N. (2020). Emociones y difusión de noticias sobre el cambio climático en redes sociales. Revista Latina de Comunicación Social, (75), 245-269. https://www.doi.org/10.4185/RLCS-2020-1425

Serrano-Puche, J. (2016). Internet y emociones: nuevas tendencias en un campo de investigación emergente. Comunicar. Revista Científica de Comunicación y Educación, XXIV(46), 19-26. http://dx.doi.org/10.3916/C46-2016-02

Sibilia, P. (2006). El hombre postorgánico: Cuerpo, subjetividad y tecnologías digitales. Fondo de Cultura Económica de España.

Sibilia, P. (2008). La intimidad como espectáculo. Fondo de Cultura Económica de España.

Sibilia, P. (2012). La escuela en un mundo hiperconectado: ¿Redes en vez de muros? Revista Educación Y Pedagogía, 24(62), 135-144. https://revistas.udea.edu.co/index.php/revistaeyp/article/view/14199

Stone, P. (Dir.). (2016). Artificial Intelligence and life in 2030. Stanford University.

Susser, D., Roessler, B., y Nissenbaum, H. (2019). Technology, autonomy, and manipulation. Internet Policy Review, 8(2). https://doi.org/10.14763/2019.2.1410

Sutton, R. E., y Wheatley, K. F. (2003). Teachers' emotions and teaching: A review of the literature and directions for future research. Educational Psychology Review, 15(4), 327-358https://doi.org/10.1023/A:1026131715856

Szlechter, D. F., y Zangaro, M. B. (2020). Big data y people analytics: Intimidad y emociones en la gestión de los recursos humanos. Innovar, 30(78), 75-87. https://doi.org/10.15446/innovar.v30n78.90306 

Telefónica (2018). Manifiesto por un nuevo pacto digital: Una digitalización centrada en las personas. Telefónica, S.A. https://www.telefonica.com/es/wp-content/uploads/sites/4/2021/06/manifiesto_por_un_nuevo_pacto_digital.pdf

Vafeiadis, M., y Xiao, A. (2021). Fake news: How emotions, involvement, need for cognition and rebuttal evidence (story vs. informational) influence consumer reactions toward a targeted organization. Public Relations Review, 47(4), 102088. https://doi.org/10.1016/j.pubrev.2021.102088

Virilio, P. (1997). El Cibermundo, la política de lo peor. Ediciones Cátedra.

Zafra, J. M. (2018). Entrevista Jaron Lanier: “Tenemos que cambiar el modelo: Toda la economía se basa en manipular personas”. Telos. Telefónica Fundación, 109, 26-34. https://telos.fundaciontelefonica.com/wp-content/uploads/2018/09/telos-109-entrevista-portada-jaron-lanier.pdf

Zawacki-Richter, O., Marín, V. I., Bond, M., y Gouverneur, F. (2019). Systematic review of research on artificial intelligence applications in higher education – where are the educators? International Journal of Educational Technology in Higher Education, 16, 39. https://doi.org/10.1186/s41239-019-0171-0

Zembylas, M. (2007). Theory and methodology in researching emotions in education. International Journal of Research & Method in Education, 30(1), 57-72. https://doi.org/10.1080/17437270701207785

Zovko, M.-É., y Dillon, J. (2018). Humanism vs. competency: Traditional and contemporary models of education. Educational Philosophy and Theory, 50(6-7), 554-564. https://doi.org/10.1080/00131857.2017.1375757



* El artículo se deriva del Proyecto de Investigación INV-HUM-3481 “Emociones políticas para la formación ciudadana en estudiantes de la Universidad Militar Nueva Granada: Un análisis de minería de datos con uso de Modelos de Redes Neuronales Artificiales (2020-2021)”, financiado por la Vicerrectoría de Investigaciones de la Universidad Militar Nueva Granada, Bogotá, Colombia.

 

** PhD. en Teología. Docente Investigador en la Universidad Militar Nueva Granada, Bogotá, Colombia. E-mail: hernando.barrios@unimilitar.edu.co ORCID: https://orcid.org/0000-0002-8999-0586

 

*** Doctor en Cultura y Educación en América Latina. Doctor en Educación. Docente Investigador en la Universidad Militar Nueva Granada, Bogotá, Colombia. E-mail: vianney.diaz@unimilitar.edu.co ORCID: https://orcid.org/0000-0002-6805-1045

 

 

Recibido: 2023-09-22                · Aceptado: 2023-12-08