Los Sistemas de Armas Letales Autónomos

Lethal Autonomous Weapons Systems


RESUMEN

En esta investigación se busca especular razonablemente sobre las posibilidades de la Inteligencia Artificial en la toma de decisiones para el uso de sistemas de armas letales autónomos, tratando de mantener una línea alejada del distopismo y ludismo predominante en las publicaciones sobre el tema como del utopismo ingenuo. Se analizará primeramente la toma decisiones administrativas por, o con auxilio de, un algoritmo y luego se aplicará la teoría a los SAAL. Se concluye que los sistemas de armas letales autónomas han sido utilizados por siglos. La IA perfecciona estos sistemas permitiendo reducir el daño indiscriminado causado por los sistemas no inteligentes.

Palabras clave: Inteligencia artificial; Sistemas de armas letales autónomas; Robot; Algoritmo

ABSTRACT

This paper seeks to reasonably speculate on the possibilities of Artificial Intelligence in decision-making for the use of lethal autonomous weapons systems, trying to maintain a line away from the dystopianism and the Luddism predominant in publications on the subject as well as naïve utopianism. Administrative decision-making by, or with the help of, an algorithm will be analyzed first, and then the theory will be applied to LAWS.  It is concluded that lethal autonomous weapons systems have been used for centuries. AI refines these systems to reduce the indiscriminate damage caused by non-intelligent systems.

Keywords: Artificial intelligence; Lethal autonomous weapons systems; Robot; Algorithms

Introducción

La expresión robot asesinos evoca en la mayoría la imagen de Terminator o de HAL 9000 (un robot 1 no necesita corporeidad propia ni estar programado para matar, basta la capacidad de influir en un medio físico). Este último caso ya se ha producido en la realidad. En 1981, en Japón un brazo mecánico identificó al trabajador que comía en el radio de acción de aquél como una amenaza para su misión y arrojó al trabajador contra otra máquina produciendo su muerte instantánea (HALLEVY ,2010:1). Las armas que provocan daños o muerte sin intervención humana distan mucho de ser ciencia ficción. Han estado en uso desde que en tiempos prehistóricos se usó por primera vez una trampa para cazar en la Edad de Piedra. En la década de 1870 se fabricaron las primeras minas de contacto (WIKIPEDIA, 2021), activadas por el choque de una nave con la mina dejada flotando, tal vez por años. En 1997, se adoptó la Convención que prohíbe el uso de minas antipersonales, otra arma activada sin intervención humana (ANDERSON, REISNER y WAXMAN, 2014:388) pero estas siguen matando y mutilando personas, especialmente niños.

Las bombas lógicas, programas que ante la evidencia de la ocurrencia de un suceso o el cumplimiento de un término se activan para causar un daño a una computadora o un sistema de computadoras (CONRAD Y FELDMAN, 2016) son armas autónomas activadas por un algoritmo sencillo. Son una forma de poca monta de la ¿hipotética? Doomsday Machine, la Máquina del Apocalipsis ideada por Herman Kahn (2014). La idea era, ante la evidencia de una ataque nuclear contra los Estados Unidos , o bien en caso de que la máquina recibiera información de acciones de la URSS que cruzaran una línea roja , se dispararía automáticamente el arsenal nuclear de los Estados Unidos Esta idea buscaba disuadir de una guerra nuclear, era una reductio ad absurdum de la doctrina de destrucción mutua asegurada ( KAHN , 2014) 2 .Pero aparentemente en La URSS se habría construido una Máquina del Apocalipsis y estaría activa todavía (DUIGNAN ,2021).

Lo nuevo entonces, es la aplicación de la inteligencia artificial en el área militar y policial. A primera vista y partiendo de la inevitabilidad del conflicto y la guerra, una mina que pueda distinguir entre un niño y un soldado es sin duda una mejoría. La actividad de la Administración Pública exige en defensa del orden público y en los conflictos armados el despliegue de fuerza. En casos extremos para la policía, y en casos habituales para los militares, letal. En esta investigación se busca especular razonablemente sobre las posibilidades de la Inteligencia Artificial en la toma de decisiones para el uso de sistemas de armas letales autónomos 3, tratando de mantener una línea alejada del distopismo y ludismo predominante en las publicaciones sobre el tema como del utopismo ingenuo. Se analizará primeramente la toma decisiones administrativas por, o con auxilio de, un algoritmo y luego se aplicará la teoría a los SAAL.

1. Las leyes de la ciencia ficción

“Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño” (ASIMOV,2010: 66). Los robots no tienen cerebros positrónicos por lo que no llevan inscritas en ellos las tres leyes de la robótica (ASIMOV,2010: 1784).  Ni deben tenerlos. La ley es incorrecta en su absolutismo e inadecuada a la realidad. No tomas en cuenta situaciones como las que se ilustran a continuación. Un conductor se desplaza por una vía de tránsito rápido, cumpliendo con las normas legales, y un peatón se arroja delante del vehículo. Sea intencionalmente con intenciones de suicidarse, por imprudencia (calculó mal el tiempo o eligió un lugar de cruce prohibido), negligencia (distraído), incluso si es una persona incapaz, sea un menor, o por enfermedad mental. El conductor no tiene la obligación de frenar o torcer el volante sin más. De hacerlo podría causar su propia muerte o la de un tercero inocente en otro vehículo. A las velocidades normales en una vía de tránsito rápido, frenar no es una opción, debe mantener la velocidad y el cuerpo del peatón imprudente o suicida será arrojado lejos de la vía. No es exigible otra conducta, aunque al mantener la velocidad salva su propia vida a costa de la de otro.

Pero el derecho no exige de nadie la heroicidad ni el auto sacrificio (JIMÉNEZ DE ASÚA, 308). Un vehículo auto tripulado deberá ser programado con el mismo razonamiento. Es de esperarse que el tiempo de reacción del vehículo sea menor y la percepción del medio más precisa y sepa la localización de otros vehículos (VLADECK, 2014:132). Pero la IA no tiene poder sobre las leyes de la inercia y la conservación del momento por lo que deberá, si esa es la vía para salvar al pasajero. impactar al peatón. Quien deba ser responsable por los hechos del vehículo podría ampararse en el estado de necesidad que se extiende a salvar la vida de un tercero (JIMÉNEZ DE ASUA, 1958 :310), en este caso el pasajero. Dar muerte a otro está plenamente justificado, no es antijurídico, cuando la muerte se causa en respuesta a una agresión contraria a derecho, no provocada, (o desproporcionada con la provocación previa) y siempre que haya necesidad racional del medio (JIMÉNEZ DE ASÚA, 1958:289), discutiblemente llamada proporcionalidad del medio pues da una idea errada Este principio es válido para personas jurídicas individuales y para los Estados. Y, en consecuencia, los sistemas de armas, hasta ahora, solo semiautónomos 4que se han desarrollado son sistemas legítimos.

2. IA y toma de decisiones

La posibilidad de tomar decisiones de la forma “Si… entonces” por una máquina autónoma no suele ser puesta en duda (MASUCCI, 1993:25). Cálculos matemáticos y procesamiento de datos pueden ser resueltos por algoritmos o una secuencia de prescripciones o «instrucciones» que indican de un modo preciso y no ambiguo los pasos a seguir para resolver correctamente, a partir de determinada información, un cierto tipo de problema, si una solución existe (SARTOR, 1990:5). Solo se plantea la duda de si es necesaria una valoración de las circunstancias o bien si se trata de actuar discrecionalmente. Una forma de Inteligencia Artificial, el Machine Learning o aprendizaje automático, ha desarrollado algoritmos que “poseen efectivamente habilidades autónomas de adaptarse y aprender” (COGLIANESE y, LEHR ,2017). De especial utilidad son las técnicas de Deep Machine Learning 5 y las redes neuronales 6 . Estos permiten hacer manejable información de mayor complejidad y facilitan la toma de la decisión final por el operador del sistema. En tales casos, el operador no podría ser reemplazado (todavía) pero sí ser asistido por el algoritmo (OSWALD, 2018).

2.1 Las fases de la toma de decisiones por sistemas de armas autónomo

El uso de la inteligencia artificial y de los big data, un campo relacionado, tuvieron su primera prueba en el campo de batalla en la franja de Gaza en mayo de 2021. El ejército israelí utilizó varios algoritmos para procesar información y localizar los blancos (AHRONHEIM, 2021). Las tareas de recopilación de información y procesamiento son una técnica ya habitual para los gobiernos. Mantener bajo vigilancia grandes extensiones de territorio y procesar la información en tiempo real para identificar al objetivo y seguirlo. (SHAY, HARTZOG, NELSON, LARKIN, CONTI, 2012: 9) es algo que la IA ha permitido. Identificar un objetivo puede ser una decisión “si… entonces “. Naves y aeronaves pueden ser identificadas por su silueta característica o por su sonido (LEWIS, BLUM y MODIZRZADEH, 2016). Los soldados y oficiales por uniformes e insignias. Pero eso es válido en una guerra convencional y en un campo de batalla tradicional o en zonas despobladas. Hoy en día la guerra contra el terrorismo, las guerras asimétricas y los enfrentamientos con irregulares predominan. Y ocurren en zonas urbanas. Con civiles como escudos humanos, no siempre involuntariamente como el reciente caso de la una agencia de noticias (LIPSON, 2021) o entes de las Naciones Unidas (UNWATCH,2024) coexistiendo con un grupo armado En estos casos se ha demostrado la posibilidad de las redes neuronales para distinguir civiles de militares en condiciones de conflicto (MILLER ,2017).

Una vez obtenida la información. Las técnicas de data mining, extracción de datos, hacen posible extraer información combinando datos aparentemente insignificantes y de nuevas fuentes (ABELSON, LEDEN y LEWIS, 2008:1267). Y ayudan a preparar la decisión Finalmente, la decisión de utilizar la fuerza letal. En el caso e.g. del Iron Dome, el interceptor decide en qué momento detonar, no si disparar el misil o no (LEWIS, BLUM y MODIZRZADEH, 2016). Pero otros sistemas sí se activan automáticamente, de manera indiscriminada, minas antipersonales, o bien al identificar el objetivo como las minas submarinas (LEWIS, BLUM y MODIZRZADEH, 2016). Un sistema en el momento de disparar debe cumplir con tres principios, el de distinción entre civiles y militares, (ANDERSON, REISNER Y WAXMAN, 2014: 398). Proporcionalidad: no se debe atacar si los daños colaterales son excesivos respecto de la ventaja militar concreta prevista (AMOROSO y TAMBURRINI ,2019: 38). En las condiciones adecuadas, como una zona de combate aislada es posible autorizar el uso de sistemas automáticos si el daño colateral es imposible (MÜLLER,2016). Finalmente, el principio de precaución exige tomar todas las medidas necesarias para evitar daños innecesarios o excesivos a civiles (ANDERSON, REISNER Y WAXMAN, 2014: 404). Es distinto del anterior pues opera una vez que se ha decidido el ataque con conocimiento del posible daño a civiles dado que la ventaja militar justifica la acción.

3. Transparencia algorítmica

De acuerdo con las reglas del “Protocolo Adicional a la Convención de Ginebra de agosto de 1949 sobre la Protección de Víctimas de Conflictos Armados”, un arma es legal si cumple con tres condiciones: no puede por su naturaleza causar daños de manera indiscriminada, no causar daño excesivo ni ser incontrolable (ANDERSON, REISNER Y WAXMAN, 2014: 398). Es necesario entonces, que los órganos competentes en cada Estado analicen el funcionamiento del algoritmo (ANDERSON y WAXMAN,2013:25) y si hay un humano en la iteración. Los factores que dificultan determinar lo primero, excepto por la propiedad intelectual, son potenciados por el carácter inherentemente secreto de la materia de seguridad y defensa. La transparencia se ha convertido en el principio cuya aplicación más se reclama en materia de control de la acción del Estado y ahora de los de los algoritmos. Pero es una búsqueda inútil. La transparencia, solo se logra solo lleva a un enigma dentro de otro enigma. Por otra parte, en caso de los países democráticos, los órganos parlamentarios y los medios suelen tener acceso, aunque limitada a esa información que recibe cierta difusión (LEWIS, BLUM y MODIZRZADEH, 2016). En el caso de los regímenes autoritarios y totalitarios, el mundo se entera cuando nuevas armas se despliegan en el Medio Oriente o en Ucrania o cuando un virus resultado del mejoramiento de funciones mata a millones en el mundo.

3.1 Propiedad intelectual

Los algoritmos están protegidos por el secreto empresarial que protege aquella información cuyo acceso esté restringido, tenga valor económico y cuyo propietario haya tomado medida para impedir su difusión (AZUAJE y FINOL, 2020:122). Por motivos de interés público podría exigirse la revelación de detalles de funcionamiento del algoritmo sin llegar a la obligación de revelar el código fuente (AZUAJE y FINOL, 2020:137). Pero en esta materia, la discusión puede ser meramente académica. En el caso de los Estados Unidos, e.g., el problema se intenta resolver por contrato, históricamente se ha obtenido más acceso del necesario en unos casos y demasiado poco en otros (SUITS,2018). En definitiva, para Estados con poder económico, el secreto comercial solo es un límite por negligencia en las negociaciones. Para los países que compran tecnología llave en mano, el secreto comercial puede resultar una barrera infranqueable.

3.2 La efectividad del algoritmo

El dar a conocer el funcionamiento del algoritmo lo haría inefectivo. Un algoritmo parte de datos en apariencia insignificantes y establece correlaciones que le permiten predecir los posibles movimientos del objetivo. Puede tratarse de conductas o características personales (DE LAAT, 2018:534). Si el enemigo conoce los factores que determinan que se active el sistema. Las condiciones de la búsqueda. Los parámetros del sistema para determinar en qué momento disparar o detonar. Entonces, sería posible desarrollar estrategias para burlar al sistema e incluso programar un algoritmo defensivo, esto se conoce como adversarial learning (BURREL, 2016:4). Obviamente la transparencia haría inútil el sistema. E inclinaría la balanza a favor de los regímenes autoritarios

3.3 La caja negra

Se ha señalado, con razón, que de los operadores humanos no se exige que al motivar sus decisiones hagan explícito los procesos neurológicos que resultaron en su decisión (OLSEN, SLOSSER y HILDEBRANDT, 2020) Pero si bien no se hace explícito en la decisión sus antecedentes y relación con el afectado por la decisión si son tomadas en cuenta por procesos de concurso y figuras de recusación e inhibición. Pero se espera, en el caso del algoritmo, que todos esos factores sean hechos transparentes en cada decisión (OLSEN, SLOSSER y HILDEBRANDT,2020). La pretensión es inútil e irrazonable. Entender la explicación del funcionamiento del algoritmo está fuera del alcance del común de las personas. Los cuerpos supervisores, sean políticos, militares o administrativos no están integrados por programadores. Dependen por completo de sus asesores. Pero aun estos podrían no ser capaces de entender el funcionamiento de la IA. Los algoritmos son cajas negras ininteligibles incluso para su programador. La característica definitoria de la IA es su autonomía su capacidad de “Después de las suficientes experiencias interaccionando con el entorno, el comportamiento del agente racional será efectivamente independiente del conocimiento que poseía inicialmente.” (RUSSELL y, NORVIG,2004:44). Y el poder del algoritmo crece con la complejidad (BURREL, 2016:5). Esto es especialmente válido en el caso del machine learning, y especialmente en el caso de las redes neuronales, estas son “inescrutables por diseño”, pues los pesos de cada variable son modificados una y otra vez para la información por cada nodo (LAAT, 2018:537). De hecho, aun el más simple de los algoritmos se convierte en incomprensible para la mente humana si se la agregan un par de dimensiones (BATHAEE, 2018:905)

4. Un ser humano en la iteración

Al activarse e.g. el Iron Dome, este:

“detecta, estima e intercepta cohetes, artillería y morteros aproximándose… tiene autonomía en algunas de sus funciones. Localiza objetivos usando el radar y calcula su trayectoria. Si pudiera impactar un área poblada lanza un misil interceptor Tamil al cohete. Un operador humano debe autorizar el lanzamiento, aquélla debe deba tomar la decisión muy rápidamente, a veces en cuestión de minutos… el algoritmo, no el operador humano decidirá cuando detonar el Tamir” (LEWIS, BLUM y MODIZRZADEH, 2016)

No podemos saber cuáles son los factores tomados en cuenta para decidir si lanzar o no un misil interceptor, pero sí podemos especular sobre ellos. Basándose en las probabilidades, deberá realizar un cálculo costo- beneficio. Para Hamas es indiferente donde impacten los misiles pues busca causar el mayor daño posible y dispara a discreción. Mientras Israel tiene un número limitado de interceptores con relación al número de misiles disparados, tampoco tienen una precisión del ciento por ciento, y habrá menos misiles disponibles para evitar daños en otras zonas o en futuros ataques. Deberá preguntarse, ¿impactará en Gaza o Israel? No es infrecuente que ocurra (AHRONHEIM, 2021). Absteniéndose de disparar en el primer caso. Las víctimas en tal caso serán imputadas por los organismos internacionales, la ONG’s y la prensa a Israel (GERHMAN, 2024), pero el daño político no debería entrar en el cálculo por inevitable. Si se dirige a una zona poblada, es una zona escasamente poblada o debido a la hora, poco frecuentada como una zona comercial o industrial, una escuela durante la noche puede ser una mala decisión... Evitar el impacto en una zona poco poblada significa sacrificar un número mayor de víctimas en las zonas densamente pobladas si se reduce el número de misiles disponibles para la protección de estas durante el ataque presente. O futuro, el presupuesto de defensa no es ilimitado. Es lo que se conoce como el dilema del trolebús que fuerza a elegir entre dos males el menor de ellos (LEMLEY y CASEY,2019 :1330). En este caso en la vida real no en un juego académico ni en un experimento filosófico. La decisión de disparar corresponde al ser humano en la iteración que se corresponde con

"cualquier sistema de toma de decisiones en el cual el triage inicial o categorización de caso es realizado por una máquina, pero un agente humano ejercita cierto grado de influencia significativa, incluso hasta de revocar, la decisión en un caso particular" (BRENNAN-MARQUEZ, LEVY y SUSSER,2019:749)

Un sistema de armas letales autónomas carece de empatía, piedad, conmiseración que pueden servir para reducir el daño y asegurar el cumplimiento con el segundo principio del uso de las armas. Pero también carece de odio, deseo de venganza, miedo que pueden llevar a un ser humano a aumentar el daño. La decisión de dejar morir a unos pocos para asegurar que haya misiles disponibles para salvar a los muchos debe ser tomada por un operador solitario en minutos o debe ser preprogramado el principio del menor daño en el algoritmo y ser una decisión pensada de antemano. El tiempo necesario para tomar decisiones en casos como el bombardeo de saturación al cual el Iron Dome está supuesto a responder puede ser fatal para la población que debe ser protegida (AMOROSO y TAMBURRINI, 2019:42). El algoritmo es una caja negra para su propio desarrollador y se espera que el operador valore, en minutos o segundos las opciones que le ofrece el sistema (BATHAEE, 2018:933). Así que es de esperar que acepte la decisión del sistema y que la presencia del humano sea solo aparente. Pero esa decisión autónoma siempre que se utilicen en las condiciones adecuadas es probable que se traduzca en menor daños para el ejército que las use y para los civiles (MULLER, 2016:11).

Conclusiones

1. Sistemas de armas letales autónomas han sido utilizados por siglos. La IA perfecciona estos sistemas permitiendo reducir el daño indiscriminado causado por los sistemas no inteligentes.

2. Hasta ahora solo se utilizan sistemas defensivos y semiautónomos

3.Como todo sistema de armas están sujetos al cumplimiento de los principios de distinción, proporcionalidad y precaución

Lista de Referencias

ABELSON, H; LEDEN, K; LEWIS, H. (2008) Blown to Bits: Your Life, Liberty, and Happiness after the Digital Explosion. Kindle Edition. Addison-Wesley Professional. Boston.
AHRONHEIM, A. (2021) Israel's operation against Hamas was the world's first AI war. En: https://www.jpost.com/arab-israeli-conflict/gazanews/guardian-of-the-walls-the-first-ai-war-66937 (Consulta 2021- 06-21)

AMOROSO, D.; TAMBURRINI, G. (2019). I sistemi robotici ad autonomia crescente tra etica e diritto: quale ruolo per il controllo umano? BioLaw Journal – Rivista di BioDiritto, n. 1/2019. En: www.biodiritto.org (Consulta 2021- 06-21)

ANDERSON, K; WAXMAN, M. (2013), Law and Ethics for Autonomous Weapon Systems: Why a Ban Won’t Work and How the Laws of War Can. En: https://scholarship.law.columbia.edu/cgi/viewcontent.cgi?article=2804&context=faculty_scholarship (Consulta 2021- 06-21)

ANDERSON, K.: REISNER, D. y WAXMAN, M, (2014) Adapting the Law of Armed Conflict to Autonomous Weapon Systems. 90 International Law Studies Stockton Center for the Study of International Law, US Naval War College, Columbia Public Law Research Paper No. 14-416, American University, WCL Research Paper No. 2014-50, 386-411 Available at SSRN: https://ssrn.com/abstract=2477095 (Consulta 2024-02-21)

ASIMOV, Isaac (2010). Yo, Robot. E-book Edhasa. España-Argentina.
AZUAJE PIRELA, M. y FINOL GONZALEZ, D. (2020). Transparencia algorítmica y la propiedad intelectual e industrial: tensiones y soluciones. Revista de la propiedad inmaterial no 30, Universidad Externado de Colombia, julio 2020 - diciembre 2020. En: https://doi.org/10.18601/16571959 (Consulta 2021- 06-21)

BATHAEE, Y. (2018). The Artificial Intelligence Black Box and the Failure of Intent and Causation. En: http://ssrn.com/abstract=1564096 (Consulta 2021-06-21)

BURRELL, J- (2016). How the machine ‘thinks’: Understanding opacity. In machine learning algorithms. Big Data & Society. January–June 2016. En: https://doi.org/ 10.1177/2053951715622512 (Consulta: 2021- 06-21)

COGLIANESE, G. y LEHR, D. (2017). Regulating by Robot: Administrative Decision Making in the Machine-Learning Era. Faculty Scholarship 1734. 2017, En: https://scholarship.law.upenn.edu/faculty_scholarship/1734 (Consulta: 2018-08- 09)

CONRAD, E. y FELDMAN, J. (2016). Domain 3: Security Engineering (Engineering and Management of Security. En CISSP Study Guide (Third Edition). En https://www.sciencedirect.com/topics/computer-science/logic-bomb (Consulta: 2021- 06-20)

DARPA (2021). How to participate in DARP´s SBIR and STTR programs. En: https://www.darpa.mil/work-with-us/for-small-businesses/participate-sbirsttr-program (Consulta 2021- 06-21)

DE LAAT, P. (2018). Algorithmic Decision-Making Based on Machine Learning from Big Data: Can Transparency Restore Accountability? Philos. Technol. 31. En: https://doi.org/10.1007/s13347-017-0293-z (Consulta 2021- 06-21)

DUIGNAN, B. (2021). Doomsday machine. En: https://www.britannica.com/technology/Doomsdaymachine_nucleardevice_Britannica.mhtml (Consulta 2021- 06-20)

GERHMAN, C. (2024) Who is Committing Genocide? En:  Tablet Magazine. https://www.tabletmag.com/sections/israel-middle-east/articles/who-is-committing-genocideazine (Consulta 2024-02-21)

HALLEVY, G. (2010). The Criminal Liability of Artificial Intelligence Entities. En: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1564096 (Consulta 2021- 06-20)

JIMÉNEZ DE ASÚA, L. (1950). Principios de Derecho Penal. La Ley y el Delito. Abeledo-Perrot S.A.E.E.I. Editorial Sudamericana S.A. Buenos Aires.

KAHN, H. (2014), Herman Kahn’s Doomsday Machine. Air Force Magazine. Keeper File. En: www.airforcemag.com (Consulta 2021- 06-20)

KIEL BRENNAN-MARQUEZ, K., LEVY, K. y SUSSER, D. (2019). Strange Loops: Apparent Versus Actual Human Involvement in Automated Decision Making. Berkeley Technology Law Journal, Vol. 34:745. En: https://doi.org/10.15779/Z385X25D2W (Consulta 2021- 06-20)

LEMLEY, M. y CASEY, B. (2019) Remedies for Robots. The University of Chicago Law Review. En; https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3223621 (consultada 2024-02-21)

LEWIS, D.; BLUM, G. y MODIZRZADEH, N. (2016). Section 2: Technology Concepts and Developments. En https://pilac.law.harvard.edu/war-algorithm-accountabilityreport//technology-concepts-and-developments (Consulta 2021- 06-21)

LIPTON, L. (2021). The decline and fall of the Associated Press. The AP’s building in Gaza collapses after an Israeli air strike. Is the organization’s credibility crumbling too? En: https://spectatorworld.com/topic/decline-fallassociated-press-gaza (Consulta 2021- 06-21)

MASUCCI, A. (1993) L' atto amministrativo informatico. Primi linementi di una ricostruzione. Jovene. Napoli

MAYER-SCHONEMBERGER, V. y CUKIER, K. (2013). Big data: La revolución de los datos masivos. Edición Kindle. Taurus. Espana.

MILLER, Ian (2017). Computer Vision on the Battlefield: Can machines distinguish between enemy and civilian in urban military operations? En: https://ssrn.com/abstract=3310951 (Consulta 2021- 06-21)

MÜLLER, Vincent C. (2016). Autonomous killer robots are probably good news. En: https://philarchive.org/rec/MLLAKR (Consulta 2021- 06-21)

OLSEN H., SLOSSER, J. y HILDEBRANDT, T. (2020). What’s in the Box? The Legal Requirement to Explain Computationally Aided Decision-Making in Public Administration. En: https://ssrn.com/abstract=3580128 (Consulta 2021- 06-21)

OSWALD, M. (2018). Algorithm-Assisted Decision-Making in the Public Sector: Framing the Issues Using Administrative Law Rules Governing Discretionary Power. Philosophical Transactions A: Mathematical, Physical and Engineering Sciences, En: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3216435 (Consult 2018-08-09)

REACKTOR (2019). How should we define AI. En: https://course.elementsofai.com/1/1 (Consulta 2021- 06-20)

REEVES, S. y JOHNSON, W. (2014). Autonomous Weapons: Are You Sure These Are Killer Robots? Can We Talk About It? The Army Lawyer. En: http://ssrn.com/abstract=2427923 (Consulta 2021- 06-20)

RUSSELL, S., NORVIG, P. (2004). Inteligencia Artificial. Un Enfoque Moderno. Segunda edición. Pearson Educación, S.A. Madrid.

SARTOR, G. (1990) Le applicazioni giuridiche dell'intelligenza artificiale. La rappresentazione della conoscenza. Dott. A Giuffré. Milano.

SHAY, L.; HARTZOG, W.; NELSON, J. LARKIN, D. y CONTI G. (2012). Confronting Automated Law Enforcement En: http://robots.law.miami.edu/wp-pload/2012/01/Shay-EtAlConfrontingAutomatedLawEnf (Consulta 2018-06-14)

SUITS, D. (2018). Army secretary approves new intellectual property management policy. En: https://www.army.mil/article/214881/army_secretary_approves_new_intellectual_property_management_policy (Consulta 2021- 06-21)

UNWATCH, (2024). UNRWA’S Terrorgram. En: https://unwatch.org/unrwa-terrorgram/ (Consulta 2024-2-21)

VLADECK, D. (2014). Machines without Principals: Liability Rules and Artificial Intelligence. Washington Law Review Vol 89:117. En:   https://digitalcommons.law.uw.edu/wlr/vol89/iss1/  (Consulta 2021- 06-21)

WIKIPEDIA (2021). Naval Mine. En: https://en.ikipedia.org/wiki/Naval_mine (consultada 2021- 06-20)

1 Se utilizarán Inteligencia Artificial, IA, algoritmo, bot y robot como sinónimos entendidos como agentes dotados de “Autonomía: La habilidad de realizar tareas en ambientes complejos sin vigilancia constante por el usuario. Adaptabilidad; La capacidad de mejorar el rendimiento aprendiendo de la experiencia” (REACKTOR,2019)

2 (MAD por sus iniciales en inglés: demente)

3 SAAL: Sistemas de Armas Letales Autónomos “aquéllas que una vez activadas pueden seleccionar y atacar blancos sin ulterior intervención del operador” (DEPARTAMENTO DE DEFENSA, USA citado por REEVES Y JOHNSON, 2014:24)

4 Semi-autonomous weapon system: “A weapon system that, once activated, is intended to only engage individual targets or specific target groups that have been selected by a human operator” (Deparment of Defense en LEWIS, BLUM y MODIZRZADEH, 2016),

5 “Cierto tipo de técnicas de aprendizaje automático en el cual varios niveles de unidades simples de procesamiento están conectadas en una red de tal manera que el input del sistema pasa a través de cada uno de ellos por turno” (REACKTOR 2019b)

6 Red neuronal: “consiste en un gran número de neuronas, cada una puede procesar información, de tal manera que en vez de tener un CPU procesando cada pieza de información, las neuronas procesan vastas cantidades de información cada una de manera simultánea “(REACKTOR, 2019b)

 

Diseño y Maquetación
Lcda. Karla Barboza
karla.barboza@gmail.com