Estrategia - Relaciones Internacionales - Historia y Cultura de la Guerra - Hardware militar. Nuestro lema: "Conocer para obrar"
Nuestra finalidad es promover el conocimiento y el debate de temas vinculados con el arte y la ciencia militar. La elección de los artículos busca reflejar todas las opiniones. Al margen de su atribución ideológica. A los efectos de promover el pensamiento crítico de los lectores.

lunes, 1 de marzo de 2021

Guerra por la inteligencia artificial

 


https://www.zerohedge.com/geopolitical/war-mongering-artificial-intelligence



por Dr. Binoy Kampmark

El fantasma de Edward Teller debe haber estado rondando entre los miembros de la Comisión Nacional de Inteligencia Artificial. El padre de la bomba de hidrógeno nunca se molestó demasiado por los inconvenientes éticos que conllevaba la invención de una tecnología asesina. No era, por ejemplo, "el trabajo del científico determinar si una bomba de hidrógeno debe construirse, si debe usarse o cómo debe usarse". La responsabilidad, sin importar cómo se ejerciera, recaía en el pueblo estadounidense y en sus funcionarios electos.

La aplicación de la IA en los sistemas militares ha afectado a los especialistas en ética, pero ha entusiasmado a ciertos líderes e inventores. El presidente ruso Vladimir Putin ha afirmado, grandilocuentemente, que: "sería imposible asegurar el futuro de nuestra civilización" sin un dominio de la inteligencia artificial, la genética, los sistemas de armas no tripulados y las armas hipersónicas.

Los activistas contra el uso de sistemas de armas autónomos en la guerra han aumentado en número. El secretario general de la ONU, António Guterres, es uno de ellos.

"Las máquinas autónomas con el poder y la discreción para seleccionar objetivos y matar vidas sin la participación humana", escribió en Twitter en marzo de 2019, "son políticamente inaceptables, moralmente repugnantes y deberían estar prohibidas por el derecho internacional".

El Comité Internacional para el Control de Armas Robóticas, la Campaña para Detener a los Robots Asesinos y Human Rights Watch también se dedican a prohibir los sistemas de armas autónomos letales. Los analistas de armas como Zachary Kallenborn ven esa posición absoluta como insostenible, prefiriendo una prohibición más modesta de “las armas de mayor riesgo: enjambres de drones y armas químicas, biológicas, radiológicas y nucleares autónomas”.

Los críticos de esos sistemas de armas estaban muy lejos en el proyecto de informe de la Comisión para el Congreso. El documento tiene algo más que un toque de científico loco al servicio  de un maestro sanguinario. Esto era lógico, dado que su presidente era Eric Schmidt, asesor técnico de Alphabet Inc., empresa matriz de Google, de la que anteriormente fue CEO. Con Schmidt sosteniendo las riendas, se nos garantizaría un espectáculo desprovisto de toda forma de moderación moral. “La promesa de la IA, de que una máquina puede percibir, decidir y actuar más rápidamente, en un entorno más complejo, con más precisión que un ser humano, representa una ventaja competitiva en cualquier campo. Será empleado con fines militares, por gobiernos y grupos no estatales ”.

En su testimonio ante el Comité de Servicios Armados del Senado el 23 de febrero, Schmidt se refirió a los “fundamentos” para mantener la superioridad estadounidense. Esto implicó preservar la competitividad nacional y dar forma al ejército con esos fundamentos en mente. Pero hacerlo requería mantener los ojos del establishment de seguridad bien abiertos para cualquier competidor peligroso. (Schmidt comprende al Congreso lo suficientemente bien como para saber que los picos en la financiación y en los desembolsos tienden a estar asociados a la promoción de amenazas). Ve "la amenaza del liderazgo chino en áreas clave de tecnología" como "una crisis nacional". En términos de IA, “solo los Estados Unidos y China” tenían los “recursos, el poder comercial, la reserva de talentos y el ecosistema de innovación necesarios para liderar el mundo”. En la próxima década, Beijing incluso podría "superar a los Estados Unidos como la superpotencia mundial en inteligencia artificial".

El testimonio está, generosamente, enriquecido con la tesis de la amenaza de China. “Nunca antes en mi vida”, afirmó, “me había preocupado más respecto de que pronto seremos desplazados por un rival o más consciente de lo que significa el segundo lugar para nuestra economía, nuestra seguridad y el futuro de nuestra nación”. Temía que los funcionarios no compartieran esas preocupaciones y que el Departamento de Defensa tratara el "software con una prioridad baja". Aquí, podría dar consejos sobre las lecciones aprendidas en las empresas emergentes de Silicon Valley, donde los principiantes viven vidas cortas. Aquellos dedicados a la defensa podrían "formar equipos inteligentes, impulsar los entregables y moverse rápidamente". Los misiles, argumentó, deberían construirse "de la forma en que ahora construimos automóviles: usar un estudio de diseño para desarrollar y simular en software".

Todo esto significaba, necesariamente, elogiar a los cielos una forma de IA menos reprimible, especialmente en sus aplicaciones militares. En dos días de debate público, el vicepresidente del panel, Robert Work, ensalzó las virtudes de la IA en la batalla. "Es un imperativo moral al menos perseguir esta hipótesis", afirmando que "las armas autónomas no serán indiscriminadas a menos que las diseñemos de esa manera". El diablo está en el ser humano, como siempre lo ha estado.

De una manera que recuerda a los debates sobre compartir tecnología atómica después de la Segunda Guerra Mundial, el Comité insta a los EEUU a: “perseguir una estrategia integral en estrecha coordinación con nuestros aliados y socios para la innovación y adopción de inteligencia artificial (IA) que promueva valores críticos para sociedades libres y abiertas ”. Una propuesta de Coalición de Tecnologías Emergentes de potencias y socios afines se centraría en el papel de “tecnologías emergentes de acuerdo con normas y valores democráticos” y “coordinar políticas para contrarrestar el uso maligno de estas tecnologías por parte de regímenes autoritarios”. Se olvida rápidamente el hecho de que distinciones como el autoritarismo y la democracia tienen poco significado al final de un arma.

También, se sugieren cambios internos para erizar algunas plumas. El Departamento de Estado de los Estados Unidos recibe una mención especial ante la  necesidad de reformas. "Actualmente, no existe un liderazgo claro para la política de tecnología emergente o la diplomacia dentro del Departamento de Estado, lo que dificulta la capacidad del Departamento para tomar decisiones  estratégicas tecnológicas". Los aliados y los socios estaban confundidos cuando se acercaron al Departamento de Estado en cuanto a: “qué alto funcionario sería su principal punto de contacto” para una variedad de temas, ya sea IA, computación cuántica, 5G, biotecnología o nuevas tecnologías emergentes.

En general, el gobierno de los EEUU recibe una paliza, reprochado por operar "a la velocidad humana, no a la velocidad de una máquina". Estaba rezagado en relación con el desarrollo comercial de la IA. Sufría de "déficits técnicos que van desde escasez de mano de obra digital hasta políticas de adquisición inadecuadas, arquitectura de red insuficiente y prácticas de datos débiles".

La política oficial del Pentágono, tal como está, es que los sistemas de armas autónomos y semiautónomos deben estar "diseñados para permitir que los comandantes y operadores ejerzan niveles apropiados de juicio humano sobre el uso de la fuerza". En octubre de 2019, el Departamento de Defensa adoptó varios principios éticos con respecto al uso militar de la IA, convirtiendo al Centro de Inteligencia Artificial del Departamento de Defensa en el punto focal. Estos incluyen la disposición de que "el personal del Departamento de Defensa ejercerá los niveles adecuados de juicio y cuidado, mientras sigue siendo responsable del desarrollo, la implementación y el uso de las capacidades de IA". El principio de "trazabilidad" también se transmite con el principio de control humano  y el personal debe "poseer un conocimiento adecuado de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de la IA".

La Comisión Nacional presta atención a dichos protocolos, reconociendo que los operadores, las organizaciones y "el pueblo estadounidense" no apoyarían las máquinas de IA que no estén "diseñadas con previsibilidad" y "principios claros" en mente. Pero la nota de advertencia de no estar demasiado encadenado moralmente se convierte en un chillido. El riesgo era "ineludible" y no utilizar la IA "para resolver desafíos reales de seguridad nacional corre el riesgo de poner a Estados Unidos en desventaja". Especialmente cuando se trata de China.

Traducción: Carlos Pissolito


No hay comentarios: