La carrera armamentista de la IA nos puso de camino al Armagedón


Únase a Transform 2021 del 12 al 16 de julio. Regístrese para el evento de IA del año.


Ahora se da por sentado que países de todo el mundo luchan por la supremacía de la IA. Hasta ahora, la mayor parte del debate público en torno a esta competencia se ha centrado en las ganancias comerciales derivadas de la tecnología. Pero la carrera de armamentos de IA para aplicaciones militares también está avanzando, y científicos, académicos y líderes de la industria de IA preocupados han dado la voz de alarma.

En comparación con las capacidades militares existentes, la tecnología habilitada por IA puede tomar decisiones en el campo de batalla con velocidad y precisión matemáticas y nunca cansarse. Sin embargo, los países y organizaciones que desarrollan esta tecnología apenas están comenzando a articular ideas sobre cómo la ética afectará las guerras del futuro cercano. El desarrollo de sistemas de armas autónomos habilitados por IA conllevará claramente riesgos significativos de inestabilidad y escalada de conflictos. Sin embargo, es poco probable que los llamamientos para prohibir estas armas tengan éxito.

En una era de creciente tensión y riesgo militar, los líderes militares líderes en todo el mundo están avanzando en las armas habilitadas por IA y el apoyo a las decisiones, y buscan aplicaciones de seguridad y de campo de batalla de vanguardia. El potencial militar de estas armas es considerable, pero las preocupaciones éticas se dejan de lado en gran medida. Ya se utilizan para proteger a los barcos de los ataques a pequeñas embarcaciones, para buscar terroristas, para proporcionar centinelas y para destruir las defensas aéreas enemigas.

Por el momento, la carrera armamentista de IA es una guerra fría, principalmente entre EE. UU., China y Rusia, pero la preocupación es que habrá más. Impulsados ​​por el temor de que otros países puedan ganar terreno, las potencias militares del mundo han estado compitiendo durante años, al menos desde 1983, con el uso de la inteligencia artificial para obtener una ventaja en el equilibrio de poder. Continúa hasta el día de hoy. Como saben, el presidente ruso Vladimir Putin dijo que la nación que lidera la IA será «el gobernante del mundo».

Cómo son las políticas detrás del uso de la IA militar

Según un artículo en Salon, varias organizaciones de investigación ideológicamente diversas, incluido el Centro para la Nueva Seguridad Estadounidense (CNAS), la Institución Brookings y la Fundación Heritage, han argumentado que Estados Unidos necesita aumentar el gasto en investigación y desarrollo de IA. Un artículo sobre asuntos exteriores sostiene que las naciones que no utilicen tecnología líder en el campo de batalla perderán su ventaja competitiva. El ex secretario de Defensa de Estados Unidos, Mark Esper, dijo sobre la IA el año pasado: «La historia nos dice que aquellos que son los primeros en una generación en utilizar la tecnología a menudo tendrán una ventaja decisiva en el campo de batalla en los años venideros». De hecho, los líderes militares están invirtiendo fuertemente en IA, motivados por el deseo de asegurar ventajas operativas militares en el futuro campo de batalla.

Los comités de supervisión civil y los militares han adoptado este punto de vista. El otoño pasado, un informe bipartidista del Congreso de EE. UU. Instó al Departamento de Defensa a considerar seriamente la aceleración de la inteligencia artificial y las capacidades autónomas. La Comisión de Seguridad Nacional para la IA (NSCAI), establecida por el Congreso, pidió recientemente un aumento en la financiación de I + D para la IA durante los próximos años para garantizar que Estados Unidos mantenga su ventaja táctica sobre sus adversarios y tenga «IA militar» para 2025. ”.

En el futuro, la guerra será «algoritmo versus algoritmo», según el nuevo informe de NSCAI. Aunque las fuerzas armadas continúan compitiendo con sistemas de armas similares a los de la década de 1980, el informe de NSCAI afirma: «Las fuentes de ventaja en el campo de batalla están cambiando de factores tradicionales como el tamaño de la fuerza y ​​el nivel de armamento a factores como la recopilación y asimilación de datos superiores, la conectividad, la computación. potencia, algoritmos y seguridad del sistema. “Es posible que las nuevas armas habilitadas por IA hagan que las fuerzas armadas convencionales sean casi obsoletas, y las filas de tanques Abrams en descomposición acumularán polvo en el desierto, al igual que los barcos de la Segunda Guerra Mundial en ruinas se encuentran frente a la costa de San Francisco. Robert O. Work, vicepresidente de NSCAI, dijo recientemente a los periodistas sobre la competencia internacional de IA: «Tenemos que … tomarnos esta competencia en serio y tenemos que ganarla».

La carrera armamentista acelerada de la IA

El trabajo para integrar la IA en el ejército está muy avanzado. Por ejemplo, las fuerzas armadas de Estados Unidos, Rusia, China, Corea del Sur, Reino Unido, Australia, Israel, Brasil e Irán están desarrollando aplicaciones de ciberseguridad, simulaciones de combate, enjambres de drones y otras armas autónomas.

Leyenda: El ruso Uran-9 es un robot armado. Crédito de la foto: Dmitriy Fomin a través de Wikimedia Commons. CC BY 2.0.

Un ejercicio de dominio de la información global completado recientemente por el Comando Norte de los EE. UU. Destacó los enormes beneficios que el Departamento de Defensa puede lograr al aplicar el aprendizaje automático y la inteligencia artificial a toda la información del dominio. El ejercicio integró información de todos los campos, incluido el espacio, el ciberespacio, el aire, la tierra, el mar y el agua, dijo el general Glen D. VanHerck de la Fuerza Aérea.

Gilman Louie, comisionado del informe NSCAI, es citado en un artículo: «Creo que es un error ver esto como una carrera armamentista», aunque agregó: «No queremos terminar segundos».

Una persecución peligrosa

West Point ha comenzado a capacitar a cadetes para abordar problemas éticos cuando las personas pierden el control del campo de batalla debido a las máquinas inteligentes. Junto con las cuestiones éticas y políticas de una carrera armamentista de IA, existe un mayor riesgo de una guerra no intencionada. ¿Cómo pudo pasar eso? Una multitud de posibilidades, desde un ataque con drones malinterpretado hasta aviones de combate autónomos con nuevos algoritmos.

Los sistemas de inteligencia artificial se entrenan con datos y reflejan la calidad de esos datos junto con los prejuicios y suposiciones inherentes de quienes desarrollan los algoritmos. Gartner predice que hasta el 10% de los datos de entrenamiento de IA serán envenenados por actores benignos o maliciosos para 2023. Esto es especialmente importante dada la vulnerabilidad de los sistemas críticos.

Cuando se trata de prejuicios, los usos militares de la inteligencia artificial probablemente no sean diferentes, excepto que lo que está en juego es mucho mayor que si un solicitante obtiene una buena tasa de seguro de automóvil. Rafael Loss y Joseph Johnson escriben en War on the Rocks que la disuasión militar es un problema «extremadamente complejo», al que una IA obstaculizada por la falta de buenos datos es poco probable que encuentre una solución en un futuro próximo.

¿Qué hay de las suposiciones? En 1983, las superpotencias del mundo se acercaban a una guerra nuclear aleatoria, en gran parte porque la Unión Soviética dependía del software para hacer predicciones basadas en suposiciones falsas. Aparentemente, esto podría volver a suceder, especialmente si la IA aumenta la probabilidad de que las personas sean excluidas de la toma de decisiones. Es una pregunta abierta si el riesgo de tal error es mayor o menor con un mayor uso de la IA, pero Star Trek tuvo una visión en 1967 de cómo podría funcionar. El riesgo de conflicto había aumentado tanto en un «Taste of Armageddon» que la guerra se subcontrató a una simulación por computadora que decidió quién perecería.

Fuente: Star Trek, A Taste of Armageddon.

No hay forma de volver a poner al genio en la botella. La carrera de armamentos de la IA está en pleno apogeo y los líderes mundiales no quieren quedar en segundo lugar o peor. Adónde conducirá esto es tema de especulación. Sin embargo, está claro que las guerras del futuro serán libradas y determinadas más por la IA que por el tradicional «poder militar». El uso ético de la IA en estas aplicaciones sigue siendo un tema abierto. El informe de NSCAI tenía el mandato de recomendar restricciones en el uso de la tecnología, pero lamentablemente esto se ha pospuesto para una fecha posterior.

Gary Grossman es vicepresidente senior de práctica tecnológica en Edelman y líder global del Centro de excelencia de inteligencia artificial de Edelman.

VentureBeat

La misión de VentureBeat es ser una plaza de la ciudad digital para que los responsables de la toma de decisiones tecnológicas obtengan conocimientos sobre la tecnología y las transacciones transformadoras. Nuestro sitio web proporciona información importante sobre tecnologías y estrategias de datos para ayudarlo a administrar su negocio. Te invitamos a convertirte en miembro de nuestra comunidad y acceder a:

  • información actual sobre los temas de su interés
  • nuestros boletines
  • contenido privado de líderes de opinión y acceso con descuento a nuestros valiosos eventos, como Transformar 2021: Aprende más
  • Funciones de red y más

conviértete en miembro

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *