La guerra del futuro será con IA y no la decidirán 'terminators' sino comandantes virtuales

  • El desarrollo de la inteligencia artificial bélica va encaminada a complejos algoritmos que decidan estrategias

  • Menos espectaculares que los 'cyborgs' de las películas, pero mucho más letales

  • Al final no serán robots asesinos los que decidirán los conflictos del futuro

Hace 80 años Estados Unidos ganó la carrera por hacerse con la bomba atómica y con ella selló el fin la Segunda Guerra Mundial. Ahora el arma definitiva es otra, ni impacta ni explota, y como munición solo cuenta con datos, millones de datos. Se estima que en una década quién controle la Inteligencia Artificial tendrá una enorme ventaja militar, Estados Unidos y China se disputan su dominio, la carrera ya ha empezado. 

Casi lo primero que hizo Trump al llegar fue anunciar 500.000 millones para Inteligencia Artificial, no para convertirnos en manga al estilo Ghibli o jugar con su chat ni juegos de niños sino, sobre todo, por su aplicación para la guerra. Frente a eso en Europa es solo un punto más (y no el prioritario) dentro de su nuevo plan de Defensa de 800.000 millones.

Así será la guerra del futuro

La guerra del futuro no iba de robots asesinos. No una IA que sea soldado sino estratega, que sepa donde golpear y cuando. Si Google puede adelantarse a tus gustos ¿Por qué no tu comandante virtual sobre el enemigo? Programas que identifican objetivos y los alcanzan, en dos o tres minutos, cuando antes se tardaba horas. A ello se dedica Palantir, una empresa estadounidense que ha subido en bolsa como la espuma. Intercepta misiles, rastrea terroristas o valora del uno al 100 el nivel de peligrosidad de un individuo cualquiera. Ha generado interés en líderes de todo el mundo, sirva de ejemplo la visita del primer ministro británico a sus instalaciones el pasado mes de febrero.

Según Instituto Español de Estudios Estratégicos la IA ha sido fundamental para que Ucrania haya resistido la invasión Rusia. Y es Ucrania precisamente el campo de pruebas de esta tecnología. Sus datos ingentes de guerra están alimentando los algoritmos militares de empresas americanas como Palantir. Chinas también, gracias a información proporcionada por el bando ruso.

En la práctica, los conocidos como enjambres de drones autónomos o vehículos no tripulados son la avanzadilla de esta tecnología militar. Sin embargo, muchas de sus aplicaciones van más lejos del campo de batalla como la seguridad de las comunicaciones, mejorar la organización de las tropas o contribuir a campañas de desinformación.

La IA plantea graves dudas éticas porque no es 100% fiable pero la ética no cotiza al alza en un conflicto armado. Según Foreign Policy, el ejército israelí la usa con un porcentaje de error tolerado en Gaza del 10% para asesinatos selectivos. ¿Cuánto es el margen de error admisible en la búsqueda de un lider de Hamás? A más error más víctimas civiles inocentes.

Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento.