Innovación: ¿Puede la inteligencia artificial crear soldados éticos?
24 Agosto, 2018 / Artículos, Sin categoríaLos técnicos del laboratorio de investigación del ejército estadounidense redactaron en 2014 un informe sobre cómo serían los campos de batalla en 2050. La función de los múltiples avances digitales era extremadamente relevante en ese escenario. Lo que se describe en el documento se parece a lo que muestran los videojuegos y las películas de ciencia ficción: individuos con súperpoderes, robots invencibles, sofisticados métodos de inteligencia artificial, etc.
Además, el estudio se refiere al uso selectivo de herramientas que, hoy por hoy, son concebidas como amenazas de primer orden: la suplantación de identidad, la piratería informática, los medios masivos de desinformación… El concepto no es nuevo: los conflictos bélicos siempre se han transformado por la intervención de la tecnología. Sin embargo, estos cambios también afectan a los humanos, y las modificaciones que éstos han experimentado a lo largo de la historia no han sido nunca tan rápidas ni tan drásticas.
Las transformaciones digitales afectan tanto a los dispositivos como a las personas, que ahora son más letales que en cualquier otra época.
Los soldados son ya más letales que en el pasado. Expertos como Robert H. Latiff, general retirado de la fuerza aérea de Estados Unidos, recuerdan que el hecho de matar es “intensamente personal”, por lo que la “mejora artificial de los combatientes” amenaza con socavar “este espíritu”. Por esta razón, añade Latiff, autor del influyente Future war: Preparing for the new global battlefield, su país, que cuenta “con los militares más poderosos del mundo”, está obligado a reconocer esta situación.
Él y muchos de sus colegas sostienen que, suceda lo que suceda, los soldados deben comportarse “éticamente” e igualmente tienen que acatar “las convenciones establecidas con respecto a las reglas de la guerra”. Los analistas se preguntan si un sujeto de carne y hueso estaría dispuesto a confiar su vida a una máquina. O si llegaría a ponerse en peligro para salvar a un robot importante.
La política del Departamento de Defensa estadounidense fija que las personas participarán en todo momento en la toma de decisiones sobre armas mortíferas. No obstante, el Pentágono gastó en 2017 el equivalente a más de dos mil millones de euros en inteligencia artificial. Este mismo organismo espera financiar sistemas sin tripulación con unos nueve mil millones. Frente a esta tendencia, el general Paul J. Selva aboga por “mantener las reglas morales de la guerra”.
Selva, vicepresidente del Estado Mayor Conjunto, teme que acabemos sufriendo en los enfrentamientos los efectos de “un conjunto de robots que no sabremos cómo controlar”. Pero el comité selecto de inteligencia artificial de la Casa Blanca ni siquiera admite este problema. Latiff y Selva reivindican el miedo, un sentimiento muy humano, porque actúa como “un modulador de la conducta” que restringe las actuaciones que no son éticas.
El científico e innovador, Fernando Fischmann, creador de Crystal Lagoons, recomienda este artículo.