lunes, mayo 07, 2018

La roboética en tiempos de poshumanidad


 Soldados estadounidenses durante un entrenamiento. Fuente: US Defense. 

Si la guerra es aquello que nos hace humanos, según Tucídides, ¿cuál será nuestra característica común una vez que el control del campo de batalla pertenezca únicamente a las matemáticas y los engranajes?

| Por: Andrea G. Rodríguez / Orden Mundial |

Las relaciones de cooperación entre diferentes sujetos de una misma especie no son exclusivas a los humanos. Lobos, hienas, abejas u hormigas trabajan en equipo para lograr un objetivo común. Son los mecanismos de refuerzo que la humanidad ofrece, derivados de la necesidad de vivir en sociedad, los causantes de nuestra singularidad.

Aristóteles dejó entrever en su Política que la guerra y la caza compartían muchas de sus características fundamentales, de tal modo que se podía definir la primera a partir de la segunda como la caza de personas y posesiones de manera justa. La domesticación del perro y, más tarde, la del caballo fueron en este sentido las dos grandes revoluciones en la Historia de los conflictos pasados.

En el arte de la guerra, como diría Sun Tzu, las innovaciones tecnológicas —ya se trate de cooperación entre especies o de la creación de herramientas— ayudan al desarrollo de tácticas y estrategias cada vez más complejas. Asimismo, la disponibilidad o no de estas nuevas tecnologías —y el uso que se hace de ellas— dibuja la línea entre conquistadores y conquistados; no olvidemos que uno de los factores decisivos del éxito de Gengis Kan fue la caballería.

Además, la disponibilidad de tecnologías cada vez más potentes y destructivas para las que la presencia física humana se hace más borrosa y la aparición de nuevos elementos decisivos en un marco temporal muy reducido hacen que quizá los valores que sustentan el conflicto —el interés político, el sistema internacional desregulado y el miedo hacia los demás— se vuelvan cada vez más importantes. La necesidad de un nuevo Derecho que recoja los límites de la aplicación de estas tecnologías se hace evidente, así como los valores humanos que paradójicamente surgen de situaciones desesperadas y peligrosas.

La revolución de la inteligencia artificial

Al igual que lo fueron la revolución de las armas de fuego, la de los carros de combate y la de los aviones, la revolución robótico-tecnológica amenaza con volver a crear una escala con la que medir el alcance del poder de las sociedades por medio de su agencia, la capacidad de actuar de manera independiente teniendo en cuenta que en su acción lo humano y lo no humano, ser vivo y máquina, participan de manera igual.

A pesar de que la definición de lo que es considerado inteligencia artificial (IA) está en continua revisión, sugiere como característica central la capacidad de pensar autónomamente, esto es, “de componer independientemente y seleccionar entre diferentes líneas de actuación para cumplir objetivos basados en su conocimiento y comprensión del mundo en sí mismo y de la situación”, de acuerdo con el Pentágono estadounidense. Bajo este prisma, la IA puede dividirse en dos grandes ramas según su intensidad: la llamada IA débil o estrecha y la fuerte o general.

La primera es aquella que se encuentra limitada a una tarea, normalmente de naturaleza técnica y para la cual no se exige ningún tipo de esfuerzo intelectual. En nuestro día a día, la IA estrecha nos ayuda regulando desde los filtros de correo indeseado que maneja nuestra bandeja de entrada hasta el sencillo juego de ajedrez instalado por defecto en nuestros ordenadores. Las máquinas con IA estrecha se suelen centrar en una tarea concreta que repiten una y otra vez, aunque tengan disponibles paquetes de datos diferentes.

Por su parte, la IA general es la que crea más problemas a la hora de definir su alcance y su poder. Este tipo de IA supone poseer la capacidad para llevar a cabo tareas en las cuales se exige un trabajo de razonamiento previo, de pensamiento en abstracto, de planificación, reflexión, creatividad y aprendizaje desde la experiencia, hechos que hasta ahora pertenecían exclusivamente al campo de la razón humana. La ciencia ficción se ha encargado de retratarla como algo lúgubre y peligroso para la humanidad, ejércitos de robots terminando con el mundo que conocemos o sustituyendo a hombres, mujeres y niños.

Póster de la película de 2001 Inteligencia artificial, del director estadounidense Steven Spielberg. En él se puede leer una descripción del protagonista, un niño robot de apariencia y comportamiento totalmente humanos. Fuente: IMDb

Aunque se calcule que no lograremos desarrollar algoritmos capaces de producir inteligencia artificial general en por lo menos dos décadas, lo cierto es que ya se han dado las primeras manifestaciones. En 2017 una máquina fue capaz de completar una partida de go, uno de los juegos de estrategia más antiguos, del que ya se escribía en las Analectas de Confucio y considerado una de las cuatro artes esenciales para el intelectual de la Antigua China. Esto marcó un punto de partida que permitió el desarrollo de nuevas variantes y, en verano de ese mismo año, un algoritmo de Facebook aprendía a mentir a raíz del análisis de 5.808 conversaciones humanas en la plataforma.

Un fenómeno de este a oeste

En febrero de 2018 los titulares de que China había empezado a probar gafas inteligentes, derivadas del prototipo de Google Glass, para ampliar su sistema de vigilancia nacional inundaban las portadas de las principales agencias de medios. Las gafas, conectadas por internet a una base de datos con los registros penales de los ciudadanos, son capaces de identificar en tiempo real a cualquiera de estas personas o vehículos inscritos en el registro que estén considerados como una amenaza para el país. Además de esto, el reforzado sistema de vigilancia de la República Popular cuenta con un ejército de drones para ayudar a la vigilancia de las zonas fronterizas.

Los drones son el primer síntoma de este nuevo cambio tecnológico debido a su reducido tamaño y la versatilidad de su uso, asimilable en algunos casos al comportamiento de las abejas —swarming o ‘enjambreo’—, que realizan funciones diferentes por separado, pero trabajan de manera sincronizada en forma de red o nube para lograr un objetivo común.

Al contrario que muchos de los elementos que componen las fuerzas armadas, un dron, que es el objetivo actual de desarrollo de las principales industrias militares, puede ser fácilmente diseñado y más tarde darle forma con una impresora 3D; los materiales para su construcción son tan baratos como un dólar estadounidense. Un F-35, uno de los principales elementos de la fuerza aérea estadounidense, puede costar cerca de cien millones de dólares; las aplicaciones de cien millones de drones son mucho mayores.

Las nubes de drones, además de ser más baratas, podrían llevar cabo misiones de reconocimiento, defensa o apoyo más arriesgadas al no ser estar tripuladas. Esto último les da una naturaleza casi desechable y un carácter de peligrosa creatividad a las maniobras bélicas del futuro. La línea entre lo civil y lo militar se desdibuja con la industria de los drones, comunes entre fotógrafos y aficionados de todas las ramas y punto de partida de los laboratorios dedicados a la seguridad nacional.

En 2008 el Departamento de Defensa estadounidense inauguraba el programa MAST (siglas en inglés de Sistemas y Tecnología Microautónomos). Durante los diez años que ha estado activo, su tarea ha sido desarrollar elementos independientes de exploración que pudieran ser utilizados como sistemas de reconocimiento en un momento previo al despliegue de tropas.

Los drones que conocemos suelen tener varios rotores que los asemejan a pequeños helicópteros. Sin embargo, estos policópteros —de entre cuatro y seis hélices— hacen mucho ruido y son demasiado pesados o tienen una autonomía de vuelo muy corta. Sustituyendo las hélices por un pequeño remo, se le pueden añadir aplicaciones en tierra y los vuelven más rápidos y mucho más silenciosos. Con el cese de MAST en 2018, se ha puesto en marcha un programa sustitutorio —Sistemas y Tecnología Inteligentes Colaborativos Distribuidos (DCIST por sus siglas en inglés)— con el objetivo de conseguir que estos elementos cooperen y puedan llevar a cabo las aspiraciones del enjambreo.

El ciclóptero SALTO es la apuesta de la industria militar estadounidense de los drones. Con su única pata, el dron desarrollado por la Universidad de California en Berkeley promete ser más ligero y más rápido que los aéreos. Fuente: YouTube

Al otro lado del Pacífico, institutos civiles y militares, grandes universidades y empresas como Turing Robot o Baidu son los encargados de llevar a cabo el desarrollo de la robótica militar de la República Popular China. Con un crecimiento aproximado de la inversión desde los 570 millones de dólares estadounidenses en 2013 hasta los 2.000 millones previsto para 2022, China tiene todas las posibilidades de encabezar esta nueva carrera armamentística. De hecho, el Gobierno chino ha marcado como “prioridad nacional” el desarrollo de inteligencia artificial.

Una de las joyas tecnológicas chinas dentro de la gama de los drones es la serie CH, que, gracias a su capacidad de carga elevada y a su coste —mucho menor que los drones estadounidenses—, está inundando los mercados continentales. Aunque gran parte de este conocimiento adquirido es autóctono, se ha acusado a China de robar tecnología por medio del secuestro de vehículos no tripulados para clonar sus componentes e incorporarlo a sus propias invenciones.

Los modelos más populares en la oferta china son el CH-4b y el CH-3, ambos de tamaño medio y capacidad de carga reducida. En comparación con Estados Unidos, han tenido una mejor acogida en países fuera del epicentro occidental de compra.

El punto central en el que estas dos industrias difieren es que Estados Unidos se encuentra centrado en la creación de tecnología novedosa que pueda tener una gran repercusión a largo plazo, mientras que las industrias chinas concentran sus esfuerzos en la mejora de sus habilidades presentes, perfeccionar los elementos existentes de acuerdo con las necesidades del Ejército mediante la tecnología disponible y reducir los costes de producción. En esta línea se encuentra la construcción de un exoesqueleto por la Universidad en Chengdú o la incorporación de cada vez más IA en el sistema de misiles conforme al enfoque enchufar y usar, que permite a los comandantes personalizar su acción según las condiciones de combate.

Por encima de nosotros

La disyuntiva entre seguridad e intimidad es un debate presente en nuestras sociedades desde hace mucho tiempo. La sensación de que ambos no pueden estar unidos y que el declive del valor de uno automáticamente significa una ampliación del valor del otro aparece como una idea general en el imaginario colectivo. La creación y el desarrollo de tecnologías que prometen hacer el mundo más seguro mientras son probados para un caso de hecatombe hacen que el discurso de los grupos y centros de pensamiento se dirijan al hecho de si somos capaces de avanzar como sociedades al mismo ritmo que lo hace la tecnología o si esta, por ir a una velocidad mayor, va a exigir sacrificios desmesurados que quizá no estemos dispuestos a realizar.

Grupos como el Instituto para el Futuro de la Vida —con miembros tan ilustres como Elon Musk, fundador de Tesla y SpaceX, o el recién fallecido físico británico Stephen Hawking— promueven el uso benigno de la tecnología y advierten del alcance destructivo de la inteligencia artificial sin los mecanismos de protección y la responsabilidad necesaria que inspira su uso. Posibilidades destructivas como las retratadas en la famosa novela de Orson Scott Card El juego de Ender, en la que un niño acaba con toda una especie creyendo que está jugando a un juego de guerra y utilizando naves cuyas formaciones recuerdan a un enjambre de abejas, podrían convertirse de alguna manera en una realidad.

No obstante, la frontera más cercana aparece en el desarrollo verdadero de las posibilidades del enjambreo, sobre todo la capacidad de reenganche una vez abandonada la red motriz. La mano humana aún es necesaria, pero a medida que avanzan las posibilidades de utilizar robots en vez de personas descienden las posibilidades de respuesta humanitaria, que muchas veces generan la diferencia necesaria para salvar vidas dentro de un conflicto. Emociones como el miedo, la empatía, la solidaridad o la disonancia cognitiva permiten elegir el bando más humano.

El futuro quizá sean droides que realicen tareas intelectuales y supongan un reto para la humanidad. Pero el presente se encuentra en elementos no tripulados que, a la espera de ser utilizados en escenarios bélicos, hacen su tarea por encima de nuestras cabezas, a miles de pies del suelo.

(*) Andrea G. Rodríguez. Madrid, 1995. Estudiante por pasión y profesión. Próximamente graduada en Relaciones Internacionales después de cuatro años divididos entre Madrid (UCM), Praga (Charles University) y Taiwán (NTU). Interesada en geopolítica y geoestrategia, Asia-Pacífico e Israel.
@agarcod