Autor: Ángel Gómez de Ágreda (*) – Gentileza Revista Aeronáutica y Astronáutica del Ejército del Aire – España
Este mes traemos algunos consejos prácticos y, claro está, hablaremos de Ucrania y de ChatGPT.
El famoso investigador de ciberseguridad Bruce Schneier es una de las firmas más reputadas del sector. Hace ya unos años, comentaba que había estado intentando comprarse un coche, de cualquier gama, con la única condición de que no equipase ningún procesador. La búsqueda resultó infructuosa. De hecho, un coche medio tiene docenas de procesadores y varias conexiones inalámbricas mediante las que se puede acceder a ellos.
En esta publicación se muestran las vulnerabilidades que las distintas marcas presentan ante la intrusión de cibercriminales. Coches que compramos por docenas de miles de euros -y más- comparten soluciones informáticas con patinetes o motocicletas. Y conviene recordar que estos mismos vehículos y fabricantes son los encargados de proveer a nuestras Fuerzas Armadas de sus propios modelos. En muchos casos, son «digitalmente» idénticos (de gemelos digitales hablaremos otro día).
Uno podría pensar que los coches de alta gama están exentos de estas vulnerabilidades, pero el artículo nos saca rápidamente de nuestro error.
Esto me recuerda una conversación con una especialista en ciberseguridad. Me decía que, cuando miraba a un avión no podía evitar ver «un montón de IPs volando». No le faltaba razón. Los aviones contemporáneos son tan buenos como lo es su capacidad para generar, integrar y consolidar datos. Puede ser para elaborar inteligencia, para dirigir las armas hasta los blancos o paracontrolar enjambres de drones a su alrededor. Lo que es cierto es que las vulnerabilidades principales de nuestros sistemas de armas –su vientre blando– se encuentran, muchas veces, en el software de sus equipos.
A este respecto, en una de las escenas finales de la nueva entrega de Top Gun (ojo, spoiler), uno de los personajes afirma, precisamente, la obsolescencia de los pilotos frente a los sistemas autónomos. La respuesta de Maverick es que eso no sucederá hoy. Es probable que no llegue a suceder nunca. Las tendencias apuntan hacia la hibridación entre humanos y máquinas más quea la sustitución de los primeros por las segundas. Bien repartidas las funciones, formamos un buen equipo.
Y, al fin y al cabo, mi amiga se derretía con Tom Cruise en el papel de Maverick.
La complicación estriba en encontrar ese justo equilibrio entre personas y algoritmos. Y de saber encontrar la perfecta combinación de capacidades que pueden ofrecer unas y otros. Las posibilidades son tantas que, en ocasiones, resulta difícil distinguir cuál es el verdadero objetivo de una acción del enemigo. No digamos ya, hablar de su calificación moral. Si esto es así en casos trillados tras años o siglos de costumbre, tanto más en la utilización de tecnologías que miden su vida en lustros o en años que se pueden contar con los dedos de una mano.
Ya a mediados del XIX, Ramón de Campoamor nos cantaba aquello de «Y es que en el mundo traidor / nada hay verdad ni mentira: / todo es según el color / del cristal con que se mira», forma difícilmente superable de explicar también la actualidad. ¿Son las conversaciones que se recogen aquí muestras de las vulnerabilidades de las comunicaciones rusas en la guerra en Ucrania? ¿O se trata de efectos propagandísticos que tratan de desmoralizar al enemigo? Está claro que no es buena ideadepender de las redes móviles del enemigo –como ya apuntábamos el mes pasado–, pero esa misma realidad puede sugerir formas más sofisticadas de influencia. Incluso permite crear una línea caliente telefónica y de Telegram que, bajo el nombre de «Quiero vivir», permite a los soldados rusos ponerse en contacto con el enemigo para explorar opciones de rendición. Uno no puede sino acordarse del famoso gag de Gila llamando «al enemigo».
No dejamos la guerra, ni a Ucrania…, ni a Gila.
En esa misma línea caliente se puede encontrar un video con explicaciones sobre el modo correcto de rendirse ante un dron. Incluso en el caso de que se quede sin batería y enga que ser reemplazado por otro. Todo un código de señales queda establecido sobre cómo transmitir nuestras intenciones a la máquina y cómo ésta tiene que aceptar nuestra rendición.
Este procedimiento solventaría de una forma simplista uno de los principales problemas que se atribuyen a los sistemas de armas autónomos letales (SALAS): su irritante incapacidad para distinguir entre combatientes (objetivos legítimos en derecho internacional) y no combatientes.
Evidentemente, la realidad es bastante más compleja. Pero haríamos mal en quedarnos con la mera anécdota y no ver más allá en las implicaciones de estas iniciativas.
No hay entrada que se precie estos días en este campo que no tenga una referencia a ChatGPT, el generador de textos sintéticos que se acaba de lanzar a la curiosidad pública. GPT significa transformer generativo pre-entrenado, es decir, es un programa capaz de procesar una enorme cantidad de datos y de volcarlos en un texto, imagen o video verosímil. Aunque su versión GPT3 lleva años activa, hasta hace unos meses no podía utilizarse más que a través de un complejo sistema de permisos. Ahora, ChatGPT está accesible a quién quiera explorarlo.

Y lo que están haciendo algunos es utilizarlo para escribir, por ejemplo, código malicioso (virus, para entendernos) o correos convincentes susceptibles de convertirse en phishing. Otros le piden que escriba una columna de prensa o que redacte su trabajo escolar. Pero, mucho más allá, tendremos que estar atentos a la influencia que puede tener en nuestras interacciones en redes digitales.
Cada vez será más difícil saber quién o qué está al otro lado.
(*) Ángel Gómez de Ágreda Coronel del Ejército del Aire y del Espacio
Doctor en Ingeniería de Organización (UPM)
angel@angelgomezdeagreda.es