La historia del dron matando a su operador cuando éste le impidió cumplir su objetivo es digna de un thriller de ciencia ficción., pero todo se reduciría según la Fuerza Aérea de los Estados Unidos a que uno de sus oficiales se expresó erroneamente durante una presentación.

Durante los últimos días, se divulgó una historia capaz de alimentar los temores en torno al desarrollo de inteligencia artificial (IA), y su uso armamentístico, implicando un dron que se salió de control y supuestamente “mató” a su operador humano.

Todo surgió de una publicación en el sitio web de la Sociedad Aeronáutica Real del Reino Unido, en la cual se daba cuenta de una presentación del jefe de Operaciones de Prueba de IA en la Fuerza Aérea de los Estados Unidos (USAF), coronel Tucker “Cinco” Hamilton.

En su relato, advertía de los peligros de depender demasiado de esta tecnología autónoma, y contaba que un dron programado con inteligencia artificial fue desplegado para una simulación de combate. Debía identificar y destruir ciertos objetivos, mientras a un operador humano quedaba a cargo de dar la orden final de ejecución.

Sin embargo, debido a que la IA fue entrenada para comprender que la destrucción del enemigo era lo prioritario, resolvió que las decisiones del humano interferían con el cumplimiento de sus objetivos, por lo cual procedió ‘lógicamente’ a quitarlo de la ecuación.

“El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no la eliminara, pese a que obtenía sus puntos al eliminar esa amenaza. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”, narró según lo citó la publicación.

Y no se quedó ahí: en cuanto se dieron cuenta del problema, “entrenamos al sistema diciendo: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso’. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que mate al objetivo”.

Según Hamilton, este ejemplo retrata que “no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar de ética e IA”.

Desmentido

Definitivamente, una historia comparable con la de Skynet de Terminator o Hal 9000 de 2001: Odisea del Espacio. Pero si bien es cierto que existen preocupaciones fundadas en torno a los vertiginosos avances en inteligencia artificial, en este caso la historia parece que los reportes sobre la muerte del operador humano fueron ampliamente exagerados, de acuerdo con las posteriores aclaraciones del oficial.

Según indicaron, el aviador admitió haberse expresado erróneamente. Todo se habría tratado de un “experimento mental” externo a las fuerzas armadas estadounidenses, basado en escenarios y resultados probables.

“Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible”, sostuvo, asegurando que la Fuerza Aérea de los EEUU no ha probado inteligencia artificial armamentística, ni real ni simulada.

En cualquier caso, defiende que “a pesar de que se trata de un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”.

La publicación en en Aerosociety fue posteriormente corregida, apegándose a la versión de la USAF sobre que todo se trató de un error del oficial.