Pixabay

Experto advierte que las IA superarán a la humanidad y matará a todos: ¿Es realmente posible?

07 mayo 2023 | 06:07

Los avances en inteligencia artificial durante el último tiempo han sido vertiginosos, al punto en que ya se proyecta que pronto estará involucrada profundamente en la industria tecnológica. La velocidad de este avance resulta preocupante no sólo para quienes no la entienden, y ven en el concepto de "IA" los apocalipsis tecnológicos clásicos de la ciencia ficción, sino también para quienes se encuentran en la vanguardia de la investigación. Algunos son más apocalípticos que otros, pero como mínimo hay temores muy fundados de que esta tecnología logre eventualmente replicar la inteligencia humana.

La repentina irrupción de las inteligencias artificiales ha generado todo tipo de temores. Desde los más inmediatos, respecto de la falsificación de imágenes y voces en internet, hasta las más apocalípticas. Temen que, incluso, una IA lo suficientemente avanzada matará eventualmente a la humanidad.

Ello, tras volverse “consciente” al alcanzar la inteligencia humana, para eventualmente superarla en lo que se conoce como la “singularidad tecnológica”. Es decir, el momento en que las máquinas alcancen un desarrollo que supere la cognición humana y, por lo tanto, causen consecuencias insospechadas e imposibles de predecir para la vida orgánica.

Escenarios como el de “Matrix”, “Yo, Robot”, “Mass Effect”, “Terminator”, o tal vez “Age of Ultron” siendo algunos ejemplos que hasta ahora eran mera especulación de ciencia ficción, pero hoy algunas figuras las presentan como reales posibilidades.

Hasta el momento, aún no llegamos a este escenario ni el de la “Inteligencia Artificial General” (AGI, por sus siglas en ingles), como se le conoce al potencial momento en que las IA logren adquirir las capacidades necesarias para igualarse con los humanos, siendo la creatividad y la conciencia emocional una de las principales limitantes. Pero algunos creen que en esa dirección vamos, y rápidamente.

Una de las voces que auguran un final más catastrófico es la de Eliezer Yudkowsky, un teórico e investigador del Machine Intelligence Research Institute (Instituto de Investigación de Inteligencia de las Máquinas), quien alerta en los más duros términos que no basta con pausar el desarrollo de esta tecnología, sino que incluso hay que frenarla de forma definitiva y “estar dispuestos a bombardear un centro de datos”.

En una carta abierta publicada en Time, manifiesta que “muchos investigadores inmersos en estos temas, incluyéndome a mí, esperan que el resultado más probable de construir una IA sobrehumanamente inteligente, bajo cualquier circunstancia remotamente parecida a las actuales, es que, literalmente, todos en la Tierra morirán. (…) No es que no puedas, en principio, sobrevivir creando algo mucho más inteligente que tú; es que requeriría precisión y preparación y nuevos conocimientos científicos, y probablemente no tener sistemas IA compuesto por gigantes e inescrutables matrices de números fraccionales”.

“Si alguien construye una IA demasiado poderosa, en las condiciones actuales, lo que auguro es que todos los miembros de la especie humana y toda la vida biológica en la Tierra mueran poco después”, anticipa.

Así, sugiere que debemos “hacer acuerdos multinacionales inmediatos para evitar que las actividades prohibidas se trasladen a otros lugares. Si los servicios de inteligencia aseguran que un país ajeno al acuerdo está construyendo un GPU, hay que tenerle menos miedo a un conflicto armado entre naciones y que a que se viole la pausa del avance de la IA; hay que estar dispuesto a destruir un centro de datos mediante un ataque aéreo”.

Si bien él augura la extinción de nuestra especie, no está solo: incluso Stephen Hawking temía el avance de las IA.

De manera menos alarmista, otras figuras clave de la industria como el magnate Elon Musk o el co-fundador de Apple Steve Wozniak también se han mostrado preocupados. En otra carta abierta, pidieron pausar por seis meses el desarrollo de esta tecnología, hasta que como humanidad podamos regularla correctamente y evitar que sus peligros socaven sus potenciales beneficios.

La “inteligencia humana”, como primera barrera

The Conversation consultó con algunos especialistas dedicados a observar estos avances, y Paul Formosa, cabeza del Departamento de Filosofía de la Universidad Macquarie, considera que las IA ya superan la inteligencia humana en muchas tareas, incluyendo juegos de estrategia como Go, ajedrez, StarCraft y Diplomacy, e incluso “nos superan en muchos puntos de referencia de rendimiento en idiomas, y escriben ensayos universitarios de pregrado aceptables”.

“Por supuesto, también puede inventar cosas -o ‘alucinar’- y equivocarse, pero los humanos también (aunque no de la misma forma)”, acota. Sin embargo, anticipa que “en una escala de tiempo lo suficientemente larga, parece posible que las IA alcanzarán la AGI”.

Es decir, “habrá alcanzado una suficiente competencia a lo largo de los dominios interconectados que posee la inteligencia humana. Aún así, a algunos les puede preocupar que -a pesar de los logros de las IA hasta ahora-, las IA no serán realmente ‘inteligentes’, porque no entienden (o no pueden entender) lo que está haciendo, dado que no es consiente”.

“Como sea, el ascenso de las IA sugiere que podemos tener inteligencia sin conciencia, porque la inteligencia puede ser entendida en términos funcionales. Una entidad inteligente puede hacer cosas inteligentes como aprender, razonar, escribir ensayos o usar herramientas”, reflexiona. “Las IAs que creamos puede que nunca alcancen la conciencia, pero son crecientemente capaces de hacer cosas inteligentes; en algunos casos, ya las hacen a un nivel superior al nuestro, tendencia que parece que continuará”.

Por su parte, la investigadora de neurociencias computacionales e ingeniería biomédica de la Universidad de Sidney, Christina Maher, cree que la AGI ocurrirá: “La IA alcanzará inteligencia de nivel humano, pero tal vez no pronto. La inteligencia humana nos permite razonar, resolver problemas y tomar decisiones. Requiere muchas habilidades cognitivas, incluyendo adaptabilidad, inteligencia social y aprender de la experiencia.

“La IA ya cumple varios de esos criterios. Lo que falta es que los modelos de IA aprendan rasgos inherentemente humanos como el razonamiento crítico, y entender qué son las emociones y qué eventos las provocan”, sostuvo la especialista.

Explica que “como humanos, aprendemos y experimentamos esos rasgos desde el momento que nacemos. Nuestra primera experiencia de ‘felicidad’ es demasiado temprana para que nosotros siquiera la recordemos. También aprendemos razonamiento crítico y regulación emocional a lo largo de nuestra infancia, y desarrollamos un sentido de nuestras ’emociones’ conforme interactuamos con el mundo y lo experimentamos”.

“Relevantemente, puede tomar varios años que el cerebro humano desarrolle tal inteligencia”, matiza la neurocientífica.

En este sentido, afirma que las IA no han logrado tales capacidades, “pero si los humanos pueden aprender esos rasgos, probablemente las IA también -tal vez a un ritmo mayor-. Aún estamos descubriendo cómo los modelos IA deben ser construidos, entrenados, y cómo se debe interactuar con ellos para desarrollar tales rasgos en ellos. Realmente, la gran pregunta no es si la IA alcanzará a la inteligencia humana, sino cuándo y cómo”.

La clave: la computación cuántica

Seyedali Mirjalili, fundador del Centro para la Investigación de Inteligencia Artificial y Optimización de la Universidad de Torrens en Australia, concuerda con Maher: “Creo que la IA superará la inteligencia humana. ¿Por qué? El pasado ofrece ideas que no podemos ignorar”.

“Muchos pensaban que tareas como jugar juegos de computadora, reconocer imágenes o crear contenido -entre otras- podían sólo ser efectuadas por humanos, pero los avances tecnológicos probaron lo contrario”, argumenta el especialista.

Hoy, explica, “el rápido avance y adopción de algoritmos de IA, junto con la abundancia de datos y recursos computacionales, ha llevado a un nivel de inteligencia y automatización previamente inimaginables. Si seguimos la misma trayectoria, tener una IA más generalizada no es una posibilidad más, sino una certeza del futuro”.

“Sólo es cuestión de tiempo. La IA ha avanzado significativamente, pero aún no en tareas que requieren intuición, empatía y creatividad, por ejemplo. Pero los avances en algoritmos lo permitirán”, augura Mirjalili.

Y el especialista va más allá: “Incluso, una vez que los sistemas IA alcancen tal nivel de habilidades cognitivas, habrá un ‘efecto bola de nieve’ y serán capaces de mejorarse a sí mismos con una intervención humana mínima o nula. Este tipo de ‘automatización de la inteligencia’ cambiará profundamente el mundo”.

“La inteligencia artificial general sigue siendo un desafío significativo, y hay implicaciones éticas y sociales que deben ser abordadas muy cuidadosamente conforme seguimos avanzando hacia ella”, sostiene.

En tanto, Dana Rezazadegan, especialista en robótica e inteligencia artificial de la Universidad Tecnológica de Queensland, considera que “la IA se volverá tan inteligente como los humanos de muchas formas, pero exactamente qué tan inteligente se convierta será decidido en buena medida por los avances en computación cuántica”.

“La inteligencia humana no es tan simple como hablar de saber hechos. Tiene varios aspectos como la creatividad, la inteligencia emocional y la intuición, que los modelos IA pueden imitar, pero no igualar. Dicho eso, las IA han avanzado masivamente y esta tendencia va a continuar.

Los actuales modelos, explica, son limitados por información relativamente acotada y entrenamiento sesgado, así como por su poder de cómputo. “La emergencia de la computación cuántica va a transformar las capacidades de la inteligencia artificial. Con IAs mejoradas cuánticamente, podremos alimentar a los modelos de IA con múltiples sets de datos masivos comparables con la recolección multimodal de información lograda por los humanos mediante la interacción con el mundo”, agrega Rezazadegan. “Esos modelos serán capaces de mantener análisis veloces y precisos”.

“Conseguir una vención avanzada de aprendizaje continuo debería llevar al desarrollo de sistemas IA altamente sofisticados que, pasado cierto punto, será capaz de mejorarse a sí mismo sin intervención humana”, anticipa la especialista. “Como tal, los algoritmos de IA que corren en computadores cuánticos estables tienen una alta probabilidad de alcanzar algo similar a la AGI, incluso si no calzan necesariamente con todos los aspectos de la inteligencia humana como la conocemos”.

A toda velocidad y sin frenos

En general, muchos expertos coinciden en que la inteligencia artificial no se irá a ninguna parte y habrá que aprender sobre la marcha a desarrollarlas de forma ética.

La directora de Estrategia de Investigación de IA de Google, Pilar Manchón, aludió a que la evolución de la IA es “un experimento masivo en la sociedad” y remarcó que “no hay nada que pueda parar el avance de la Inteligencia Artificial, pues es como un rinoceronte corriendo”.

“Tenemos que ser audaces, pero también responsables. La humanidad está en juego y me gustaría solicitar más humildad y más inversión en investigación responsable”, manifestó, según la citó Agencia Efe. “Hay que ir lentamente, ser humildes”, “vayamos rápido, pero con calma”, fue su principal recomendación.

El jefe de información del Imperial College de Londres, Juan Villamil, indicó por su parte que “estamos al principio de una revolución” de algo que el común de las personas todavía no entiende “muy bien” pero que “no vamos a detenernos ya”.

“Creo que no se puede parar”, subrayó, y abogó por avanzar con seguridad, algo que considera más importante que ir más rápido o lento.

En tanto, el presidente ejecutivo de Ecosystems, Omar Hatamleh, observó que “la Inteligencia Artificial, aunque parezca una gran revolución, está en una fase embrionaria y su total desarrollo, lo que se denomina la Súper-Inteligencia Artificial, tardará todavía unos 25 años”.

De todas formas, a nivel más optimista y ante la posibilidad de que las máquinas maten a la humanidad, Wozniak tiene una respuesta que ataca directamente a otra de las grandes figuras que firmó la petición de pausar las investigaciones en esta materia: “Si quieres un estudio de IA saliendo mal e intentando matarte a cada oportunidad, consigue un Tesla”.