“Hay una idea errónea muy común, incluso en la comunidad de IA, de que solo hay un puñado de fatalistas", fundamentó la institución que emitió la declaración, firmada por Sam Altman y Demis Hassabis junto con decenas de investigadores de inteligencia artificial.

En una breve declaración, ejecutivos e investigadores de puntera en inteligencia artificial -incluyendo de ChatGPT y Google Deepmind– advirtieron que el riesgo de que los avances en IA causen la extinción de la humanidad es comparable a otros peligros de escala global, como las pandemias y un potencial holocausto nuclear.

“Mitigar el riesgo de extinción por inteligencia artificial debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, indica la advertencia publicada por el Centro para la Seguridad de la IA de San Francisco, Estados Unidos.

Su director ejecutivo, Dan Hendrycks, indicó a The New York Times que la brevedad de la declaración se debió a que querían reducir las divisiones que pudiera causar en la industria. “No queríamos presionar con un menú muy grande de 30 posibles intervenciones”, explicó. “Cuando eso ocurre, diluye el mensaje”.

Por ello, quisieron hacerla lo más inclusiva posible: “Hay una idea errónea muy común, incluso en la comunidad de IA, de que solo hay un puñado de fatalistas, pero, de hecho, muchas personas en privado expresarían su preocupación por estas cosas”.

Ésta fue firmada, entre otros, por el CEO de OpenAI, matriz de ChatGPT apoyada por Microsoft, Sam Altman y el CEO de Google DeepMind, Demis Hassabis. Otras figuras clave incluyen a Geoffrey Hinton y Youshua Bengio, ganadores del Premio Turing a las ciencias de la computación de 2018 por sus aportes en el campo de la IA.

También se incluye Dario Amodei, de Anthropic, una compañía cuya IA Claude se perfila como uno de los potenciales principales competidores de ChatGPT; el co-fundador de Skype Jaan Tallinn; Dustin Moskovitz de Asana; el director de TED, Chris Anderson; y decenas de académicos de universidades de todo el mundo.

Esta iniciativa se suma a una carta abierta que a fines de marzo pidió pausar por seis meses las investigaciones en esta área, ante preocupaciones de seguridad, y que en su momento fue firmada por figuras prominentes como el magnate Elon Musk y el co-fundador de Apple Steve Wozniak.