“El desarrollo de una inteligencia artificial (“machine intelligence”) superhumana (SMI) es probablemente la mayor amenaza para la supervivencia de la humanidad” ( Sam Altman, 2015)
“Uno de los mayores riesgos para el futuro de la civilización es la IA…es mucho más peligrosa que las armas nucleares” (Elon Musk, 2023 y 2018)
Los sistemas de Inteligencia Artificial (IA) avanzan rápidamente desde la actual Inteligencia Artificial Estrecha (IAE) hacia la Inteligencia Artificial General (IAG). Esta sería capaz de aprender de sí misma y generar nuevas capacidades para aplicarlas autónomamente, llegando a igualar o incluso superar a las capacidades humanas, y conducir potencialmente a una Super Inteligencia Artificial (SIA).
Un riesgo potencial si en su desarrollo y aplicación no cuentan con la debida orientación ética previa y un marco regulatorio desde una perspectiva pública alineada con los derechos humanos y la seguridad.
El salto hacia la inteligencia artificial general
En menos de una década, la totalidad de las funciones de las que dependen nuestras vidas estarán regidas por sistemas de IA. Para darnos una idea: el Internet de las Cosas (IoT), según algunas previsiones (IoT Analytics; IDC; ARM), el número de dispositivos conectados en 2025 superarían los 27 mil millones, las proyecciones para 2030 alcanzan los 40 mil millones y se podría llegar a un billón (un millón de millones) para 2035.
La inversión en IA crece exponencialmente. Solo la IA generativa (la más conocida y empleada) superó en 2024 más de 8.5 veces los niveles de 2022 cuando surgió, y representa ahora sobre el 20% de toda la inversión privada en tecnología.
Ante este escenario, crece el consenso sobre la necesidad de contar con un marco global para la gobernanza de la IA, especialmente en cuanto a la transición cada vez más acelerada desde la IAE a la IAG. Se va constituyendo un corpus de ideas para ello, contando con las orientaciones éticas de la UNESCO, el Vaticano, el G-7, la Conferencia Episcopal Latinoamericana, las Conferencias de Comisiones Parlamentarias de Futuros, principios de la OCDE, la Resolución de la ONU y el Pacto Digital Mundial, más las tres conferencias sobre seguridad de la IA en Bletchley (Reino Unido 2023), Seúl y París (2024). Hay también avances normativos concretos en China, la Unión Europea, Canadá, en varios países de América Latina, e incluso en Estados Unidos, pese a la liberalidad a este respecto de la actual administración Trump.
La urgencia de una gobernanza global
En este contexto, hay que destacar dos iniciativas recientes que apuntan al mismo objetivo. Por una parte, el Consejo de Presidentes de la Asamblea General de las Naciones Unidas (UNCPGA) ha emitido un informe elaborado por un grupo de expertos de alto nivel sobre “Gobernanza de la transición a la Inteligencia Artificial General (IAG): consideraciones urgentes para la Asamblea General de la ONU”, instando a una coordinación internacional inmediata liderada por la ONU, propone una sesión especial de la Asamblea General para debatir sobre el establecimiento de un Observatorio Global de la IAG que supervise la investigación y proporcione alertas tempranas, celebrar una Convención Marco que podría establecer objetivos compartidos, y el establecimiento de una agencia de las Naciones Unidas para la IAG, similar a la Organización Internacional de la Energía Atómica (OIEA).
Por otra, un importante paso en esta misma línea fue dado por China, probablemente saliendo al paso del nuevo plan liberalizador de Donald Trump. El primer ministro Li Qiang en la Conferencia Mundial de Inteligencia Artificial y Reunión de Alto Nivel sobre la Gobernanza Global de la IA celebrada en Shanghái, propuso un Plan de Acción sobre la Gobernanza Global de la Inteligencia Artificial, de 13 puntos, que implicaría construir un modelo de gobernanza inclusivo con participación de múltiples partes interesadas, implementar conjuntamente el Pacto Digital Mundial y los compromisos pertinentes del Pacto para el Futuro, teniendo a las Naciones Unidas como canal principal.
Todo esto puede ser alentador. Pero es de esperar que la próxima Asamblea General de la ONU en septiembre sea el momento para que estas propuestas cuenten no solamente con el consenso de los estados, y en especial de las grandes potencias tecnológicas, sino que se comiencen a concretar, empezando por tener una Convención Marco sobre IA donde se discuta y llegue a acuerdos vinculantes.
Enviando corrección, espere un momento...
