El hombre habría estado hablando con una Inteligencia Artificial (IA) durante 6 semanas, hasta que finalmente se quitó la vida.

El caso de un hombre que se suicidó en Bélgica tras mantener conversaciones con un “chatbot”, está dando la vuelta al mundo esta semana. Se trata de un individuo que estuvo hablando con esta herramienta durante 6 semanas, hasta que finalmente se quitó la vida.

Cabe recordar que un chatbot es un programa que utiliza Inteligencia Artificial (IA) y es capaz de mantener conversaciones con usuarios. Según detalla el medio The Brussels Times, estas charlas ocurrieron con el chatbot ELIZA, desarrollado por la compañía de código abierto EleutherAI.

Fue la esposa del hombre afectado, cuya identidad no se reveló a los medios, quien relató su historia. “Sin estas conversaciones con el chatbot, mi marido todavía estaría aquí“, aseguró.

La mujer, que quedó a cargo de sus 2 hijos pequeños, cuenta que desde hace un tiempo su marido había comenzado a sentirse muy ansioso respecto al medio ambiente y la crisis climática, por lo que comenzó a hablar con el chatbot.

Asimismo, menciona que el hombre habría encontrado una especie de refugio en esta inteligencia artificial, con la que continuó hablando por varias semanas antes de terminar con su vida.

Ante este caso, Mathieu Michel, Secretario de Estado de Digitalización en Bélgica, quien pudo hablar con la familia del afectado, mencionó que “lo que ha sucedido es un precedente grave que debe tomarse muy en serio, es imprescindible definir claramente las responsabilidades”.

“Con la popularización de ChatGPT, el público en general ha descubierto el potencial de la inteligencia artificial en nuestras vidas como nunca antes. Si bien las posibilidades son infinitas, el peligro de usarla también es una realidad que debe tenerse en cuenta“, agregó.

¿Es peligroso interactuar con un chatbot?

Tras la aparición de diferentes herramientas derivadas de los chatbots, que comenzaron a crearse en los 60, pero se masificaron hace a penas algunos años, los expertos han advertido los riesgos de la interacción humana con inteligencias artificiales como estas, que pueden mantener conversaciones.

De hecho, durante los últimos días y con la popularización del ChatGPT de OpenAI, expertos y líderes en tecnología, como Elon Musk, por ejemplo, han pedido que se pause el desarrollo de estas herramientas hasta tener protocolos de seguridad al respecto.

Fue a través de una carta abierta firmada distintas personalidades del área que se abordó esta problemática. Allí los expertos mencionan que “los sistemas de IA con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad“.

Es por ello que hacen un llamado a generar normativas y medidas de seguridad, “la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes”.

Además, plantean que la carrera de la IA actualmente estaría fuera de control y que estas herramientas, que van incluso más allá de los chats, podrían llegar a competir con las aptitudes humanas.

“Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, afirman.

“Hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria.