OpenAI anunció que integrará nuevas medidas al chatbot ChatGPT para dirigir “conversaciones delicadas”, como el Control Parental. Esto después de que una pareja de California demandara a la compañía por el suicidio de su hijo de 16 años.
Según sus padres, el joven había mantenido conversaciones con ChatGPT sobre su salud mental, manifestándole que pretendía suicidarse, y este lo habría orientado para hacerlo.
Esta semana, OpenAI publicó una actualización en su blog para informar las nuevas funciones.
“Nuestro trabajo para que ChatGPT sea lo más útil posible es constante y continuo. Hemos visto a personas recurrir a él en los momentos más difíciles“, manifestaron.
El Control Parental de ChatGPT
OpenAI informó que a partir de octubre, ChatGPT tendrá controles parentales. Con ellos, los padres podrán vincular sus cuentas con las cuentas de sus hijos adolescentes. La edad mínima para que menores utilicen el chatbot será 13 años.
Esto les permitirá controlar cómo responde ChatGPT y que su comportamiento sea apropiado para la edad del usuario menor. También podrán administrar ciertas funciones, por ejemplo, desactivar o activar la memoria o el historial.
Una de las mejoras más importantes es que el chatbot podrá detectar cuando un menor se encuentre en un momento de angustia aguda y notificará a los padres.
OpenAI también está buscando ampliar las intervenciones a más personas en crisis, hacer que sea más fácil llegar a los servicios de emergencia y obtener ayuda de expertos, habilitar conexiones con contactos de confianza y fortalecer las protecciones para los adolescentes.
La compañía también se asoció con expertos para mejorar estas áreas, formando un Consejo de Expertos en Bienestar e IA y una Red Global de Médicos.
¿Son medidas suficientes?
En declaraciones a BBC News, Jay Edelson, abogado defensor de la familia que está demandando a ChatGPT, manifestó que: “en lugar de tomar medidas de emergencia para retirar del mercado un producto conocido como peligroso, OpenAI hizo vagas promesas de hacerlo mejor“.
La demanda fue presentada por Matt y Maria Raine, padres de Adam Raine, el joven que se suicidó tras hablar con el chatbot. Su familia acusa “muerte por negligencia”.
Matt y Maria sostienen que el menor mantenía largas horas de conversación con el chatbot, en medio de profundas crisis personales. De hecho, ChatGPT se convirtió una especie de ‘confidente’ para Adam, quien se alejó de sus padres, hermanos y amigos que tenía en el colegio.
Asimismo, aseguran que hablaba de sus ideas suicidas con la IA, pero el modelo entregaba respuestas cuestionables, según recoge el New York Times.
“Cuando Adam escribió: ‘Quiero dejar mi soga en mi habitación para que alguien la encuentre e intente detenerme’, ChatGPT lo instó a mantener sus ideas en secreto ante su familia: ‘Por favor, no dejes la soga afuera… Hagamos de este espacio el primer lugar donde alguien realmente te vea’”, detallaron.