Instagram anunció que pronto comenzará a notificar a los padres si sus hijos están buscando repetidamente términos relacionados con el suicidio o la autolesión en la red social, anunció este jueves Meta, su compañía matriz.
Esta medida se activará para los padres que usan las herramientas de supervisión parental de Instagram. Inicialmente estará disponible en Estados Unidos, Reino Unido, Australia y Canadá, pero se extenderá a otras regiones a finales de este año, informaron.
“Estas alertas están diseñadas para proporcionar a los padres la información que necesitan para ayudar a sus hijos e incluyen recursos especializados para ayudar a los padres a abordar estas conversaciones delicadas”, dice el comunicado de Meta.
Las búsquedas que activarán la alerta incluyen frases que sugieran que un adolescente quiere autolesionarse y términos como “suicidio” o “autolesión”.
Dichos avisos se enviarán a los padres por correo electrónico, SMS o WhatsApp, según la información de contacto disponible, así como mediante una notificación en la aplicación.
“Al hacer clic en la notificación, se abrirá un mensaje a pantalla completa explicando que su hijo adolescente ha intentado buscar repetidamente en Instagram términos relacionados con el suicidio o la autolesión en un corto período de tiempo”, anota Meta.
La tecnológica subraya que tiene “políticas estrictas contra el contenido que promueve o glorifica el suicidio o la autolesión”, pero que permite “que las personas compartan contenido sobre sus propias dificultades con estos problemas”, contenido que se oculta “a los adolescentes, incluso si lo comparte alguien a quien siguen”.
“Sabemos que los adolescentes recurren cada vez más a la inteligencia artificial (IA) en busca de apoyo. Si bien nuestra IA ya está entrenada para responder de forma segura a los adolescentes y proporcionar recursos sobre estos temas según corresponda, ahora estamos creando alertas parentales similares para ciertas experiencias de IA”, adelanta Meta en su comunicado.
Estas alertarán a los padres si un adolescente intenta entablar ciertos tipos de conversaciones relacionadas con el suicidio o la autolesión con la IA.
Según la empresa, este es un trabajo importante y compartirán más información en los “próximos meses”.
¿Haciendo más seguro a Instagram?
Esta actualización ocurre justamente cuando Meta está siendo investigada en múltiples juicios en Estados Unidos, por presuntamente fomentar efectos perjudiciales en la salud mental de los menores.
De hecho, la compañía es acusada de diseñar algoritmos en Instagram que perjudican la salud mental de los jóvenes.
El consejero delegado de Meta y creador de Facebook, Mark Zuckerberg, compareció la semana pasada ante el Tribunal Superior de Los Ángeles en el marco de una demanda interpuesta por una usuaria que alega haber desarrollado adicción a sus plataformas durante su adolescencia.
Durante su testimonio, Zuckerberg reiteró la postura de la tecnológica: la responsabilidad de verificar la edad de los usuarios debe recaer en los propietarios de los sistemas operativos y tiendas de aplicaciones, como Apple y Google, y no en los desarrolladores de las aplicaciones.