“Ver constantemente esto te hace más sensible a todo. Al cabo de un tiempo no podía ver ni una carta de suicidio”, relató.

Un empleado que trabajaba en el equipo de moderadores de contenido para una empresa que presta servicio a Meta, propietaria de Facebook, Instagram y WhatsApp, sufrió graves problemas de salud mental después de verse obligado a revisar repetidamente videos perturbadores, como suicidios, asesinatos y violaciones.

A pesar de pedir ayuda, las soluciones propuestas, como visitar la “fun floor” (piso de la diversión) en el edificio en Barcelona, España, o hablar brevemente con una psicóloga de la empresa, resultaron ineficaces según lo reporta El País.

Los moderadores de contenido son responsables de mantener limpios los muros de Facebook y los feeds de Instagram, tomando decisiones sobre la publicación de contenido, desde noticias falsas hasta imágenes que vulneran las políticas de Meta.

La empresa CCC Barcelona Digital Services, subcontratada por Meta, enfrentó críticas por las condiciones de trabajo de sus moderadores, lo que llevó a una investigación de la Inspección de Trabajo de la Generalitat y una multa por deficiencias en la evaluación de riesgos psicosociales.

La empresa fue adquirida por Telus International en 2020, que niega las acusaciones y afirma tener medidas de seguridad adecuadas. Sin embargo, un reciente fallo judicial reconoció que la enfermedad mental de un moderador estaba causada por su trabajo, marcando un hito al reconocer el estrés laboral como desencadenante de trastornos mentales.

El trabajador afectado, que solicitó el anonimato, describe la brutalidad de los videos que tenía que revisar y la insensibilidad requerida al seguir estrictamente las políticas de Meta. Se plantea la sospecha de que los moderadores estén siendo utilizados para entrenar inteligencia artificial (IA), especialmente aquellos con puntuaciones más altas por eficiencia.

Las condiciones laborales incluían horarios rotativos, descansos limitados y falta de apoyo específico para los moderadores.

La empresa, con alrededor de 2,000 empleados, recurrió a la sentencia.

“No sabía de lo que eran capaces los humanos”

Su relato es lapidario. Según cuenta, el empleo resultaba tentador. Pagan 2.400 euros mensuales brutos (2.4 millones de pesos chilenos), no requieren experiencia ni formación, y resulta especialmente llamativo para jóvenes extranjeros que manejen varios idiomas.

Sin embargo, no se esperaba el nivel de violencia que debería diariamente enfrentar: “Me lo dijeron, pero por encima, y luego cuando empiezas ves que las cosas son mucho, mucho peores… (…) La gente no es nada consciente de lo que ocurre. Antes de trabajar ahí te aseguro que no sabía de lo que eran capaces los humanos”.

“Ver constantemente esto te hace más sensible a todo. Al cabo de un tiempo no podía ver ni una carta de suicidio”, relata, acotando que por las políticas de Meta debía ver los videos denunciados hasta el final y varias veces.

Por ejemplo, explica, “un vídeo en directo de alguien explicando que se quería suicidar, tenías que seguir viéndolo, y no podías eliminarlo ni avisar a la policía si no veías algo en la escena que sugiriese el suicido, una pistola, una ventana abierta… A veces de pronto sacaban la pistola y se disparaban, sin que hubieses podido hacer nada”.

“Tenías que calificar el vídeo por lo peor que ocurriera, según una escala. Si empezaba el vídeo con algún tipo de violencia, había que esperar por si salía algo más grave, como un asesinato, un desmembramiento o un abuso sexual, para calificarlo según lo más grave. Si la violencia más grave salía al principio, el sistema te dejaba eliminarlo”, detalla.

La empresa asegura que cuenta con un programa de bienestar integral, incluyendo apoyo médico externo, asesores disponibles las 24 horas, descansos y sesiones de emergencia, y tecnología para desenfocar videos o apagar el sonido.