Empleada de Tik Tok demanda a la compañía por no proteger su salud mental


Una moderadora de contenidos que revisaba vídeos para TikTok ha demandado a la empresa de redes sociales, alegando que no la protegió para que no sufriera un trauma psicológico tras una exposición "constante" a vídeos violentos que mostraban agresiones sexuales, decapitaciones, suicidios y otras escenas gráficas.

Durante 12 horas al día, Candie Frazier y otros moderadores revisaban la "violencia extrema y gráfica", incluidos los vídeos de "genocidio en Myanmar, tiroteos masivos, niños violados y animales mutilados", en un esfuerzo por filtrar estos contenidos para que no fueran vistos por los usuarios de TikTok, según la demanda. La acción legal se presentó en un tribunal federal de California la semana pasada contra TikTok y su empresa matriz, ByteDance.

Frazier desarrolló "un importante trauma psicológico que incluye ansiedad, depresión y trastorno de estrés postraumático" como resultado de su exposición a los vídeos, según la demanda, que busca el estatus de acción colectiva. El desafío legal, que alega que TikTok violó la ley laboral de California al no proporcionar un "ambiente de trabajo seguro", solicita una compensación para los moderadores que estuvieron expuestos al material. También pide que TikTok y ByteDance proporcionen apoyo y tratamiento de salud mental a los antiguos y actuales moderadores.

Frazier no es empleada de TikTok -trabaja para Telus International, una empresa que proporciona trabajadores a otras empresas- pero la demanda alega que "ByteDance y TikTok controlan los medios y la forma en que se produjo la moderación de contenidos."

Un portavoz de TikTok se negó a abordar la demanda directamente, escribiendo en un comunicado que la empresa "no comenta sobre los litigios en curso." La declaración dijo que en TikTok, "nos esforzamos por promover un ambiente de trabajo cuidadoso para nuestros empleados y nuestros contratistas." Añadió que "seguirá ampliando la gama de servicios de bienestar para que los moderadores se sientan apoyados mental y emocionalmente."

Un portavoz de Telus International, que no es un acusado en la demanda, dijo en un comunicado que la compañía estaba "orgullosa del valioso trabajo que nuestros equipos realizan para apoyar un entorno positivo en línea", y agregó que la compañía tiene un "sólido programa de resiliencia y salud mental en su lugar."

La demanda llega cuando las prácticas de gestión de contenidos en una de las plataformas de medios sociales más populares del mundo están bajo escrutinio. TikTok reveló en septiembre que tenía más de mil millones de usuarios globales.

Los distritos escolares de todo el país estaban en alerta este mes después de que las autoridades plantearan su preocupación por lo que decían que eran amenazas de violencia difundidas en la plataforma, tras un tiroteo en un instituto de Michigan que dejó cuatro muertos. TikTok negó que las amenazas se hubieran difundido ampliamente en su plataforma, aunque los defensores del control de armas pidieron a la empresa que mejorara la regulación de los contenidos.

TikTok también dijo este mes que ajustaría su algoritmo después de que una investigación del Wall Street Journal descubriera que la tecnología podía alimentar a los usuarios con flujos de contenidos centrados en temas como la depresión y las dietas extremas.

A los moderadores se les obliga a ver hasta 10 vídeos simultáneamente, mientras son empujados por el software de TikTok "a revisar los vídeos cada vez más rápido", según la demanda de Frazier. En el transcurso de un turno de 12 horas, los trabajadores tienen dos descansos de 15 minutos y una hora para comer, según la demanda.

El moderador de contenidos de Facebook detalla el trauma que provocó la lucha por un acuerdo de 52 millones de dólares por el TEPT

Telus dijo que sus empleados podían plantear sus preocupaciones a través de "varios canales internos", pero que Frazier nunca lo ha hecho. "Sus alegaciones son totalmente inconsistentes con nuestras políticas y prácticas", dijo la compañía. Un abogado de Frazier no respondió inmediatamente a una solicitud de comentarios.

Moderadores de contenidos de otras empresas de redes sociales, como Facebook, han hecho acusaciones similares. El año pasado, Facebook (cuya empresa matriz se llama ahora Meta) llegó a un acuerdo de 52 millones de dólares con miles de moderadores, después de que una demanda alegara que Facebook no les protegía de los contenidos traumáticos.

Si tú o alguien que conoces necesita ayuda, llama a la Línea Nacional de Prevención del Suicidio al 800-273-TALK (8255). También puedes enviar un mensaje de texto a un consejero de crisis llamando a la Línea de Texto de Crisis al 741741.

photo: getty image


Contenido patrocinado

Contenido patrocinado