Meta presenta la realidad aumentada a los anunciantes con nuevos AR Reels Ads y Facebook Stories

Meta encontrado responsable mientras la corte bloquea el despido de moderadores

Un tribunal de Kenia dictaminó que Meta es el principal empleador de los moderadores de contenido que demandan al gigante de las redes sociales y a su socio de revisión de contenido en África, Sama, por despido ilegal. Los 184 moderadores, en la demanda presentada en marzo de este año, también alegaron que el nuevo socio de revisión de contenido de Meta en el continente, Majorel, los había incluido en la lista negra siguiendo instrucciones de Meta.

El viernes, el juez Byram Ongaya del tribunal de empleo y relaciones laborales de Kenia diluyó el plan del gigante de las redes sociales para recusarse del caso diciendo que los moderadores hicieron el trabajo de Meta, usaron su tecnología para el trabajo y se adhirieron a su rendimiento y métricas de precisión. . El tribunal dijo que Sama era “simplemente un agente… o gerente”. Sama cuestionó este dicho: “Meta es un cliente de Sama y Sama no está legalmente facultada para actuar en nombre de Meta”.

Meta no ha respondido a una solicitud de comentarios.

Lo último es un golpe para Meta, que ha buscado desmarcarse de la petición diciendo que no es el empleador de los moderadores.

“La evidencia es que la obligación de proporcionar el trabajo digital de moderación de contenido corresponde al primer y segundo demandado que proporcionó el espacio de trabajo digital o virtual para los solicitantes. El primer y segundo respondedor ejercen el control al imponer los requisitos operativos y los estándares de desempeño. El primer y el segundo encuestados luego devolvieron la remuneración a través del agente. [Sama]”, dijo el tribunal.

“El tercer demandado [Sama] actuaba como agente del propietario del trabajo de moderación de contenido el primer y segundo encuestados [Meta Platforms Inc and Meta Platforms Ireland Limited]no hay nada en los arreglos para absolver al primer y segundo demandado como los principales y principales empleadores de los moderadores de contenido”.

Además, el tribunal ordenó que se extendieran los contratos de los moderadores y también prohibió a Meta y Sama despedirlos, en espera de la determinación del caso. El tribunal emitió las instrucciones diciendo que no había una justificación adecuada para los despidos y que había “encontrado que el trabajo de moderación de contenido está disponible. Los solicitantes continuarán trabajando en los términos prevalecientes o mejores en el ínterin”.

Los moderadores, contratados de todo el continente, incluidos Etiopía, Uganda, Somalia y Sudáfrica, analizan las publicaciones de las redes sociales en las plataformas de Meta para eliminar el contenido que perpetra y perpetúa el odio, la desinformación y la violencia.

Los moderadores alegan que Sama los despidió ilegalmente después de no emitirles avisos de despido como lo exige la ley de Kenia. La demanda también afirma, entre otras cuestiones, que a los moderadores no se les emitió un aviso de terminación de 30 días y que sus cuotas terminales se vincularon a la firma de documentos de no divulgación.

Sama, en el pasado, le dijo a TechCrunch que observaba la ley de Kenia y comunicó la decisión de suspender la moderación de contenido en un ayuntamiento y a través de correos electrónicos y cartas de notificación.

Sama, cuyos clientes incluyen OpenAI, canceló el contrato de Meta y los servicios de revisión de contenido y emitió avisos de despido a 260 moderadores para concentrarse en el trabajo de etiquetado (anotación de datos de visión por computadora).

Meta y Sama se enfrentan a otros dos juicios en Kenia; Daniel Motaung, un sudafricano, demandó a la empresa por trabajo y trata de personas, relaciones laborales injustas, ruptura de sindicatos y falta de apoyo psicosocial y de salud mental “adecuado”. Motaung alega que fue despedido por organizar una huelga en 2019 y tratar de sindicalizar a los empleados de Sama.

Los etíopes presentaron otra demanda en diciembre del año pasado por afirmaciones de que el gigante de las redes sociales no empleó suficientes medidas de seguridad en Facebook, lo que, a su vez, alimentó los conflictos que provocaron muertes, incluido el padre de uno de los peticionarios, y 500.000 etíopes. durante la Guerra del Tigray.


Source link