Pular para o conteúdo

Comitê de Supervisão critica programa XCheck da Meta e pede mais transparência

Comitê independente concluiu que programa parece satisfazer interesses de negócio e acaba por proteger certos usuários

Comitê de Supervisão critica programa XCheck da Meta e pede mais transparência

Em uma decisão publicada nesta terça-feira (6.dez.2022), o Comitê de Supervisão da Meta (em inglês chamado de Oversight Board) criticou o programa XCheck da Meta e pediu por mudanças e mais transparência.

A conclusão do conselho independente, em resposta a um pedido de orientação apresentado pela Meta em set.2021, é a de que o programa atende mais a interesses econômicos da própria empresa do que avança a agenda de direitos humanos da empresa, como a Meta havia qualificado.

O PROGRAMA. A Meta criou o XCheck para evitar remoções automatizadas por inteligência artificial de conteúdos de um grupo de usuários (incluindo páginas e negócios), submetendo esses conteúdos para revisão humana. Na prática, isso significa que conteúdos feitos por esse grupo de usuários podem ficar no ar mais tempo, mesmo que estejam violando alguma regra da plataforma.

Segundo informou a Meta ao Comitê, fazem parte do programa "jornalistas cobrindo zonas de conflito e líderes comunitários chamando atenção para ódio ou violência", bem como atores cívicos (políticos), dos quais "usuários têm um interesse elevado em saber o que estão falando".

CONTEXTO. Em set.2021, como parte da cobertura dos Facebook Files (que depois viriam a ser chamados de #Facebook Papers) o Wall Street Journal (WSJ) revelou que a Meta dava um tratamento privilegiado de moderação a algumas figuras - políticos, celebridades, atletas e outros nomes importantes. Foi na sequência dessa reportagem que a Meta enviou o pedido ao Comitê de Supervisão.

CONCLUSÃO. Em sua avaliação, o Comitê encontrou falhas no programa XCheck e concluiu que, em lugar de ajudar a Meta a avançar nos seus compromissos de direitos humanos, o programa parece mais pensado para satisfazer interesses de negócio e acaba por proteger certas figuras.

"Ao conceder proteção extra para certos usuários escolhidos amplamente de acordo com interesses de negócio, o cross-check permite que conteúdo que outrora seria removido rapidamente continue ativo por um período maior, possivelmente causando danos", escreveu o Comitê, adicionando que a Meta falhou em produzir dados que demonstrem se o cross-check resultou em decisões mais precisas, o que seria uma falha do ponto de vista de transparência.

RECOMENDAÇÕES. O Conselho deixou diversas recomendações à Meta.

Texto Laís Martins
Edição Alexandre Orrico
Laís Martins

Laís Martins

Laís é jornalista pela PUC-SP e mestra em comunicação política pela Universidade de Amsterdam. Suas reportagens focam em direitos humanos, política e tecnologia. No Núcleo, atua como repórter.

Todos os artigos

Mais em Jogo Rápido

Ver tudo

Mais de Laís Martins

Ver tudo