Iguais perante as plataformas? Novo estudo do InternetLab aborda as diferenças de tratamento para quem usa redes sociais

Documento analisa a “moderação em camadas”, polêmico tipo de sistema que cria listas de usuários cujos conteúdos são revisados de forma diferente pelas plataformas, em vez de seguir o processo regular de moderação. Tendo como ponto de partida a salvaguarda aos direitos humanos, e abordando as complexidades logísticas da gestão da expressão online, o estudo emite recomendações que buscam assegurar que tais sistemas sejam mais justos e transparentes.


Notícias Liberdade de Expressão 04.08.2023 por Iná Jost, Alice de Perdigão Lana e Francisco Brito Cruz

Iguais perante as plataformas? Equidade e transparência na moderação de conteúdo em plataformas digitais é o título do mais recente relatório​ da série “Diagnósticos e Recomendações” publicado pelo InternetLab em agosto de 2023.

Iniciada em meados de 2022, a  pesquisa buscou estudar o funcionamento de sistemas de moderação em camadas, aqueles que adicionam níveis diferenciados de análise para determinadas contas ao decidir se determinado conteúdo deve ou não​ permanecer disponível em uma plataforma.

O assunto da moderação de conteúdo em camadas surgiu em 2021, quando o Wall Street Journal publicou matéria revelando a existência do sistema Cross-Check da Meta que adicionava uma camada ao processo de moderação de conteúdo para determinados usuários de suas plataformas. O mecanismo fornecia um exame diferente para usuários específicos, como pessoas eleitas, parceiras e parceiros comerciais importantes, usuárias e usuários com alto número de seguidores, entre outros. 

Na prática, quando perfis que pertencem à lista postam conteúdo marcado como potencialmente infrator, suas postagens são direcionadas para uma fila diferente, supervisionada por uma equipe especializada, ao invés de integrarem o processo de moderação regular. Uma analogia útil é a fila de embarque no aeroporto. Todos concordam que pessoas idosas ou com bebês devem embarcar primeiro. Mas e se a fila, na prática, se aplicasse apenas a “clientes premium”?

Partindo do pressuposto que a escala de operação da moderação pode, por vezes, resultar em decisões equivocadas ou deixar​ brechas por diversas razões – por exemplo, particularidades ligadas a contextos culturais, sociais e políticos da determinada região, nos perguntamos:

  • As políticas de moderação de conteúdo das plataformas devem contemplar camadas adicionais de análise para diferentes tipos de perfis ou conteúdo?
  • Se certas pessoas ou conteúdos forem tratados de maneira diferente pelas plataformas e por seus processos de moderação de conteúdo, qual estrutura deve ser usada para garantir a eficiência e a legitimidade desses sistemas?
  • Como esses sistemas devem ser projetados para proteger os direitos dos usuários, especialmente no que diz respeito à equidade e transparência?

Para buscar respostas para estas e outras indagações que surgiram ao longo do processo, o InternetLab realizou, ao longo de 2022, uma série de entrevistas com grupos focais, levando em consideração aspectos de classe, gênero e raça. A importância de reunir informação qualificada e contextualizada nos levou a convidar pessoas da América Latina que atuam em diversos setores, por exemplo, nos campos de integridade eleitoral, desinformação e jornalismo, bem como membros da sociedade civil e da academia que se dedicam ao estudo dos direitos digitais. As conversas também culminaram em contribuições escritas, e foram guiadas por roteiro que compreendia três etapas: (i) compartilhamento de experiências individuais; (ii) questionamentos sobre sistemas de moderação em camadas; e (iii) propostas para o futuro.

A partir das entrevistas, sistematizamos o material coletado, que nos permitiu separar nossos achados em dois capítulos: o copo meio cheio e o meio vazio. Concluímos pela necessidade da existência de tais sistemas, a fim de buscar a equidade, em oposição à igualdade formal. Tratando indivíduos desiguais de acordo com suas diferenças, oferece-se uma alternativa à moderação em escala – que tem potencial para interpretações equivocadas e erros em casos sensíveis – especialmente em contextos de promoção d​e direitos humanos. Além disso, adicionar outras etapas de análise abre espaço para pensarmos em perspectivas locais. Nos sistemas automatizados de moderação, regras globais são aplicadas independentemente de características culturais, linguísticas, políticas, sociais e econômicas de cada região. Em outras palavras, os critérios utilizados para manter ou remover conteúdo são baseados em concepções universais e ignoram realidades de outros contextos. 

Por outro lado, a moderação em camadas não deve alterar quais são as regras aplicadas. Apenas seus procedimentos de aplicação. No entanto, na prática, a aplicação “especial” pode alterar a natureza das decisões sobre o conteúdo, uma vez que acaba implementando resultados

diferentes para indivíduos privilegiados. Assim, pode terminar por distorcer uma moderação de conteúdo principiada e consistente.

A partir desses pontos de conclusões, buscamos contribuir de maneira concreta para a discussão fornecendo recomendações para guiar um melhor desenho e implementação da moderação em camadas. As sugestões estão enumeradas abaixo e são aprofundadas ​no relatório: 

  1. Critérios claros e públicos para estar ou não nas listas de usuários que serão aceitos em programas de moderação em camadas;
  2. Divulgação das categorias dos perfis e das porcentagens de cada grupo na composição da lista – por exemplo, número de parceiros de negócios, políticos, jornalistas, defensores de direitos humanos, bem como suas regiões, gênero e raça;
  3. Transparência em relação ao procedimento e sua lógica, especialmente se há processos de veto de participantes e uma fila de espera para novos participantes, como funciona o processo de entrada e saída, e se é possível inscrever-se ou retirar-se;
  4. Implantação de processos e critérios que levem em conta as particularidades políticas, culturais e sociais de cada região ao adicionar usuários às listas;
  5. Divulgação periódica de dados sobre a operação dos sistemas, incluindo o número de decisões que foram revertidas pela moderação em camadas, falsos positivos, falsos negativos e assim por diante.

O relatório pode ser lido em português ou inglês.

compartilhe