InternetLab apresenta contribuição para consulta pública do Comitê de Supervisão do Facebook
InternetLab frisou o quanto a moderação de conteúdo pode ter papel significativo na reafirmação da sexualização dos corpos das mulheres em geral, invisibilizando corpos de pessoas trans e não-binárias.
O Comitê de Supervisão, criado pelo Facebook, anunciou suas primeiras decisões. O órgão foi estabelecido pela empresa para funcionar como um controle independente do conteúdo na plataforma. É um momento importante nesse processo, iniciado em 2018, quando Mark Zuckerberg anunciou a iniciativa, em resposta a chamados cada vez maiores por mais accountability e transparência. Um dos casos contou com contribuição do InternetLab, que participou da consulta pública.
Caso brasileiro e contribuição do InternetLab
Em outubro de 2020, uma usuária (ou usuário — a identidade da pessoa não foi relevada) publicou um post no Instagram contendo oito fotografias que mostravam sintomas de câncer de mama; cinco delas incluíam mamilos “femininos”. A imagem era rosa e o título, em português, afirmava que tinha o objetivo de promover consciência sobre o câncer de mama, características que indicavam alinhamento com a campanha Outubro Rosa.
Embora as políticas sobre nudez do Facebook incluam expressamente uma exceção permitindo publicações de mamilos para conscientização sobre o câncer de mama, o post foi removido pelo sistema automatizado.
Em sua contribuição, o InternetLab defendeu que a política contribui para a sexualização de corpos lidos socialmente como femininos. Ressaltou a desigualdade em relação ao tratamento dispensado aos mamilos de corpos entendidos como “masculinos” (que podem ser expostos na plataforma), bem como o impacto da moderação e da política de conteúdo sobre pessoas trans e não binárias.
O InternetLab também lembra que, no Brasil, as pessoas têm o direito de alterar seu nome e documentos, independente de qualquer procedimento cirúrgico. Em razão disso, a contribuição ainda chama atenção para os riscos de que a moderação do Facebook incorra em leituras meramente biologizantes dos corpos de usuárias/os.
A decisão do Comitê de Supervisão
A decisão, que deu razão à usuária, reconheceu que a política do Facebook afeta desproporcionalmente as mulheres, mas não abordou as diferentes identidades de gênero. O foco foi transparência e automatização.
O Comitê de Supervisão enfatizou a deficiência do sistema de moderação automatizada, que não identificou as palavras “câncer de mama” na imagem. Também apontou que as informações apresentadas à usuária (ou usuário) a respeito da medida foram insuficientes, por não permitirem compreensão da regra supostamente violada nem do processo adotado — se foi ou não supervisionado por humanos, por exemplo.
Além de determinar que o conteúdo em questão seja restaurado — o que o Facebook já tinha feito, ainda em 2020, quando foi anunciada publicamente a admissão do caso —, o Comitê de Supervisão também formulou recomendações sobre a política, tais como: i) melhorar o reconhecimento automatizado de texto sobreposto em imagens, ii) informar ao usuário quando a moderação automatizada for usada quanto a seu conteúdo; garantir que o usuário possa recorrer da decisão automatizada a moderadores humanos, iv) estabelecer “auditoria interna”, além de v) aprimorar os relatórios de transparência, como detalhamento sobre o tipo de conteúdo e o uso de automação.
Cabe ressaltar que o Facebook é obrigado apenas a respeitar a determinação sobre o conteúdo discutido no caso e, quando tecnicamente viável, “conteúdo idêntico em contexto paralelo”. As recomendações não vinculam a empresa, que tem apenas o dever de manifestar publicamente a respeito, em até 30 dias.
Próximos passos
O InternetLab seguirá acompanhando o trabalho do Conselho de Supervisão, que recentemente anunciou a abertura da consulta pública sobre a suspensão de Donald Trump e as regras do Facebook sobre líderes políticos.