Drag Queens e Inteligência Artificial
o InternetLab iniciou projeto de pesquisa que se destina a analisar o potencial impacto, sobre a circulação de conteúdo LGBTQ, do uso de ferramentas de inteligência artificial para moderação de conteúdo em plataformas.
Plataformas de internet sofrem pressão de maneira constante para atuar de maneira mais firme na moderação dos conteúdos que circulam nas redes sociais. Em razão do grande volume de conteúdos postados por usuários, essas empresas começaram a desenvolver inteligência artificial para automatizar processos decisórios envolvendo remoção de conteúdo. Essas tecnologias envolvem o uso de machine learning e são específicas para diferentes tipos de conteúdo, tais como imagens, vídeos, sons e texto escrito. Algumas dessas ferramentas, desenvolvidas para avaliar o nível de “toxicidade” de conteúdos textuais, fazem uso de processamento natural de linguagem e análise de sentimentos para detectar discurso de ódio e conteúdo de caráter danoso.
Muito embora essas tecnologias possam representar um ponto de inflexão nos debates sobre discurso de ódio e conteúdo danoso nas redes sociais, pesquisas recentes indicam que essas inteligências artificias ainda não conseguem entender contexto ou detectar a intenção e a motivação do enunciador. Ou seja, elas falham em reconhecer o valor social de determinadas formas de conteúdo, como discursos LGBTQ visando ressignificar palavras usualmente empregadas para atacar membros da comunidade. Além disso, há um número considerável de estudos que indicam o uso de linguagem “pseudo-ofensiva” como forma de interação que serve para preparar membros da comunidade LGBTQ para lidar com hostilidade externa ao grupo [1] [2] [3] [4]. Alguns desses estudos focaram especificamente nos códigos comunicacionais de drag queens. Justamente por trabalhar com papéis de gênero e identidade, as drag queens sempre foram importantes e tiveram voz ativa dentro da comunidade LGBTQ.
Tendo esse contexto em mente, o InternetLab iniciou projeto de pesquisa que se destina a analisar o potencial impacto, sobre a circulação de conteúdo LGBTQ, do uso de ferramentas de inteligência artificial para moderação de conteúdo em plataformas. A metodologia da pesquisa, bem como seus resultados preliminares, foram publicados no blog do InternetLab e, em inglês, na Wired. Parte dos achados já foram compartilhados e debatidos no RightsCon 2019, no BIAS 2019, na Connected Life Conference 2019, no seminário Grandes plataformas de internet e moderação de conteúdos e no Web Intelligence 2019. O artigo sobre a pesquisa foi disponibilizado pela Springer.