Imagem ilustrativa do podcast caixa-preta, contendo o fundo preto e ao centro uma caixa de madeira com uma luz amarelada dentro. No centro da imagem está escrito "Caixa-Preta, episódio 7".

Caixa-Preta

Temporada 2  |  Episódio 7

Alexa, Siri, Google Home e o debate sobre gênero e assistentes virtuais

compartilhe

Está no ar o episódio #7 do podcast Caixa-Preta, “Alexa, Siri, Google Home e o debate sobre gênero e assistentes virtuais”. Desta vez, o assunto foi assistentes virtuais (Alexa, Siri, Google Home, etc) e o debate que esse tipo de tecnologia vem levantando sobre papeis de gênero.

Assistentes virtuais podem interagir com seres humanos e responder a comandos, executar tarefas, etc, por meio da voz. Voz que, por padrão, nos sistemas disponíveis no mercado, é feminina – caso de Siri, Cortana e Alexa. Em conversa com Sérgio Spagnuolo, a diretora do InternetLab Mariana Valente questiona: “Uma máquina não tem gênero, inteligência artificial não é feminina ou masculina. É na criação dessa ferramenta que se atribui um gênero a ela. E por que a gente atribui um gênero a ela? Por que uma voz que fala comigo tem que ser masculina ou feminina?”.

Valente trabalha com dados do estudo “I’d Blush, if I Could“, da Unesco, lançado em maio deste ano e que aborda com preocupação sobre as questões de gênero no desenvolvimento de tecnologias baseadas em inteligência artificial, como assistentes virtuais. O documento cita pesquisas que apontam por uma preferência de vozes femininas nesses sistemas, por serem consideradas mais “prestativas” e “humildes” (“ambas características associadas de modo estereotipado a mulheres”, diz o estudo), enquanto vozes masculinas são percebidas como mais “autoritárias”.

“Em resumo, a preferências das pessoas por vozes femininas, se essa preferência realmente existe, parece ter menos a ver com o som, o tom, a sintaxe e a cadência, do que uma associação com assistência”, diz o estudo.

O episódio discute como as tecnologias de inteligência artificial são desenvolvidas por profissionais da tecnologia (campo formado, na maior parte, por homens) e, portanto, recheados de vieses, e que essas tecnologias também aprendem com as demandas dos usuários dos serviços, e reforçam suas visões de mundo. Nos dois casos, a “máquina” acaba reproduzindo preconceitos e visões estereotipadas do mundo, inclusive sobre gênero. “Se você procura, por exemplo, ‘mulher bonita’ e ‘mulher feia’ no Google, dá uma olhada no que aparece (…) Isso mostrou como o resultado no Google Imagens está reforçando estereótipos raciais”, disse Mariana Valente.

“Então é o algoritmo aprendendo com os outros usuários. Acontece que eu posso não ter esses estereótipos na cabeça e, quando eu faço a busca e aparecem aqueles resultados, esse estereótipo é reforçado para mim. Vem toda uma discussão se esses algoritmos não têm de ser calibrados, se não tem que haver uma intervenção humana para que essas coisas não aconteçam porque isso pode perpetuar algumas questões”, afirmou.

O Caixa-Preta é uma realização do InternetLab em parceria com o Volt Data Lab.

Ouça em seu tocador de podcasts de preferência:

Stitcher | Spotify | Itunes | Overcast | Pocket Casts | CastBox

Créditos do episódio

  • Apresentação, roteiro, pesquisa e produção: Sérgio Spagnuolo
  • Produção executiva: Francisco Brito Cruz
  • Edição: Murilo Roncolato
  • Música de aberturaAlteração (ÉA!) por BNegão e os Seletores de Frequência (com permissão do artista)
  • Trilhas: Maribou State – ‘Natural Fools’ (YouTube)
compartilhe