Imagem com fundo laranja e os escritos " Especial inteligência artificial"

Inteligência artificial: InternetLab lança especial com entrevistas

Notícias Privacidade e Vigilância 14.10.2020 por Institucional

Cada vez mais, entidades públicas e privadas apostam no desenvolvimento de algoritmos de inteligência artificial, capazes de realizar inferências, identificar padrões e tomar decisões automatizadas “inteligentes”. Os reflexos da utilização da IA na sociedade deixaram de ser utopias ou distopias, podendo ser concretamente identificados na realidade e se imbricando em uma série de processos e situações sociais concretas.

Neste especial sobre inteligência artificial, o InternetLab publicará uma série de entrevistas sobre inteligência artificial, algoritmos e plataformas de internet, feitas pelo Núcleo de Direito, Internet e Sociedade (NDIS) da Faculdade de Direito da USP (FDUSP).

Conduzido por meio de uma parceria com o InternetLab, o NDIS é uma atividade de cultura e extensão da FDUSP oferecida desde 2015. Sua intenção é promover reflexões sobre os desafios impostos ao direito pelos avanços da tecnologia, sobretudo no campo da internet. As atividades de pesquisa do NDIS privilegiam o estudo de políticas públicas e regulação, aproximando as áreas de direitos fundamentais e sociologia jurídica. Os temas abordados variam: em semestres anteriores, o NDIS ofereceu módulos sobre privacidade, liberdade de expressão, deep web, direito e Internet no cinema, a obra “Code v.2.0” de Lawrence Lessig, revenge porn e violência de gênero na Internet e, ainda, discussões sobre o seriado Black Mirror e vivências LGBTQIA+ no ambiente digital. Além disso, o NDIS também realiza eventos na FDUSP e participa de audiências e consultas públicas.

Imagem com fundo laranja e ao centro escrito em branco " Especial inteligência artificial".

Além das entrevistas, compilamos aqui nossos principais projetos que trataram de inteligência artificial:

  1. Drag queens e Inteligência Artificial
  2. Contribuição para a Estratégia Nacional de Inteligência Artificial – Consulta Pública
  3. Série de entrevistas do NDIS-USP
  4. Reconhecimento facial e setor privado

Drag queens e inteligência artificial: computadores devem decidir o que é ‘tóxico’ na internet?

Plataformas de internet como Facebook, Twitter e YouTube sofrem pressão de maneira constante para atuar de maneira mais firme na moderação dos conteúdos que circulam nas redes sociais. Em razão do grande volume de conteúdos postados por usuários, essas empresas começaram a desenvolver inteligência artificial para automatizar processos decisórios envolvendo remoção de conteúdo. Algumas dessas ferramentas, desenvolvidas para avaliar o nível de “toxicidade” de conteúdos textuais, fazem uso de processamento natural de linguagem e análise de sentimentos para detectar discurso de ódio e conteúdo de caráter danoso.

Essa pesquisa, desenvolvida por Alessandra Gomes, Dennys Antonialli e Thiago Dias Oliva, testou o Perspective, uma tecnologia desenvolvida pela Jigsaw (do grupo Alphabet) que mede o nível de toxicidade de conteúdo de texto. O InternetLab utilizou a ferramenta para medir os níveis de toxicidade de tweets postados por drag queens conhecidas nos Estados Unidos e comparar os resultados com aqueles obtidos com a análise de tweets de outros usuários famosos da plataforma, especialmente figuras da extrema direita.

Os resultados indicaram que um número significativo de perfis das drag queens no Twitter foram considerados mais tóxicos que o perfil de Donald Trump e de supremacistas brancos. Veja a pesquisa “Drag queens e Inteligência Artificial: computadores devem decidir o que é ‘tóxico’ na internet?” completa para maiores detalhes.

Estratégia nacional de inteligência artificial – consulta pública

O InternetLab apresentou contribuições para a consulta pública da Estratégia Nacional de Inteligência Artificial, realizada pelo Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC), encerrada no dia 2 de março de 2020. A consulta tinha por objetivo “colher subsídios para a construção de uma Estratégia Nacional de Inteligência Artificial que permita potencializar os benefícios da IA para o país, mitigando eventuais impactos negativos”.

Em nossas contribuições, buscamos ressaltar a natureza intrincada do fenômeno do viés ou discriminação algorítmica, apresentar maneiras concretas de mitigar riscos e permitir o exercício de controle público, transparência e accountability em decisões tomadas ou informadas por sistemas de inteligência artificial — em especial quando envolverem o exercício ou acesso a um direito ou liberdade fundamentais —, apontar importantes questões referentes a técnicas de mineração de dados e acesso ao conhecimento, dentre outros.

Em especial, por meio das nossas sugestões, buscamos assentar objetivamente o respeito aos direitos humanos e às garantias processuais brasileiras no contexto do uso de sistemas autônomos. Confira o documento na íntegra com as contribuições do InternetLab para a Estratégia Nacional de Inteligência Artificial.

Reconhecimento facial e setor privado: guia para a adoção de boas práticas

Com o avanço do uso de tecnologias de reconhecimento facial tanto pelo setor público quanto pelo setor privado, surgem diversos problemas. A coleta e o processamento dos dados pessoais necessários para seu funcionamento, atividades que antes exigiam recursos computacionais e financeiros significativos, vêm se tornando gradativamente mais baratas, rápidas – e arriscadas. O mau uso da tecnologia pode resultar em práticas abusivas, discriminação, invasão de privacidade e violação de direitos à proteção de dados.

O relatório, produzido pelo InternetLab e o Instituto Brasileiro de Defesa do Consumidor (Idec), oferece um panorama das principais questões ligadas aos riscos, conceitos legais e boas práticas para uso comercial do reconhecimento facial no Brasil. Ele pretende contribuir com o debate sobre os riscos e os impactos decorrentes da adoção do reconhecimento facial, não só no âmbito governamental, mas também em suas aplicações comerciais – além do debate sobre como o setor privado pode lidar com tais riscos.

O trabalho defende que a adoção de boas práticas na utilização de tecnologias de reconhecimento facial, além de um sinal de boa-fé, é uma necessidade ética e legal para as empresas que pretendem promover a inovação de forma responsável. Veja o relatório “Reconhecimento facial e setor privado: guia para a adoção de boas práticas” na íntegra para mais detalhes.

Entrevistas do NDIS-USP

Os alunos integrantes do NDIS-USP discutiram, ao longo do segundo semestre de 2019, questões ligadas aos usos feitos da IA, suas implicações para a sociedade e as crescentes propostas de regulamentação, temas como enviesamento algorítmico, seu uso para moderação de conteúdo em redes sociais, como combate ao discurso de ódio e proteção de direitos autorais, vigilância preditiva, entre outros.

Como trabalho de encerramento do semestre, grupos de alunos conduziram entrevistas com diferentes referências para o debate sobre inteligência artificial, que serão publicadas durante as próximas três semanas.

1ª Entrevista – Yasodara Córdova, mason fellow na Ford Foundation, no Ash Center for Democratic Governance and Innovation

A gente já tinha certas dinâmicas onde quem tinha mais poderio econômico era favorecido pelo sistema democrático. (…) Esse ecossistema, que beneficiava uma rede, foi ampliado e acabou caindo “nas graças” de outras redes de acordo com uma dinâmica antiga. Eu acho que o nosso sistema democrático ganhou escala, embora não tenha se ampliado da maneira que a gente gostaria.

2ª Entrevista – Andriei Gutierrez, gerente de relações governamentais e assuntos regulatórios na IBM

Como setor privado, nós temos que começar a discutir (…) a responsabilidade de algoritmo, que passa por definir um padrão ético para adoção, pela preocupação de como os algoritmos vão ser desenvolvidos, usados e vão voltar a ser reproduzidos na sociedade. (…) Nós temos que nos reeducar à luz dessa nova era. (…) Vai ser um processo de educação, de formação política: vamos ter que rediscutir valores, privacidade; questionar para quem estamos dando os dados.

3ª Entrevista – Carla Vieira, pesquisadora de IA e co-fundadora do perifaCode

A própria matemática não é completa e é importante ter isso em mente quando a gente constrói tecnologia (…) Isso tem muito a ver com os casos de discriminação que a gente tem visto, justamente por essa crença de que a tecnologia e a IA são coisas neutras… “São neutras, elas só propagam vieses do mundo, não há nada que a gente possa fazer” – só que não é bem assim, tem várias coisas que a gente pode fazer.

4ª Entrevista – Pablo Cerdeira, sócio do Galdino e Coelho Advogados e antigo Chief Data Officer da Prefeitura do Rio de Janeiro

A administração pública precisa ser transparente com relação não só aos dados, mas como ela os usa. Não basta colocar portais de dados abertos, ela precisa abrir os códigos do que está fazendo e ter espaço para que a sociedade venha trabalhar junto. […] É preciso, então, fazer todo um trabalho de ponderação e aí sim usar dados oficiais para fazer correções de modelo e isso, de novo, tem que ser transparente e com a sociedade criticando, para que a gente consiga ao final, ainda nessa fase de transição, ter modelos que sejam minimamente representativos, transparentes e que melhorem a prestação da administração pública, sem os vieses que os dados ainda têm e que vão ter por um bom tempo.

5ª Entrevista – Ronan Damasco, National Technology Officer da Microsoft Brasil

O uso responsável e ético, principalmente da inteligência artificial, deve se dar através da regulação interna. E, externamente, os países têm de se preocupar com sua legislação, para que a tecnologia seja utilizada para benefício do cidadão, e não contrário a ele; para que ela possa ser usada, como a Microsoft prega, para ampliar a engenhosidade e o potencial humano, e não ser uma coisa danosa e prejudicial ao ser humano.

6ª Entrevista – María Paz Canales, diretora executiva da Derechos Digitales

(para entrevista original em inglês, clique aqui)

E quando falamos sobre [direitos humanos e inteligência artificial], falamos de todos os tipos de direitos humanos, não apenas das liberdades civis, da geração de direitos civis e políticos, mas, cada vez mais, também do exercício dos direitos sociais, econômicos e culturais. (…) A implementação das tecnologias está sendo feita sem marcos regulatórios adequados que realmente equilibrem os interesses das diferentes partes interessadas, ou que forneçam uma estrutura adequada para obter o aspecto positivo da inteligência artificial e evitar suas consequências prejudiciais involuntárias.

***

Equipe do Projeto:

InternetLab:

Enrico Roberto – pesquisador

Francisco Brito Cruz – diretor

Mariana Valente – diretora

Alessandra Gomes – tech fellow

Jade Becari – estagiária de pesquisa

Dennys Antonialli – diretor (até out/2019)

NDIS:

André Houang

Angelo Astória

Arthur Hirai

Marina Guapindaia

Carolina Palermo

Giovanna Liotti

Giulia Cavallieri

Isabela Carvalho Régis

João Sire

João Vítor Pellegatti

Karen Mayumi

Leo Franzini

Luiz Lourenço

Carolina Barreto

Luiza Rehder

Nathalia Lessa

Priscila Resende

Thais Pelligrino

compartilhe