Inteligência artificial: InternetLab lança especial com entrevistas
Cada vez mais, entidades públicas e privadas apostam no desenvolvimento de algoritmos de inteligência artificial, capazes de realizar inferências, identificar padrões e tomar decisões automatizadas “inteligentes”. Os reflexos da utilização da IA na sociedade deixaram de ser utopias ou distopias, podendo ser concretamente identificados na realidade e se imbricando em uma série de processos e situações sociais concretas.
Neste especial sobre inteligência artificial, o InternetLab publicará uma série de entrevistas sobre inteligência artificial, algoritmos e plataformas de internet, feitas pelo Núcleo de Direito, Internet e Sociedade (NDIS) da Faculdade de Direito da USP (FDUSP).
Conduzido por meio de uma parceria com o InternetLab, o NDIS é uma atividade de cultura e extensão da FDUSP oferecida desde 2015. Sua intenção é promover reflexões sobre os desafios impostos ao direito pelos avanços da tecnologia, sobretudo no campo da internet. As atividades de pesquisa do NDIS privilegiam o estudo de políticas públicas e regulação, aproximando as áreas de direitos fundamentais e sociologia jurídica. Os temas abordados variam: em semestres anteriores, o NDIS ofereceu módulos sobre privacidade, liberdade de expressão, deep web, direito e Internet no cinema, a obra “Code v.2.0” de Lawrence Lessig, revenge porn e violência de gênero na Internet e, ainda, discussões sobre o seriado Black Mirror e vivências LGBTQIA+ no ambiente digital. Além disso, o NDIS também realiza eventos na FDUSP e participa de audiências e consultas públicas.
Além das entrevistas, compilamos aqui nossos principais projetos que trataram de inteligência artificial:
- Drag queens e Inteligência Artificial
- Contribuição para a Estratégia Nacional de Inteligência Artificial – Consulta Pública
- Série de entrevistas do NDIS-USP
- Reconhecimento facial e setor privado
Drag queens e inteligência artificial: computadores devem decidir o que é ‘tóxico’ na internet?
Plataformas de internet como Facebook, Twitter e YouTube sofrem pressão de maneira constante para atuar de maneira mais firme na moderação dos conteúdos que circulam nas redes sociais. Em razão do grande volume de conteúdos postados por usuários, essas empresas começaram a desenvolver inteligência artificial para automatizar processos decisórios envolvendo remoção de conteúdo. Algumas dessas ferramentas, desenvolvidas para avaliar o nível de “toxicidade” de conteúdos textuais, fazem uso de processamento natural de linguagem e análise de sentimentos para detectar discurso de ódio e conteúdo de caráter danoso.
Essa pesquisa, desenvolvida por Alessandra Gomes, Dennys Antonialli e Thiago Dias Oliva, testou o Perspective, uma tecnologia desenvolvida pela Jigsaw (do grupo Alphabet) que mede o nível de toxicidade de conteúdo de texto. O InternetLab utilizou a ferramenta para medir os níveis de toxicidade de tweets postados por drag queens conhecidas nos Estados Unidos e comparar os resultados com aqueles obtidos com a análise de tweets de outros usuários famosos da plataforma, especialmente figuras da extrema direita.
Os resultados indicaram que um número significativo de perfis das drag queens no Twitter foram considerados mais tóxicos que o perfil de Donald Trump e de supremacistas brancos. Veja a pesquisa “Drag queens e Inteligência Artificial: computadores devem decidir o que é ‘tóxico’ na internet?” completa para maiores detalhes.
Estratégia nacional de inteligência artificial – consulta pública
O InternetLab apresentou contribuições para a consulta pública da Estratégia Nacional de Inteligência Artificial, realizada pelo Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC), encerrada no dia 2 de março de 2020. A consulta tinha por objetivo “colher subsídios para a construção de uma Estratégia Nacional de Inteligência Artificial que permita potencializar os benefícios da IA para o país, mitigando eventuais impactos negativos”.
Em nossas contribuições, buscamos ressaltar a natureza intrincada do fenômeno do viés ou discriminação algorítmica, apresentar maneiras concretas de mitigar riscos e permitir o exercício de controle público, transparência e accountability em decisões tomadas ou informadas por sistemas de inteligência artificial — em especial quando envolverem o exercício ou acesso a um direito ou liberdade fundamentais —, apontar importantes questões referentes a técnicas de mineração de dados e acesso ao conhecimento, dentre outros.
Em especial, por meio das nossas sugestões, buscamos assentar objetivamente o respeito aos direitos humanos e às garantias processuais brasileiras no contexto do uso de sistemas autônomos. Confira o documento na íntegra com as contribuições do InternetLab para a Estratégia Nacional de Inteligência Artificial.
Reconhecimento facial e setor privado: guia para a adoção de boas práticas
Com o avanço do uso de tecnologias de reconhecimento facial tanto pelo setor público quanto pelo setor privado, surgem diversos problemas. A coleta e o processamento dos dados pessoais necessários para seu funcionamento, atividades que antes exigiam recursos computacionais e financeiros significativos, vêm se tornando gradativamente mais baratas, rápidas – e arriscadas. O mau uso da tecnologia pode resultar em práticas abusivas, discriminação, invasão de privacidade e violação de direitos à proteção de dados.
O relatório, produzido pelo InternetLab e o Instituto Brasileiro de Defesa do Consumidor (Idec), oferece um panorama das principais questões ligadas aos riscos, conceitos legais e boas práticas para uso comercial do reconhecimento facial no Brasil. Ele pretende contribuir com o debate sobre os riscos e os impactos decorrentes da adoção do reconhecimento facial, não só no âmbito governamental, mas também em suas aplicações comerciais – além do debate sobre como o setor privado pode lidar com tais riscos.
O trabalho defende que a adoção de boas práticas na utilização de tecnologias de reconhecimento facial, além de um sinal de boa-fé, é uma necessidade ética e legal para as empresas que pretendem promover a inovação de forma responsável. Veja o relatório “Reconhecimento facial e setor privado: guia para a adoção de boas práticas” na íntegra para mais detalhes.
Entrevistas do NDIS-USP
Os alunos integrantes do NDIS-USP discutiram, ao longo do segundo semestre de 2019, questões ligadas aos usos feitos da IA, suas implicações para a sociedade e as crescentes propostas de regulamentação, temas como enviesamento algorítmico, seu uso para moderação de conteúdo em redes sociais, como combate ao discurso de ódio e proteção de direitos autorais, vigilância preditiva, entre outros.
Como trabalho de encerramento do semestre, grupos de alunos conduziram entrevistas com diferentes referências para o debate sobre inteligência artificial, que serão publicadas durante as próximas três semanas.
A gente já tinha certas dinâmicas onde quem tinha mais poderio econômico era favorecido pelo sistema democrático. (…) Esse ecossistema, que beneficiava uma rede, foi ampliado e acabou caindo “nas graças” de outras redes de acordo com uma dinâmica antiga. Eu acho que o nosso sistema democrático ganhou escala, embora não tenha se ampliado da maneira que a gente gostaria.
2ª Entrevista – Andriei Gutierrez, gerente de relações governamentais e assuntos regulatórios na IBM
Como setor privado, nós temos que começar a discutir (…) a responsabilidade de algoritmo, que passa por definir um padrão ético para adoção, pela preocupação de como os algoritmos vão ser desenvolvidos, usados e vão voltar a ser reproduzidos na sociedade. (…) Nós temos que nos reeducar à luz dessa nova era. (…) Vai ser um processo de educação, de formação política: vamos ter que rediscutir valores, privacidade; questionar para quem estamos dando os dados.
3ª Entrevista – Carla Vieira, pesquisadora de IA e co-fundadora do perifaCode
A própria matemática não é completa e é importante ter isso em mente quando a gente constrói tecnologia (…) Isso tem muito a ver com os casos de discriminação que a gente tem visto, justamente por essa crença de que a tecnologia e a IA são coisas neutras… “São neutras, elas só propagam vieses do mundo, não há nada que a gente possa fazer” – só que não é bem assim, tem várias coisas que a gente pode fazer.
A administração pública precisa ser transparente com relação não só aos dados, mas como ela os usa. Não basta colocar portais de dados abertos, ela precisa abrir os códigos do que está fazendo e ter espaço para que a sociedade venha trabalhar junto. […] É preciso, então, fazer todo um trabalho de ponderação e aí sim usar dados oficiais para fazer correções de modelo e isso, de novo, tem que ser transparente e com a sociedade criticando, para que a gente consiga ao final, ainda nessa fase de transição, ter modelos que sejam minimamente representativos, transparentes e que melhorem a prestação da administração pública, sem os vieses que os dados ainda têm e que vão ter por um bom tempo.
5ª Entrevista – Ronan Damasco, National Technology Officer da Microsoft Brasil
O uso responsável e ético, principalmente da inteligência artificial, deve se dar através da regulação interna. E, externamente, os países têm de se preocupar com sua legislação, para que a tecnologia seja utilizada para benefício do cidadão, e não contrário a ele; para que ela possa ser usada, como a Microsoft prega, para ampliar a engenhosidade e o potencial humano, e não ser uma coisa danosa e prejudicial ao ser humano.
6ª Entrevista – María Paz Canales, diretora executiva da Derechos Digitales
(para entrevista original em inglês, clique aqui)
E quando falamos sobre [direitos humanos e inteligência artificial], falamos de todos os tipos de direitos humanos, não apenas das liberdades civis, da geração de direitos civis e políticos, mas, cada vez mais, também do exercício dos direitos sociais, econômicos e culturais. (…) A implementação das tecnologias está sendo feita sem marcos regulatórios adequados que realmente equilibrem os interesses das diferentes partes interessadas, ou que forneçam uma estrutura adequada para obter o aspecto positivo da inteligência artificial e evitar suas consequências prejudiciais involuntárias.
***
Equipe do Projeto:
InternetLab:
Enrico Roberto – pesquisador
Francisco Brito Cruz – diretor
Mariana Valente – diretora
Alessandra Gomes – tech fellow
Jade Becari – estagiária de pesquisa
Dennys Antonialli – diretor (até out/2019)
NDIS:
André Houang
Angelo Astória
Arthur Hirai
Marina Guapindaia
Carolina Palermo
Giovanna Liotti
Giulia Cavallieri
Isabela Carvalho Régis
João Sire
João Vítor Pellegatti
Karen Mayumi
Leo Franzini
Luiz Lourenço
Carolina Barreto
Luiza Rehder
Nathalia Lessa
Priscila Resende
Thais Pelligrino