Em 28.03, o deputado Aureo Ribeiro (Solidariedade) apresentou o PL n° 1473/2023, com o objetivo de garantir que empresas que operam sistemas de inteligência artificial respeitem direitos autorais. Nesse sentido, o PL impõe a obrigação de instauração de ferramentas que possibilitem que autores de conteúdo restrinjam o uso de suas obras por algoritmos de inteligência artificial. Na justificativa do dispositivo, argumenta-se que, apesar da existência de alguns softwares de inteligência artificial que permitem que o usuário aponte o desrespeito aos direitos autorais, esse procedimento não seria suficiente, de forma que seria necessário treinar o algoritmo, preventivamente, para identificar automaticamente eventuais infrações. Em razão disso, o projeto de lei teria como finalidade garantir o direito, aos autores de conteúdos, de escolher que os seus materiais não sejam utilizados por modelos de inteligência artificial.
Em 03.04, foi publicado acórdão da 1ª Turma Cível do Tribunal de Justiça do Distrito Federal (TJDFT) que condenou uma mulher a indenizar um cursinho preparatório para concursos públicos por violação de direitos autorais. Conforme se depreende dos autos, a mulher teria comercializado, sem autorização, videoaulas de autoria do cursinho. A comercialização teria se dado por meio do WhatsApp, em sistema de rateio, com valor significativamente inferior ao praticado na plataforma oficial. Embora a mulher tenha alegado que não obteve vantagens pecuniárias com a disponibilização do conteúdo na internet, o TJDFT pontuou que a Lei nº 9.610/1998 (Lei de Direitos Autorais – LDA) não prevê como critério primordial para fins de violação de direito autoral a existência de proveito econômico, de modo que a simples distribuição não autorizada de conteúdo protegido implica na responsabilização cível. Desse modo, a relatora, Desa. Carmen Bittencourt, concluiu que a mulher deveria pagar indenização por danos materiais à empresa, em valor correspondente à média dos cursos comercializados e com fundamento no art. 103 da LDA – o que deverá ser apurado em liquidação de sentença.
Em 31.03, a Secretaria de Comunicação Social da Presidência da República (Secom) e o Ministério da Justiça remeteram sugestões de mudanças ao PL n° 2630/2020 ao relator do texto na Câmara dos Deputados, deputado federal Orlando Silva (PCdoB). Algumas das modificações propostas pelo governo são a inclusão da noção do dever de cuidado e da obrigação de avaliação de riscos. Em relação ao dever de cuidado, sugere-se que as plataformas de grande porte atuem para prevenir ou mitigar práticas ilícitas advindas de conteúdos de terceiros que configurem ou incitem, por exemplo, crimes contra o Estado Democrático de Direito e violência de gênero. A avaliação de riscos, por sua vez, impõe às plataformas a obrigação de realizar análises diligentes antes da introdução de funcionalidades que podem ter um impacto crítico ao exercício de direitos fundamentais, assim como a processos políticos-institucionais e eleitorais. Ainda, a proposta do Executivo alterou o artigo que garantia imunidade parlamentar no ambiente online. No lugar da garantia irrestrita, o dispositivo novo sugere que as plataformas de grande porte estão vedadas de realizar bloqueio ou exclusão de contas da administração pública, de cidadãos eleitos para cargos no Executivo e Legislativo nas esferas Federal e Estadual e de Ministros do Estado, exceto se houver decisão judicial. O artigo prevê a possibilidade de suspensão destas contas por não mais que 7 dias em caso de violação dos termos e políticas de uso das plataformas ou disseminação de discursos de ódio, conteúdos ilícitos ou com potencial de provocar danos. O Executivo propôs, também, a criação de uma entidade autônoma com o objetivo de fiscalizar o cumprimento das regras pelas plataformas, e a elaboração de um Código de Conduta de Enfrentamento à Desinformação.
Em 30.03, a Agência Nacional de Telecomunicações (Anatel) iniciou a tomada de subsídios sobre a necessidade de regulamentação sobre deveres dos usuários dos serviços de telecomunicações. De acordo com o artigo 4° da Lei Geral de Telecomunicações (LGT), o usuário de serviços de telecomunicações tem o dever de “utilizar adequadamente os serviços, equipamentos e redes de telecomunicações”. Por sua vez, o artigo 61 da mesma lei estabelece que o Serviço de Valor Adicionado (SVA) não constitui serviço de telecomunicações, classificando seu provedor como usuário de serviço de telecomunicações que lhe dá suporte, com os direitos e deveres inerentes a essa condição. Diante do cenário de digitalização de serviços e oferta de diversas aplicações por meio de plataformas digitais, classificados pela lei como SVA, a Anatel entendeu necessária a realização de uma avaliação de como tornar o relacionamento entre esses usuários e as prestadoras dos serviços de telecomunicação equilibrado. A tomada de subsídios contém, no total, 28 questões que buscam compreender o impacto dos novos modelos de negócio de plataformas digitais over-the-top (“OTT”) e agentes no ecossistema digital nas redes e serviços de telecomunicações. As contribuições poderão ser feitas pelo Participa Anatel até 30 de junho de 2023.
Em 31.03, a Autoridade Nacional de Proteção de Dados (ANPD) publicou esclarecimentos sobre a atuação do encarregado e a emissão de selos de conformidade com a Lei Geral de Proteção de Dados (LGPD). De acordo com o artigo 5°, inciso VIII, da LGPD, o encarregado é a pessoa indicada pelo controlador e operador para atuar como canal de comunicação entre o controlador, os titulares dos dados e a Autoridade Nacional de Proteção de Dados (ANPD). Ainda, segundo o §3° do artigo 41 da mesma lei, cabe exclusivamente à ANPD “estabelecer normas complementares sobre a definição e as atribuições do encarregado”. Nesse contexto, a ANPD esclareceu que ainda não estabeleceu estas normas complementares e que qualquer estabelecimento de conduta estabelecido por entidades privadas com o objetivo de nortear a atuação dos profissionais não é validado pela autoridade. A ANPD também ressaltou que não credencia nem reconhece entidades ou empresas para a emissão de selos que possam atestar a adequação à LGPD, de modo que tais instrumentos, se oferecidos por entidades privadas, não constituem garantia oficial de conformidade à legislação.
Em 31.03, a autoridade de proteção de dados da Itália ordenou que a OpenAI, desenvolvedora do ChatGPT, pare de processar dados pessoais de usuários italianos. A autoridade anunciou a abertura de uma investigação sobre as práticas da empresa e ressaltou que a OpenAI não informa os seus usuários e os titulares dos dados pessoais usados por ela sobre o tratamento de dados, e nem apresenta uma base legal para a coleção e o tratamento massivo de dados pessoais para o treinamento de suas plataformas, em potencial violação do Regulamento Geral sobre a Proteção de Dados da União Europeia (RGDP). Em seu comunicado, a autoridade também aponta para um vazamento das conversas e dos dados de pagamento de usuários do ChatGPT em 20 de março e para a ausência de políticas de verificação de idade dos usuários, de forma que o serviço pode oferecer respostas inadequadas a crianças e adolescentes. A OpenAI deverá notificar a autoridade em até 20 dias sobre as medidas adotadas para se adequar à ordem, caso contrário estará sujeita a multa de até 20 milhões de euros ou 4% de sua receita global anual. Em resposta à ordem da autoridade, a OpenAI afirmou que respeita o RGDP e outras leis de proteção de dados pessoais e que decidiu suspender as suas atividades na Itália. Em 05.04, a Open AI se reuniu com a autoridade italiana, após emitir comunicado ressaltando sua disponibilidade em colaborar para o cumprimento da legislação europeia de proteção de dados. Na ocasião, a autoridade enfatizou a importância do respeito à proteção de dados pessoais e afirmou que não tem por objetivo prejudicar o desenvolvimento de tecnologias de inteligência artificial. A empresa por sua vez reiterou que segue as legislações de proteção de dados e que está empenhada em aprimorar sua transparência a respeito do uso de dados pessoais, dos mecanismos para o exercício de direitos e da salvaguarda de crianças.
Em 04.04, o Information Commissioner’s Office, autoridade britânica de proteção de dados, anunciou ter multado o TikTok em 12.7 milhões de libras pelo tratamento inadequado de dados pessoais de crianças. Segundo a autoridade, mais de um milhão de crianças britânicas com menos de 13 anos usaram o TikTok em 2020, em desacordo com os termos de serviço da plataforma e com a legislação do Reino Unido. A lei britânica de proteção de dados estipula que o tratamento de dados pessoais de crianças com menos de 13 anos de idade só pode se dar mediante o consentimento dos pais ou responsáveis legais. O ICO decidiu que o TikTok não obteve tal consentimento e não implementou as medidas adequadas para controlar a idade e remover as contas dos usuários com menos de 13 anos. A autoridade também decidiu que o TikTok violou a legislação britânica de proteção de dados pessoais por não fornecer informações de forma adequada aos usuários sobre como os seus dados pessoais são tratados, e por não assegurar que esses dados fossem tratados de maneira “legal, justa e transparente”.
Em 04.04, o Departamento Federal de Justiça da Alemanha anunciou ter aberto um processo contra o Twitter por desrespeitar a lei de redes sociais do país, conhecida como NetzDG. O departamento afirma que há indicativos suficientemente robustos de que o Twitter teria descumprido as obrigações de remoção de conteúdo ilegal impostas pela lei. A NetzDG estabelece que redes sociais têm a obrigação de remover conteúdo denunciado como ilegal em até 7 dias, ou em até 24 horas nos casos de conteúdos evidentemente ilegais. Segundo o Departamento Federal de Justiça, há indícios de que o Twitter teria falhado sistematicamente na administração de canais de denúncia de conteúdo ilegal e falhado em remover conteúdo difamatório considerado ilegal quanto a um usuário em particular. Caso o Departamento julgue ao fim do processo que o Twitter falhou com as obrigações de remoção de conteúdo previstas na NetzDG, a rede social pode ser multada em até 50 milhões de euros.
Em 31.03, o Twitter tornou público o código fonte de algumas seções da plataforma, incluindo parte de seu algoritmo de recomendações de conteúdo. Segundo a empresa, foram excluídos os códigos relacionados a recomendações publicitárias, bem como aqueles que possam comprometer a segurança e a privacidade de usuários ou a capacidade de proteger a plataforma contra atores mal intencionados. Elon Musk, proprietário da empresa, afirmou em seu Twitter que a totalidade do código sobre recomendação de conteúdo estará disponível nas próximas semanas. Segundo Musk, o Twitter “dará acesso aberto (open-source) a literalmente tudo o que contribui para mostrar um tweet, de modo que a saída (output) possa ser, pelo menos, aproximada”. O código foi carregado em dois repositórios na plataforma de compartilhamento de código Github. Segundo a Reuters, a iniciativa atende às solicitações de Musk, que acredita que a transparência do código levará a um aumento da confiança entre os usuários e a melhorias rápidas do produto.
Em 30.03, a Meta anunciou que irá modificar a base legal para o tratamento de dados pessoais para fins de publicidade política direcionada no Facebook e no Instagram. A empresa afirmou que a base legal usada para tratar esse tipo de dados deixará de ser “necessidade contratual” e passará a ser “legítimo interesse”. A Meta ressaltou em seu comunicado que essa mudança não afetará a forma como anunciantes, empresas ou usuários usam seus produtos. A mudança ocorre meses depois de a Meta ter sido multada pela Comissão de Proteção de Dados da Irlanda por tratar dados para fins de anúncios políticos de forma inadequada a partir da base legal da necessidade contratual. Na ocasião, a autoridade multou a Meta em 390 milhões de euros por violação do Regulamento Geral sobre a Proteção de Dados da União Europeia e ordenou que a empresa alterasse as bases legais usadas para o tratamento de dados pessoais em até 3 meses.
O Instituto de Referência em Internet e Sociedade (IRIS) e o Instituto de Pesquisa em Direito e Tecnologia de Recife (IP.rec) lançaram a cartilha “Por mais #MulheresNaGovernança”, uma iniciativa que apresenta mais de 100 mulheres que movimentam o debate na área de internet, sociedade e tecnologia. A publicação busca criar conexões entre meninas e mulheres para fomentar a participação feminina em espaços de tomada de decisão sobre o uso e desenvolvimento da internet, abordando a interseccionalidade e a desigualdade de gênero. A cartilha tem como propósito a inclusão com fomento à diversidade racial, regional e a representatividade LGBTQIAP+. O documento está disponível gratuitamente e pode ser acessado online.
Em 28.03, uma carta aberta foi publicada pedindo uma pausa de seis meses no desenvolvimento de sistemas de inteligência artificial (IA) "mais poderosos" do que o GPT-4. Na publicação original, a carta contava com mais de 1.100 signatários, incluindo Elon Musk e engenheiros de empresas como Amazon, DeepMind, Google, Meta e Microsoft. A versão atual da carta foi publicada pelo Future of Life Institute (associação que já recebeu financiamento de Elon Musk) e conta com mais de 10 mil assinaturas. Segundo a carta, os sistemas de IA com "inteligência competitiva à humana" em tarefas de inteligência geral (que requerem a capacidade de aprender a realizar tarefas cognitivas variadas tal qual um ser humano) representam riscos profundos para a humanidade. A carta também sugeria que a pausa é necessária para que a comunidade de desenvolvedores e especialistas desenvolvam procedimentos de segurança. Caso o setor privado seja incapaz de controlar o desenvolvimento de novos modelos, segundo a carta, os governos nacionais deveriam intervir para criar um período de moratória. No entanto, a publicação gerou controvérsias quando os pesquisadores nela citados, segundo o The Guardian, expressaram preocupações sobre o uso de seus trabalhos para tal propósito e criticaram o conteúdo da carta, especialmente por dar pouca atenção às preocupações mais imediatas com a IA, como o aprofundamento de discriminações por raça/etnia ou gênero. Além disso, alguns dos signatários iniciais afirmaram não terem assinado a carta.
Em 30.03, o Comitê Gestor da Internet (CGI) anunciou a realização de uma consulta pública sobre regulação de plataformas digitais. O lançamento oficial da iniciativa ocorrerá no dia 25.04, durante seminário promovido pelo próprio CGI, em Brasília, que apresentará perspectivas do Legislativo, Executivo e Judiciário sobre o tema, por meio de debates envolvendo diferentes setores da sociedade. O objetivo da consulta pública é identificar medidas regulatórias capazes de mitigar riscos e prevenir eventuais ameaças decorrentes das atividades destas empresas no país. O evento de lançamento está com inscrições abertas e gratuitas e poderá ser acompanhado online, por meio do canal do youtube do Núcleo de Informação e Coordenação (NIC).