%week% %tema%

%title%

%content%

05.05.2023
Legislativo

[Regulação das Plataformas] Presidente da Câmara dos Deputados, Arthur Lira, determina adiamento da votação do PL n. 2630

Em 02.05, o Presidente da Câmara dos Deputados, Arthur Lira (PP/AL), adiou a votação do Projeto de Lei 2.630/2020. O projeto, que pretende instituir a Lei de Liberdade, Responsabilidade e Transparência na Internet, teve regime de urgência aprovado no dia 25.04, e a votação estava prevista para terça-feira, 02.05. A decisão de adiamento se deu após solicitação do relator da proposta na Câmara, o deputado Orlando Silva (PCdoB/SP), que pediu mais tempo para ajustar o texto após reunir-se com líderes partidários. Segundo o relator, não houve tempo para “examinar todas as questões”. Concordaram com o adiamento da votação os partidos PP, Republicanos, PT, PDT, Psol, PCdoB e Patriota, e foram contrários o PL e o Partido Novo. Arthur Lira não definiu nova data para a votação.

[Inteligência Artificial] Presidente do Senado, Rodrigo Pacheco, propõe lei sobre inteligência artificial

Em 03.05, o Presidente do Senado Rodrigo Pacheco (PSD/MG) propôs o Projeto de Lei 2.338/2023, que dispõe sobre o uso da inteligência artificial (IA) no Brasil. Em sua justificativa, o Senador destaca as mudanças que a inteligência artificial provocará em termos econômicos e sociais e elenca o relatório elaborado pela Comissão de Juristas instituída pelo Senado para debruçar-se sobre o tema no Brasil. Ainda, o Senador argumenta que o projeto possui duplo objetivo: estabelecer direitos às pessoas que utilizam os sistemas de inteligência artificial, bem como que tenhamos ferramentas de governança e arranjo institucional de fiscalização e supervisão. O texto proposto traz 45 artigos que se dividem em: (i) fundamentos e princípios gerais da utilização; (ii) proteção de direitos das pessoas afetadas por sistemas de IA; (iii) categorização de riscos; (iv) governança; (v) responsabilidade civil; (vi) códigos de boas práticas e governança; (vii) comunicação de incidentes graves; e (viii) supervisão e fiscalização.

Judiciário

[Remoção de Conteúdo] Alexandre de Moraes determina remoção de conteúdos com ataques ao Projeto de Lei n. 2630

Em 02,05,  o Ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), determinou que as empresas Google, Meta, Spotify e Brasil Paralelo removam conteúdos que veiculem ataques ou promovam desinformação sobre o  PL 2630/20. Em detalhes, a decisão instituiu diversas ações de parte das empresas, como a remoção integral, no prazo de uma hora, de “todos os anúncios, textos e informações veiculados, propagados e impulsionados a partir do blog oficial da Google com ataques ao PL 2630, inclusive aqueles que se referem como “PL da censura”, “como o PL 2630 pode piorar sua internet”, “o PL 2630 pode impactar a internet que você conhece”, sob pena de multa de R$150.000 por hora de descumprimento, por peça de anúncio. Além disso, Moraes determinou que as empresas apontem, em 48 horas, os métodos e algoritmos de impulsionamento e induzimento à busca sobre “PL da Censura”, e deu prazo de 5 dias para a Polícia Federal recolher depoimentos dos presidentes das empresas. Nos fundamentos da decisão, o Ministro afirmou que as empresas utilizaram mecanismos imorais e ilegais que podem constituir abuso de poder econômico, gerar desinformação e fomentar práticas de "milícias digitais nas redes sociais".

Executivo

[Senacon] Secretaria Nacional do Consumidor determina que Google sinalize como propaganda seu texto contra o PL n. 2630

Em 02.05, a Secretaria Nacional do Consumidor (Senacon), do Ministério da Justiça e Segurança Pública, proveu medida cautelar para que o Google sinalizasse como propaganda link fixado em sua página inicial de busca no dia 01.05, com o texto “O PL das fake news pode aumentar a confusão sobre o que é verdade ou mentira no Brasil”. O artigo argumentava que o PL acabaria protegendo quem produz desinformação, além de disponibilizar link para pressionar parlamentares por meio do site da Câmara dos Deputados. No despacho, a Senacon argumentou que, embora as empresas tenham direito de manifestar-se sobre leis que afetem seus interesses, “tal direito dos agentes privados enfrenta limitações especialmente quando geram como efeito secundário a acentuação da vulnerabilidade informacional do consumidor, que não está ciente do método empregado pela fornecedora de produtos e serviços”. A decisão ainda indica o alcance da plataforma, que tem mais de 3,5 bilhões de acessos por mês e está presente em 98% dos smartphones. Cita também as denúncias de usuários sobre eventual manipulação da indexação de resultados, privilegiando notícias contrárias ao PL 2.630/2020. Entende, assim, que a atitude da empresa pode ser considerada fraude mediante abuso do poder econômico. O despacho determinou que a empresa sinalize que o artigo é conteúdo publicitário e informe se houve qualquer tipo de interferência no sistema de indexação de buscas sobre o PL. A Senacon determinou que tudo fosse cumprido em até duas horas, sob pena de multa no valor de R$ 1 milhão de reais, e instaurou processo administrativo em face do Google. Em 02.05, a empresa removeu o link de sua página inicial. Ainda, segundo a Folha de São Paulo, o Conselho Administrativo de Defesa Econômica (CADE) teria aberto, em 02.05, procedimento preparatório de inquérito administrativo contra Google e Meta por abuso do poder econômico nas discussões acerca do PL 2.630/20.

[MPF] Ministério Público exige esclarecimentos sobre ofensivas contra o PL n. 2630

Em 01.05, o Procurador Yuri Luz, do Ministério Público Federal (MPF) de São Paulo, determinou que Google e Meta prestassem informações acerca de supostas ofensivas contra a votação do Projeto de Lei 2.630/2020. O Inquérito Civil Público aberto busca investigar atitudes de direcionamento de resultados de buscas no Google para links críticos ao projeto de lei e, principalmente, para o link de artigo com o posicionamento da plataforma acerca do tema. Além disso, o inquérito busca averiguar se a Meta teria veiculado anúncios - com alcance impulsionado - contrários ao PL 2.630, sem identificar que se tratavam de propagandas. O Procurador Yuri Luz identificou que, se confirmadas, as condutas estariam fora do âmbito de práticas que as empresas poderiam adotar nas discussões sobre projetos de lei. Além disso, violariam princípios constitucionais, como o Marco Civil da Internet (Lei 12.965/14) e o Código de Defesa do Consumidor. O Procurador pediu esclarecimentos às plataformas e determinou que, no prazo máximo de 10 dias, o Google preste informações sobre quais os critérios que nortearam os resultados de busca no período de 20.05 até 02.05.2023 envolvendo o Pl 2.630, e informe as razões da publicação de “alerta urgente” enviado aos criadores de conteúdo no YouTube.

Conjuntura internacional

[UE] Corte de Justiça da União Europeia decide que mera violação do GDPR não resulta em direito à indenização

Em 04.05, a CJEU (Corte de Justiça da União Europeia) decidiu que empresas não serão sujeitas a pagamento de indenizações pela mera violação dos termos da lei . A decisão da CJEU, que versou sobre o artigo 82 do GDPR, tem efeito vinculativo para problemas idênticos e será aplicável a todas as hipóteses de responsabilização civil por violação das leis de proteção de dados na Europa. No caso julgado, um órgão público austríaco relacionado aos correios havia se utilizado de um algoritmo para coletar informações sobre as afinidades políticas dos usuários de seus serviços. Muito embora os dados não tenham, comprovadamente, sido divulgados a terceiros ou utilizados com finalidades discriminatórias ou prejudiciais, um titular de dados processou o órgão público por danos morais no valor de mil euros. Na decisão publicada, a CJEU determinou que: (i) o direito à indenização do GDPR é sujeito a 3 condições cumulativas (a violação da lei, danos morais ou materiais resultando da violação, e o nexo causal entre ambos), sendo que nem toda violação dará ensejo a um dano indenizável; (ii) que o GDPR não estabelece nenhum tipo de “violação mínima” ou limiar preciso para o que configura efetivo dano moral, sendo que a questão deverá ser judicialmente avaliada pela corte responsável pelos casos concretos; e (iii) que o GDPR não possui regras para comprovação de prejuízos ou aferição dos danos, sendo que cada Estado-Membro da UE deverá cumprir a lei conforme seus procedimentos internos e estabelecidos na legislação nacional. A decisão foi no mesmo sentido de um recente entendimento do Superior Tribunal de Justiça brasileiro, em que os ministros decidiram que a comprovação de prejuízo seria necessária para ensejar indenização por vazamento de dados pessoais

[UE] Comissão Europeia aprova minuta de Lei de Inteligência Artificial para próxima fase de tramitação

Em 27.04, a Comissão Europeia aprovou minuta do Artificial Inteligence Act (AI Act, ou Lei de Inteligência Artificial), levando o projeto para a próxima fase de tramitação. A proposta começou a ser redigida pela Comissão Europeia há cerca de dois anos e busca regular tecnologias emergentes de Inteligência Artificial. A discussão da Comissão abordou temas tais como (i) a possibilidade de banimento das ferramentas de IA para monitoramento de comunicações pessoais; (ii) o uso de software de identificação biométrica; (iii) disseminação de desinformação via ferramentas de IA; e (iv) o uso de software de reconhecimento de emoções, entre outros. A minuta seguirá para discussão conjunta do Parlamento Europeu, da Comissão Europeia e do Conselho Europeu na próxima fase de tramitação, conhecida como trílogo. Segundo a redação atual da proposta, as empresas que utilizam ferramentas de IA generativa, como o ChatGPT, terão que divulgar especificamente qualquer material com direitos autorais utilizado no desenvolvimento de seus sistemas. Outro dispositivo incluído na proposta determina que ferramentas de IA serão classificadas de acordo com o nível de risco percebido, indo de “mínimo” a “limitado”, “alto” e “inaceitável”. As ferramentas de nível de risco “alto”, embora não sejam banidas, terão exigências crescentemente rigorosas em termos de transparência aos usuários.

[Canadá] Governo canadense aprova lei que exige mais conteúdo nacional de plataformas de streaming

Em 27.04, o Canadá aprovou o Online Streaming Act, legislação que regula o streaming no país. Anteriormente conhecida como Projeto de Lei C-11, a lei foi proposta em 2020. A legislação estabelece que serviços de streaming online, como Netflix e Spotify, devem pagar para apoiar o conteúdo de mídia canadense, como músicas e programas de TV e oferecer mais conteúdo nacional, além de colocar os serviços de streaming sob a jurisdição do órgão regulador de radiodifusão (Canadian Radio-television and Telecommunications Commission, ou CRTC) - tal como os canais de TV e rádio. Segundo o governo, a lei irá garantir que os serviços de streaming promovam a música e a história canadense, além de incentivar a criação de empregos no país. Porém, alguns especialistas têm criticado o projeto por, alegadamente, impor uma espécie de censura no país, dado que permite ao governo decidir o tipo de entretenimento que estará disponível aos seus residentes. Ainda, o governo sustenta que as regulamentações não abrangem o conteúdo gerado por usuários comuns e por criadores de conteúdo independentes, como podcasts e vídeos, mas há insegurança entre usuários e plataformas como o TikTok. Agora, com a aprovação do Senado, a legislação só precisa da sanção real do governador-geral para se tornar lei.

[EUA] Estado de Washington promulga lei para proteção de dados de saúde

Em 27.05, o governador do estado de Washington, nos EUA, promulgou a lei “My Health, My Data” (“Minha Saúde, Meus Dados”), que essencialmente exige, como bases legais, a necessidade ou o consentimento do titular para o tratamento de dados pessoais de saúde. A lei condiciona a venda desses dados pessoais ao consentimento escrito e assinado do titular. Em seu anúncio de promulgação da lei, o governador afirmou que ela faz parte de um conjunto de legislações que são uma resposta à decisão da Suprema Corte dos EUA que derrubou o direito ao aborto. O conjunto de cinco legislações, no qual a lei de proteção de dados pessoais de saúde está inclusa, visa também proteger pessoas que buscam interromper a gravidez e profissionais médicos que realizam esses procedimentos.

Setor privado

[Wikimedia] Fundação afirma que não irá controlar idade de usuários no Reino Unido

Em 28.04, a Fundação Wikimedia, fundação encarregada da Wikipédia, afirmou que não iria realizar o controle de idade exigido pela Online Safety Bill, projeto de lei de segurança online do Reino Unido. O projeto prevê que serviços suscetíveis de serem acessados por crianças devem dispor de sistemas proporcionais para evitar que elas tenham acesso a conteúdos nocivos, o que pode incluir mecanismos de verificação de idade. Segundo a Wikimedia, conteúdos como textos e imagens educacionais sobre sexualidade podem ser interpretados como pornografia, tornando potencialmente obrigatório a implementação desses mecanismos pela lei. Rebecca MacKinnon, vice-presidente global de advocacy da Wikimedia, afirma que o cumprimento da lei “violaria o nosso compromisso de coletar o mínimo de dados sobre os leitores e colaboradores”. No entanto, o Ministro Lord Parkinson disse que o projeto de lei não estabelece que todos os serviços precisavam ter verificações de idade, mas sim apenas os serviços que representem o maior risco para as crianças. A Fundação, por sua vez, deseja que a lei siga o que foi feito na Digital Services Act da UE, que diferencia entre a moderação centralizada de conteúdo realizada por funcionários e o modelo da Wikipédia, realizado por voluntários da comunidade. O projeto da Online Safety Bill já havia originado reação negativa de aplicativos de mensageria, que publicaram carta aberta contra a lei britânica.

[OpenAI] ChatGPT volta a funcionar na Itália

Em 28.04, a OpenAI restaurou o acesso ao serviço ChatGPT na Itália após ajustes para cumprir regulação nacional, conforme demandas da Autoridade de Proteção de Dados italiana (Garante). A empresa tinha sido acusada pela autoridade de coletar dados de usuários de forma ilegal e também de permitir que menores acessem conteúdos inapropriados. A Garante havia dado à OpenAI 20 dias para solucionar os problemas, e o serviço voltou a funcionar no país após a empresa "abordar ou esclarecer" as questões levantadas, conforme dito em pronunciamento. As mudanças incluem um novo formulário para titulares de dados da UE, para garantir que possam remover seus dados pessoais, conforme a Regulação Geral de Proteção de Dados da Europa (GDPR). Além disso, a OpenAI incluiu uma nova ferramenta para verificar a idade dos usuários na Itália.

Publicações

[Internetlab] Lançamento do relatório de pesquisa MonitorA sobre violência de gênero nas eleições brasileiras

Em 27.04, ocorreu o lançamento da segunda edição do MonitorA, observatório de violência política e eleitoral contra candidatas(os) nas redes, fruto da colaboração entre o InternetLab, a Revista AzMina e o Núcleo Jornalismo. O evento reuniu pesquisadores(as), magistrados(as), escritórios de advocacia, jornalistas e comunicadores(as), bem como organizações da sociedade civil e do setor privado. Foram realizados três painéis de discussão sobre moderação de conteúdo nas plataformas digitais e violência de gênero. O relatório lançado apresenta dados sobre violência política de gênero nas redes e é resultado de uma pesquisa realizada ao longo das eleições de 2022, podendo ser acessado pela página web do projeto. Alguns destaques da nova edição do projeto são: (i) mudanças metodológicas, como a diferenciação entre “insultos” e “ataques” no debate sobre moderação de conteúdo; e (ii) as tendências em relação aos insultos e ataques feitos contra mulheres na política, sendo que as alusões a loucura, histeria ou doenças mentais foram encontradas como a principal forma dos usuários do Twitter de se dirigir às candidatas ao Executivo e do Legislativo brasileiros em 2022.

[Anistia Internacional] Relatório aponta para uso discriminatório de reconhecimento facial na Palestina

Em 02.05, a Anistia Internacional publicou o relatório “Apartheid Automatizado: como o reconhecimento facial fragmenta, segrega e controla os palestinos nos territórios ocupados da Palestina”. No documento, a organização afirma que as tecnologias são usadas por autoridades israelenses especialmente em postos de controle para “consolidar as práticas existentes de policiamento discriminatório, segregação e restrição da liberdade de movimento, violando os direitos básicos dos palestinos”. O relatório examina as tecnologias de reconhecimento facial enquanto uma ferramenta parte de um sistema mais amplo de restrições arbitrárias à livre movimentação de palestinos, que afetam o acesso à saúde, ao emprego e à educação. A Anistia Internacional ressalta que os sistemas de reconhecimento facial coletam dados biométricos exclusivamente de palestinos, sem o seu conhecimento ou consentimento, e recomenda que Israel encerre essas práticas de reconhecimento facial e que outros Estados, atores regionais e empresas tomem medidas para impedir que Israel adquira essas tecnologias.

[Coalizão Direitos na Rede] Notas defendendo aprovação do PL 2.630/2020 são publicadas

Em 28.04 e 01.05 a Coalizão Direitos na Rede (CDR) publicou três notas defendendo a aprovação do projeto de lei 2630/2020, também conhecido como “PL das Fake News”, e comentando elementos específicos da proposta. A primeira nota, de 28.04, defende a criação de um novo órgão independente de supervisão das plataformas é necessário, e critica a possibilidade de a Agência Nacional de Telecomunicações (Anatel) assumir esse papel. Segundo a nota, a Anatel não possui atribuição legal para regular aplicações de internet, possui desempenho insatisfatório no setor em que atua e é pouco receptiva à sociedade civil. A segunda nota, do mesmo dia, afirma que o PL 2.630/2020 representa uma “oportunidade chave para avançar em direção a um ambiente digital que proteja os cidadãos e assegure direitos” e defende a sua aprovação. A CDR defende as obrigações de transparência e de devido processo do projeto, elogia as alterações feitas ao texto quanto ao dever de cuidado das plataformas e critica as alterações feitas para incluir dispositivos sobre imunidade parlamentar e sobre a defesa de dogmas religiosos. A CDR defende ainda a criação de novos modelos regulatórios e instâncias competentes, com a criação de uma entidade autônoma de supervisão independente, o ajuste da seção de sanções e o aprimoramento do dispositivo sobre remuneração do jornalismo por plataformas. Por fim, em 01.05 a CDR publicou o documento “10 perguntas e respostas que você precisa saber sobre o PL 2630”, em que apresenta as motivações do projeto, explica seus principais dispositivos, e ressalta que legislações similares já foram aprovadas em outras legislações.

[ANPD] Autoridade publica análise preliminar do PL 2630/2020

Em 27.04, a Autoridade Nacional de Proteção de Dados (ANPD) publicou o estudo “Análise Preliminar do Projeto de Lei nº 2630/20, que institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet”. No estudo, a ANPD destaca sua preocupação com um potencial conflito de competência caso uma entidade supervisora autônoma seja encarregada de aplicar os dispositivos do projeto de lei, já que esse trata de proteção de dados, tema de alçada da ANPD. Nesse cenário, a ANPD recomenda que o projeto de lei ou sua futura regulamentação “preserve de forma expressa as competências da Autoridade [ANPD] no que tange à regulamentação, fiscalização e aplicação de sanções a plataformas digitais quanto à proteção de dados pessoais e ao direito à privacidade”. O estudo também critica a redação do PL quanto à coleta de dados pessoais para fins de investigação criminal, afirmando que ele usa expressões vagas e imprecisas, colocando em risco titulares de dados pessoais.

Agenda

[ANPD] Aberta consulta pública sobre comunicação de incidente de segurança

Em 02.05, a Autoridade Nacional de Proteção de Dados (ANPD) iniciou uma consulta pública sobre a norma acerca da comunicação de incidente de segurança com dados pessoais. A consulta busca receber contribuições a respeito da minuta elaborada pela ANPD para regulamentar a comunicação por parte do controlador de dados pessoais sobre a ocorrência de incidentes de segurança que possam acarretar risco ou dano relevante aos titulares de dados, nos termos do art. 48 da Lei Geral de Proteção de Dados. A minuta apresentada prevê critérios para a definição de incidentes de segurança, dispõe sobre a forma como a comunicação de incidente deve ser realizada, estabelece regras para a manutenção de registros de incidentes de segurança e prevê a forma de apuração de incidentes de segurança pela ANPD. Contribuições à consulta pública podem ser enviadas até 31.05, pela plataforma “Participa Mais Brasil”.