%week% %tema%

%title%

%content%

07.02.2025
Legislativo

[LGPD] Projeto de Lei propõe garantia de exclusão de dados pessoais de adolescentes de plataformas após se tornarem adultos

Em 04.02, a Deputada Federal Luiza Canziani (PSD/PR) apresentou o projeto de lei n° 201/2025 que propõe alterar a Lei n° 13.709/18 para permitir que, ao completar dezoito anos, os jovens possam solicitar o encerramento do tratamento de dados e a exclusão parcial ou total de seus dados pessoais de aplicativos e serviços digitais utilizados na infância e adolescência. O projeto prevê incluir um mecanismo que permita aos jovens revisar seus dados pessoais concedidos ou publicados em  plataformas digitais, optando ou não por manterem essas informações compartilhadas. O projeto também prevê, ao provedor de aplicativos e plataformas a “obrigatoriedade de oferecer ferramenta gratuita para efetuar a seleção de dados por parte do usuário”, evitando a necessidade de exclusão da conta em determinado serviço digital para que haja o gerenciamento de dados pessoais.

Judiciário

[Crianças e adolescentes] STJ nega recurso a Meta em caso de divulgação não consentida de imagens íntimas

Em 04.02, a 3ª Turma do Superior Tribunal de Justiça (STJ) negou recurso da  Meta contra decisão do Tribunal de Justiça do Estado do Rio de Janeiro (TJRJ). A decisão em primeira instância havia condenado a empresa a pagar uma indenização por danos morais por inércia em um caso de  divulgação não consentida de imagens íntimas de uma usuária com menos de dezoito anos. A condenação se dará de forma solidária, ou seja, em conjunto com o usuário responsável por divulgar as imagens íntimas sem consentimento da vítima no WhatsApp. Em defesa, a empresa alegou a impossibilidade de remover o conteúdo em circulação devido à tecnologia de criptografia do provedor tornar a determinação do tribunal uma “obrigação impossível”. No entanto, os ministros entenderam que houve inércia da plataforma mesmo após notificação judicial. A relatora do caso, ministra Nancy Andrighi, destacou que o provedor deve responder solidariamente quando não adotar medidas para mitigar os danos às vítimas. Ela também contestou a alegação de impossibilidade de remoção, ressaltando que a empresa possui mecanismos para adotar medidas alternativas, como o banimento de usuários, mas optou por não agir.

[Desinformação] TRE/SP determina cassação do mandato de Carla Zambelli por divulgação de informações falsas

Em 30.01, o Tribunal Regional Eleitoral de São Paulo (TRE-SP) decidiu cassar o diploma de deputada federal de Carla Zambelli (PL/SP) e torná-la inelegível por oito anos a partir de 2022. A ação apontou o uso indevido dos meios de comunicação e abuso de poder político, com a divulgação de informações falsas sobre as eleições, após análise de postagens da deputada durante o pleito de 2022. O julgamento teve início em dezembro de 2023, com o relator José Antonio Encinas Manfré votando pela cassação. A maioria dos magistrados acompanhou seu entendimento, enquanto a juíza Maria Cláudia Bedotti divergiu, alegando falta de provas sobre o impacto das publicações na lisura do pleito. O voto vencedor destacou que Zambelli disseminou ataques contra ministros do STF e, também, desinformação, incluindo alegações falsas sobre fraudes em urnas eletrônicas, e que tais condutas comprometeram a isonomia do processo eleitoral. A decisão ainda pode ser contestada no TSE.

Executivo

[Proteção de Dados] ANPD emite medida preventiva em caso de pagamentos para coleta de dados biométricos

No dia 24.01, a Autoridade Nacional de Proteção de Dados (ANPD) emitiu uma medida preventiva para suspender a prática de coleta de íris em troca de criptomoedas em um projeto realizado pela empresa americana Tools for Humanity (TFH), em São Paulo. O projeto que alegava coletar informações biométricas da íris, rosto e olhos dos usuários com o objetivo de criar um sistema de verificação de identidade humana único, chamado World ID, a ser utilizado como "prova de humanidade" e distinguir pessoas reais de inteligência artificial, foi suspenso em medida preventiva realizada pela Coordenação Geral de Fiscalização da ANPD. De acordo com o órgão, a prática de oferecer pagamentos em troca dos registros de dados pode “gerar riscos e interfere indiretamente na decisão do usuário, em especial para pessoas em situação de vulnerabilidade”, ferindo os princípios de boa-fé no tratamento de dados pessoais conforme o Art. 6° da Lei Geral de Proteção de Dados (LGPD). Além disso, a empresa Tools for Humanity não permite a exclusão dos dados biométricos cadastrados, o que foi considerado uma prática grave pela Autoridade Nacional de Proteção de Dados. 

Conjuntura internacional

[Reino Unido] Governo anuncia leis para combater o abuso infantil gerado por IA e reforça proteção a crianças online

Em 02.02, o Home Office (Ministério de Assuntos Internos) do Reino Unido anunciou medidas para criminalizar o uso de inteligência artificial na produção e disseminação de imagens de abuso sexual infantil. Parte do Crime and Policing Bill, as leis tornam o Reino Unido o primeiro país a tipificar crimes específicos relacionados a esse material. As medidas, anunciadas pela secretária Yvette Cooper, incluem três novos crimes: (i) posse, criação e distribuição de ferramentas de IA para gerar material de abuso infantil (CSAM); (ii) posse de "manuais de pedofilia", que ensinam o uso de IA para exploração infantil; e (iii) operação de sites para compartilhamento desse conteúdo ou disseminação de técnicas de aliciamento. Cooper afirmou que a tecnologia está amplificando crimes sexuais e que "o governo não hesitará em agir para garantir a segurança das crianças online". A Internet Watch Foundation (IWF), que colaborou na elaboração das políticas, registrou um aumento de 380% nas denúncias de imagens deste tipo geradas por IA em 2024, muitas indistinguíveis de fotos reais. Organizações como a IWF e a National Society for the Prevention of Cruelty to Children (NSPCC) reforçaram a urgência de regulamentações robustas e afirmaram que as plataformas devem realizar avaliações de riscos dessa natureza antes que novos produtos de IA sejam lançados. 

[Vaticano] Igreja alerta para riscos da inteligência artificial e pede regulamentação rigorosa

Em 28.01, o Vaticano publicou o documento “Antica et nova” (Antigo e Novo), alertando para os riscos da inteligência artificial (IA) e ressaltando a necessidade de regulamentação e supervisão rigorosa da tecnologia. O texto, elaborado ao longo de seis meses por clérigos vaticanos e especialistas no tema, foi aprovado pelo Papa Francisco. Destaca que a IA representa uma “fonte de oportunidades extraordinárias, mas também de riscos profundos”, enfatizando que sua implementação deve complementar, e não substituir, a inteligência humana. A Igreja pede que os governos monitorem de perto o desenvolvimento da tecnologia, ressaltando que a IA pode contribuir para a disseminação de desinformação e “minar as bases da sociedade” ao intensificar a “polarização política e o caos social”. O documento discute os impactos da IA em diversas áreas, como mercado de trabalho, educação e saúde, e alerta que a tecnologia não deve ser utilizada para substituir trabalhadores ou comprometer a dignidade do trabalho humano. Na esfera militar, reforça a preocupação com o uso de armas autônomas, argumentando que essas tecnologias podem provocar um distanciamento moral em relação às consequências da guerra. Além disso, aponta que o desenvolvimento da IA está concentrado em um número restrito de empresas, alertando que essas corporações podem exercer “formas de controle tão sutis quanto invasivas, criando mecanismos para a manipulação das consciências e do processo democrático”. Como parte de sua resposta institucional, o Vaticano também publicou diretrizes internas para a aplicação da IA em suas próprias instituições. O documento sintetiza materiais já existentes sobre o tema, incluindo declarações do Papa Francisco. Entre elas, destacam-se suas falas no Fórum de Davos, no início do ano, em que afirmou que a tecnologia levanta questões críticas para a humanidade, e no G7 na Itália, ocasião em que defendeu que algoritmos não devem decidir o destino das pessoas, e reiterou a necessidade de regulamentação internacional.

[Global] DeepSeek tem uso limitado por governos e órgãos públicos em meio a alegações de riscos à segurança e privacidade

Nos últimos dias, governos e órgãos públicos da Itália, Taiwan, Austrália e Estados Unidos impuseram restrições ao uso da inteligência artificial da DeepSeek, enquanto Bélgica, Irlanda, França e Coreia do Sul anunciaram investigações sobre a empresa. Como justificativa das proibições e investigações, as autoridades regulatórias desses países alegam que a empresa chinesa representa riscos à segurança nacional e à privacidade de dados. Em 03.02, a Itália foi o primeiro país a proibir a DeepSeek após uma investigação da autoridade de proteção de dados, que apontou possíveis violações ao Regulamento Geral de Proteção de Dados (GDPR). O país é o único que estendeu a proibição para além dos órgãos de governo, alcançando todos os cidadãos. No mesmo dia, Taiwan seguiu o mesmo caminho, proibindo o uso da tecnologia em órgãos públicos e infraestruturas críticas, e alertando para o risco de transmissão transfronteiriça de dados sensíveis. Nos Estados Unidos, o governo do Texas proibiu o software em dispositivos estatais, também justificando a decisão com preocupações sobre uma possível interferência chinesa em infraestruturas críticas. Além disso, entidades como o Congresso, a Marinha, o Pentágono e a NASA bloquearam o uso dos produtos da DeepSeek por motivos de segurança. Em 04.02, a Austrália proibiu o uso do DeepSeek em todos os dispositivos e sistemas governamentais, alegando que a decisão não está relacionada à origem chinesa do aplicativo, mas sim ao "risco inaceitável" que ele apresenta para a segurança nacional. Segundo a autoridade de proteção de dados italiana, a DeepSeek alegou que suas operações não estariam sujeitas à legislação da União Europeia. Até o momento, a DeepSeek não respondeu às restrições dos outros países.

Setor privado

[Meta] Empresa firma acordo para encerrar processo movido por Donald Trump

[WhatsApp] Empresa denuncia ataque de spyware contra jornalistas e sociedade civil

Em 31.01, o WhatsApp anunciou, por meio de representante, que cerca de 90 jornalistas e membros da sociedade civil foram alvo de espionagem pelo spyware Graphite, produzido pela empresa israelense Paragon Solutions. Segundo a plataforma, há fortes indícios de que os dispositivos de usuários foram comprometidos. O WhatsApp identificou e bloqueou a atividade em dezembro, notificou os afetados e enviou uma notificação extrajudicial (cease-and-desist letter) à Paragon. Além disso, afirmou estar analisando possíveis medidas legais contra a empresa. A plataforma não informou a identidade ou nacionalidade dos alvos do ataque, mas afirmou que estavam localizados em mais de vinte países diferentes.

Agenda

[Oxford Internet Institute] Workshop sobre internet, dados e inteligência artificial no Sul Global está com chamada aberta para envio de trabalhos

O Oxford Internet Institute está com chamadas abertas para o envio de trabalhos para o workshop Global Southing Internet, Data and AI Studies, que será realizado nos dias 25 e 26 de março de 2025, no Reino Unido. O evento reunirá pesquisadores do Sul Global para discutir contribuições teóricas e metodológicas de suas regiões nos estudos sobre internet, dados e inteligência artificial. Serão aceitos resumos de artigos para apresentações relacionadas aos temas do evento, incluindo, entre outros: (i) Diálogos Sul-Sul em pesquisas sobre realidades e práticas digitais; (ii) Como o pensamento social de autores do Sul Global pode enriquecer esses campos de estudo; (iii) Problemas na adoção de conceitos do Norte Global para práticas digitais do Sul Global. Os resumos devem ser enviados até 11.02.

[Cade] Audiência pública sobre concorrência em ecossistemas digitais está com inscrições abertas

O Conselho Administrativo de Defesa Econômica (Cade) está com inscrições abertas para participação em audiência pública para debater questões concorrenciais envolvendo os ecossistemas digitais. As contribuições podem ser feitas oralmente ou enviadas por escrito. O evento ocorrerá em 19.02, às 14h, de forma híbrida, com encontro presencial no plenário do Cade, em Brasília, e transmissão ao vivo pelo canal do YouTube. As inscrições para participação podem ser realizadas até 12.02. Para mais informações confirá o edital.