Em 28.08, o ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), intimou Elon Musk via X (antigo Twitter) para indicar representante legal no Brasil. A intimação ocorre no âmbito da Petição 12.404/DF (que está sob sigilo) e se refere à decisão de 18.08, em que Moraes determinou a indicação, em até 24h, do novo representante legal da plataforma no país. Caso o X não indique o representante legal no prazo, Moraes determina que seja feita a “imediata suspensão das atividades da rede social ‘X’ até que as ordens judiciais sejam efetivamente cumpridas e as multas diárias quitadas”. De acordo com o G1, na mesma decisão do dia 18.08, Moraes também teria determinado o bloqueio das contas brasileiras da Starlink, empresa de Musk, também dono do X. Essas decisões decorrem da determinação de Musk, em 17.08, de encerrar as operações do X no Brasil, quando alegou ameaças e censura por parte do ministro Alexandre de Moraes contra a plataforma. A intimação foi postada pelo perfil oficial do STF no X, em resposta à mensagem do perfil oficial do X, do dia 17.08, em que comunica o fechamento do escritório no país. Em 29.08, o X publicou uma nota criticando o ministro Alexandre de Moraes e o STF e afirmando que irá publicar “todas as exigências ilegais do ministro e todos os documentos judiciais relacionados” e que espera que a rede social seja bloqueada em breve.
Em 23.08, o juiz eleitoral Antonio Maria Patiño Zorz, da 1ª Zona Eleitoral de São Paulo, determinou a suspensão das redes sociais de Pablo Marçal (PRTB/SP), candidato à prefeitura de São Paulo (SP), até o fim da eleição de 2024. A decisão liminar se deu no âmbito de uma Ação de Investigação Judicial Eleitoral (AIJE), ajuizada pelo Partido Socialista Brasileiro (PSB), que questionava o uso das redes sociais pelo candidato. De acordo com a ação, Marçal teria desenvolvido uma “estratégia de cooptação de colaboradores para disseminação de seus conteúdos em redes sociais”, através de concurso feito pelo candidato que premiava usuários que fizessem cortes de seus vídeos com mais visualizações. Os autores da ação afirmam que, com essa estratégia, Pablo teria atingido mais de 2 bilhões de visualizações no TikTok e teria dobrado seu tamanho no Instagram, cooptando mais de 5 mil usuários para produzir cortes de seus conteúdos. O juiz considerou que a estratégia de monetizar os cortes viola o equilíbrio da disputa eleitoral, e que não há transparência financeira acerca das premiações do concurso promovido por Pablo Marçal. Assim, o juiz determinou a suspensão temporária dos perfis de Pablo no Instagram, YouTube, TikTok, site pessoal e X (antigo Twitter) até o fim das eleições de 2024, sob pena de multa diária no valor de R$10.000,00. Determinou, ainda, que Marçal deixe de remunerar os cortadores de seus conteúdos e que sejam suspensas as atividades do candidato na plataforma Discord, para impedir a continuidade da estratégia. De acordo com a CNN Brasil, o candidato Pablo Marçal teria impetrado mandado de segurança no Tribunal Regional Eleitoral para que seus perfis nas redes sociais sejam desbloqueados.
Em 27.08, a 3ª turma do Superior Tribunal de Justiça (STJ) decidiu que a remoção de vídeo do YouTube contendo desinformação médica não constitui censura. A decisão se deu no âmbito de uma ação proposta por um médico neurologista contra a Google, empresa dona do YouTube, por uma remoção de um vídeo seu de 2021 acerca da pandemia da Covid-19. O médico autor da ação alegava que a remoção de seus vídeos pelo YouTube configurava censura e violação de sua liberdade de expressão. Em sua defesa, a plataforma alegou que o usuário violou a política de “spam, prática enganosa e golpe” de seus termos de uso por ter propagado notícia sobre a pandemia que contradizia orientações da Organização Mundial de Saúde (OMS). O ministro Ricardo Villas Bôas Cueva, relator do caso no STJ, decidiu que as plataformas podem remover conteúdo que viola seus termos de uso, desde que esses termos respeitem a Constituição e as leis brasileiras. Entendendo que o Marco Civil da Internet “não impede nem proíbe a moderação de conteúdo, que ocorre quando o próprio provedor, por iniciativa própria, retira de sua plataforma conteúdo que viola a lei ou os termos de uso”, a 3ª turma do Superior Tribunal de Justiça (STJ) entendeu por unanimidade que a exclusão dos vídeos não configura censura e negou o pedido do autor para o restabelecimento do vídeo.
Em 23.08 a Autoridade Nacional de Proteção de Dados (ANPD) publicou a Resolução n° 19/2024 que estabelece o Regulamento de Transferência Internacional de Dados. A resolução prevê regras de compartilhamento de dados pessoais entre o Brasil e agentes de tratamento de dados localizados em outros países. O regulamento estabelece procedimentos e regras para a aplicação da Lei Geral de Proteção de Dados e para a atuação da ANPD na transferência internacional de dados. A resolução também estabelece cláusulas contratuais-padrão para a realização de transferência internacional de dados e prevê o dever de agentes de tratamento que a não usarem essas cláusulas-padrão de submeterem cláusulas alternativas à análise da ANPD.
Em 26.08, a autoridade de proteção de dados pessoais da Holanda publicou nota sobre a decisão, tomada em 22.07, de aplicar uma multa de 290 milhões de euros à Uber. De acordo com a autoridade, a empresa violou o Regulamento Europeu de Proteção de Dados (GDPR) pelo período de 2 anos, realizando a coleta de dados pessoais de mais de 170 motoristas franceses e transferindo-os e armazenando-os em servidores na sede da Uber nos Estados Unidos sem os devidos procedimentos próprios para a transferência internacional de dados. Os dados coletados eram de diferentes naturezas, inclusive sensíveis, podendo-se mencionar como exemplos as informações de localização, identidade, e até informações médicas e criminais. A demanda foi originada na França, a partir da reclamação feita pela associação “La ligue des droits de l’homme” à CNIL, autoridade de proteção de dados francesa. No entanto, como a sede da Uber na Europa é localizada em Amsterdam, ela estaria sob o escrutínio da autoridade holandesa - que atuou em cooperação com a CNIL durante as investigações do caso. Em declaração via e-mail, um representante da Uber indicou que “o processo de transferência de dados transfronteiriça da Uber estava em conformidade com o GDPR durante um período de 3 anos de imensa incerteza entre a UE e os EUA”.
Em 24.08, Pavel Durov, fundador do Telegram, foi preso e colocado sob custódia após desembarcar na França no aeroporto Le Bourget, próximo a Paris. Essa prisão ocorreu no marco de uma investigação de suposta cumplicidade da empresa em crimes de pornografia infantil, fraudes e tráfico de drogas, que ocorreriam por meio da plataforma de mensageria, além de lavagem de dinheiro, a viabilização de criptografia para pessoas criminosas e a não-cooperação com autoridades quando informações são solicitadas. Em 28.08, a justiça francesa considerou existirem evidências suficientes para iniciar o processo de investigação formal contra Durov, oferecendo-lhe a possibilidade de pagamento de fiança desde que ele não saia da França e se apresente à polícia duas vezes por semana. Em comunicado disponibilizado em canal oficial, o Telegram indicou que "cumpre as leis da UE, incluindo a Lei dos Serviços Digitais [Digital Services Act]", que "sua moderação está dentro dos padrões da indústria e em constante melhoria”, e que “é absurdo afirmar que uma plataforma ou seu proprietário são responsáveis pelo abuso dessa plataforma”.
No dia 27.08, o Tribunal de Apelações dos Estados Unidos para o 3º Circuito decidiu que a Seção 230 do Communications Decency Act não impede que o TikTok seja processado por mãe de uma criança que morreu após participação em um desafio viral. De maneira específica, embora a Seção 230 isente as plataformas de responsabilidade com relação a conteúdos gerados por usuários, o Tribunal de Apelações entendeu que isso não se aplica a recomendações feitas por algoritmos. Em 2021, Nylah Anderson, à época com 10 anos, participou do "blackout challenge", no qual os usuários do TikTok eram desafiados a se sufocar até desmaiar. Após o ocorrido, Tawainna Anderson, mãe de Nylah, moveu a ação alegando que o algoritmo do TikTok recomendou o desafio à sua filha. Em primeira instância, o pedido de Tawainna foi negado com base na imunidade estabelecida pela Seção 230. Esse entendimento, porém, foi revertido pelo Tribunal de Apelações para o 3º Circuito. O órgão entendeu que em julho, a Suprema Corte norte-americana, ao refletir sobre se leis estaduais poderiam restringir o poder das plataformas de moderar conteúdo, mencionou que o algoritmo de uma rede social reflete julgamentos editoriais e compila o “discurso de terceiros da maneira que deseja”. Dessa forma, prevaleceu o entendimento da magistrada Patty Shwartz, segundo a qual a curadoria de conteúdo por meio de algoritmos é um discurso da própria empresa, não sendo protegida pela Seção 230.
No dia 26.08, Mark Zuckerberg encaminhou uma carta ao Comitê Judicial da Câmara dos Estados Unidos afirmando que cedeu à pressão exercida pelo governo de Joe Biden para “censurar” alguns conteúdos sobre Covid-19 no Facebook durante a pandemia. A carta foi direcionada a Jim Jordan, chefe do Comitê Judicial da Câmara dos Estados Unidos. De acordo com Zuckerberg, funcionários da administração de Joe Biden teriam exigido que a Meta removesse, por exemplo, publicações de humor e sátira. O empresário também pontuou que a Meta não deveria comprometer seus padrões de conteúdo devido a exigências do governo. Para além da exclusão de conteúdos envolvendo Covid-19, Zuckerberg lamentou a remoção temporária de um conteúdo de um laptop pertencente a Hunter Biden, filho de Joe Biden. O conteúdo foi suspenso após uma suspeita do FBI de que a Rússia estaria preparando uma campanha de desinformação contra a família Biden. Segundo Zuckerberg, não ficou claro desde então que a história não era desinformação, de modo que a remoção temporária não deveria ter ocorrido. Em um post no X, o Comitê Judicial da Câmara dos Estados Unidos, controlado pelos republicanos, afirmou que a carta de Zuckerberg seria uma “grande vitória para a liberdade de expressão”.
Nos dias 02 e 03.09, o Comitê Gestor da Internet no Brasil (CGI.br) e o Núcleo de Informação e Coordenação do Ponto BR (NIC.br) realizarão o 15º Seminário de Proteção à Privacidade e aos Dados Pessoais. Nesta edição, serão debatidos temas como soberania e regulação de dados, privacidade e proteção de dados de grupos vulneráveis, tratamentos de dados pessoais em processos eleitorais, dentre outros. Já no dia 04.09, será realizado o 1º Seminário do Observatório Brasileiro de Inteligência Artificial, que visa: (i) demonstrar a importância dos observatórios de IA a partir do seu papel de monitoramento dos ecossistemas de IA; (ii) debater os efeitos e influências da IA em diferentes setores. Ambos os eventos são gratuitos e poderão ser acompanhados de forma remota ou presencialmente no Hotel Intercontinental, em São Paulo. Para mais informações e inscrições, acesse as páginas do Seminário da Privacidade e do Seminário do OBIA.