Em 05.02, foram propostos os projetos de lei nº 17/2024, nº 18/2023, nº 67/2024 e nº 92/2024, que, de maneira geral, criminalizam a prática de indução a suicídio ou automutilação a partir da disseminação de "informações falsas", bem como propõem modelos de responsabilidade e sanção para plataformas digitais e páginas da internet que produzam, compartilhem ou hospedem esse conteúdo. Os PLs abordam o potencial lesivo - tanto em termos psicológicos quanto físicos - de disseminação de informações falsas, e as suas justificativas trazem como exemplo o caso de uma jovem que recebeu ataques por meio da internet após perfis de fofoca divulgarem prints falsos de uma conversa entre ela e o humorista Whindersson Nunes. Após o ocorrido, a jovem cometeu suicídio, e acredita-se que esses ataques possam ter contribuído para isso. De maneira específica, o PL nº 17/2024, apresentado pelo deputado Pedro Aihara (Patriota/MG) acrescenta ao art. 122 do Código Penal (Decreto-Lei nº 2848/1940) dispositivos que tipificam a indução ou instigação ao suicídio ou automutilação por meio de compartilhamento de informações falsas, com agravante se essa divulgação for feita com o objetivo de obter ganhos financeiros. Também estabelece a responsabilidade solidária de todos os envolvidos na produção, disseminação, promoção e compartilhamento das informações. O PL nº 92/2024, proposto pelo deputado Célio Studart (PSD/CE), também altera o art.122 do Código Penal, duplicando a pena caso a instigação seja feita por meio da divulgação de informações falsas em páginas da internet, além de estabelecer sanções à pessoa jurídica responsável pelo compartilhamento, como a desmonetização. O PL nº 18/2024, proposto pelo deputado Pedro Aihara (Patriota/MG), traz disposições que estabelecem um prazo de 24 horas para que plataformas digitais, páginas eletrônicas e veículos de comunicação retirem do ar conteúdo “falso que cause dano à saúde mental ou à integridade física de outrem” após recebimento de notificação extrajudicial. Caso o compartilhamento dessas informações resulte em automutilação ou suicídio, essas plataformas poderão ser sancionadas com multa, suspensão de contratos de publicidade com entidades do governo, e proibição da veiculação de conteúdo publicitário. Por fim, o PL nº 67/2024, apresentado pela deputada Ely Santos (Republic/SP), veda o compartilhamento de conversas que aconteçam por meio de aplicativos sem a autorização dos emissores e receptores.
Em 05.02, o deputado Alberto Fraga (PL/DF) apresentou o projeto de lei nº 58/2024, que estabelece regras para o uso de programas de intrusão ou monitoramento em dispositivos pessoais ou corporativos para fins de investigação criminal, inteligência estatal ou de fiscalização fazendária. O projeto estabelece que a utilização dessas ferramentas é possível nos casos de necessidade de acesso a dados negados que sejam “relevantes para a o cumprimento da operação de inteligência estatal ou de investigação criminal, de controle ou de fiscalização fazendária federais que dependam de autorização judicial”. Para a utilização desse mecanismo, dentre das exigências, estão: autorização judicial, cujo pedido deve contar com justificativa adequada; vinculação da atividade a inquérito policial, processo investigativo ou judicial ou plano de operação de inteligência; demonstração de adequação e proporcionalidade da medida; a identificação da pessoa a ser monitorada; prazo máximo de 90 dias para realização da ação com possibilidade de renovações pelo mesmo período. O projeto também prevê a proibição de armazenamento das informações em sistemas de governos estrangeiros e de empresas privadas no exterior, dentre outras regras para as autoridades que farão uso dessas ferramentas, como a necessidade de normativas internas que disponham sobre sua operação e treinamentos para os agentes públicos que as utilizarão. Na justificativa do projeto, o deputado reconhece a polêmica envolvendo a temática, principalmente nos aspectos de privacidade, mas argumenta que o desenvolvimento das comunicações e da criptografia acabam também por proteger práticas criminosas. Ainda menciona possíveis prejuízos às estratégias políticas e econômicas nacionais por conta de interferências estrangeiras e espionagem estatal. Por fim, o projeto é também uma reação à Ação de Inconstitucionalidade por Omissão (ADO) 84, ingressada pela Procuradoria-Geral da República, que busca a regulação de ferramentas como spywares, Imsi Catchers e dispositivos de rastreamento de localização de alvos específicos.
Em 05.02, o deputado Alberto Fraga (PL/DF) propôs o projeto de lei nº 53/2024, que altera o Marco Civil da Internet (Lei nº 12.965/2014) com o objetivo de vedar o anonimato na internet. O projeto adiciona ao MCI o fundamento da “busca contínua da confiança da rede e do seu uso”, e altera o princípio da “garantia da liberdade de expressão, comunicação e manifestação do pensamento”, previsto no art. 3º, I, adicionando a vedação do anonimato. Também cria dois novos princípios: o da rastreabilidade de conteúdo publicado, o que seria feito a partir de metadados como origem e data; e o da “integridade dos sistemas disponibilizados para uso geral”, visando a disponibilização de dados e a segurança do próprio sistema. Em sua justificativa, o deputado argumenta que esses mecanismos evitariam o uso indevido do anonimato, garantindo transparência, segurança de usuários, integridade de sistemas e confiança na rede, ao mesmo tempo em que se mantém a liberdade de expressão.
Em 05.02, o deputado Delegado Matheus Laiola (União/PR) apresentou o projeto de lei nº 32/2024, para tipificar práticas de crimes sexuais virtuais. O projeto altera o artigo 226 do Código Penal (Decreto-Lei nº 2848/1940), adicionando, como hipótese de aumento de pena para os crimes contra a dignidade sexual, o fato de serem cometidos por meios virtuais, digitais, ou com o auxílio de dispositivos eletrônicos. Em sua justificativa, o deputado frisa a facilitação deste tipo de crime pelas vias tecnológicas, trazendo exemplos de como pode ocorrer a abordagem de vítimas.
Em 05.02, o deputado André Janones (Avante/MG) propôs o projeto de lei nº 123/2024, que altera o Marco Civil da Internet (Lei nº 12.965/2014) para que as relações de consumo relacionadas a publicidades veiculadas por provedores de aplicações sejam regidas pelo Código de Defesa do Consumidor (Lei nº 8.078/1990). Mais especificamente, pretende-se que os provedores de aplicação garantam a “veracidade e clareza das informações” de publicidades, podendo estar sujeitos a indenizar consumidores por eventuais danos causados pela desconformidade do conteúdo publicitário. Além disso, estabelece a obrigatoriedade de os provedores terem canais de atendimento para denúncias de propaganda enganosa ou abusiva; prazo de 24h para remoção de conteúdo irregular após notificação; e a necessidade de publicação de relatórios de transparência sobre conteúdo patrocinado. Em sua justificativa, há menção ao crescente aparecimento de propagandas enganosas em plataformas digitais, que se utilizam inclusive de ferramentas de inteligência artificial (como deepfakes). O deputado, por fim, menciona a falta de adesão de provedores de aplicações de internet ao sistema de regulação da publicidade gerido pelo Conselho Nacional Brasileiro de Autorregulamentação Publicitária (Conar).
Em 06.02, o senador Chico Rodrigues (PSB/RR) apresentou o projeto de lei nº 145/2024 para regular a utilização de ferramentas de inteligência artificial (IA) para fins publicitários. O projeto altera o Código de Defesa do Consumidor (Lei nº 8.078/1990) para vedar a manipulação de imagens e vozes de pessoas vivas ou falecidas por meio de IA em propagandas, exceto quando há consentimento expresso do titular do direito de imagem ou quando houver informação ostensiva ao consumidor sobre a utilização de IA na publicidade. Em sua justificativa, o senador reconhece a importância de se discutir os impactos da IA, em especial os deepfakes, no âmbito político, mas atenta também à sua influência na esfera do direito privado. Afirma que, considerando que o CDC entrou em vigor há mais de 30 anos, seria necessário atualização das regras para considerar a manipulação não consentida de sons e imagens por meio de IA como propaganda enganosa.
No dia 06.02, a 2ª Turma do Supremo Tribunal Federal (STF) decidiu que a preservação de dados pessoais e comunicações privadas, sem ordem judicial específica, viola os direitos à intimidade, à vida privada, à honra e à imagem. O caso envolveu uma investigação de supostas irregularidades no credenciamento de empresas para prestação de serviços ao Departamento de Trânsito do Paraná (Detran-PR), tendo o Ministério Público estadual (MPE-PR) conseguido, sem autorização judicial prévia, a preservação dos dados pessoais e de comunicações dos investigados. O relator da ação no STF, ministro Ricardo Lewandowski - hoje aposentado -, entendeu que o Ministério Público pode requerer apenas o congelamento de registros de conexão e acesso - ou seja, i) data e hora de início e término da conexão, ii) a duração, e iii) endereços de IP utilizados pelos terminais para o envio e recebimento de pacotes de dados. Como o MPE-PR conseguiu acesso a dados mais sensíveis - conteúdo de e-mails, fotos, contatos e histórico de localização -, o relator apontou que as provas seriam nulas, uma vez que o congelamento dessas informações dependem de autorização judicial prévia. O voto do ministro - proferido em abril de 2023 - registra expressamente que o “direito de qualquer cidadão de administrar e dispor do conteúdo pessoal de e-mails, mensagens, contatos e históricos de localização é uma garantia individual enrijecida pelo direito à preservação da intimidade, da vida privada, da honra e da imagem”. Embora o ministro André Mendonça tenha divergido, o entendimento de Lewandowski foi seguido pela maioria da 2ª Turma da Corte.
Em 01.02, a ANPD noticiou a publicação de dois despachos decisórios em processos sancionadores. O primeiro deles envolveu o Instituto Nacional de Seguro Social (INSS), que não reportou a ocorrência de incidente de segurança, ocorrido em 2022, aos titulares de dados pessoais. O incidente envolveu o Sistema Corporativo de Benefícios do INSS (SISBEN), e pode ter exposto informações de identificação oficial, financeiras e de saúde. Entendendo que o incidente poderia prejudicar os direitos dos titulares de dados, a ANPD determinou que o Instituto informasse a sua ocorrência aos titulares afetados - o que não foi cumprido, visto que o INSS alegou inviabilidade técnica para individualizar esses titulares. Não acatando a justificativa, a ANPD sancionou o INSS com a exigência de publicização da infração e de disponibilização, por 60 dias, de comunicados relatando o incidente em sua página eletrônica e no aplicativo Meu INSS. O segundo despacho decisório envolve a Secretaria de Estado de Educação do Distrito Federal (SEEDF), que, de acordo com a Autoridade, falhou com os deveres de registro de operações de dados pessoais; elaboração Relatório de Impacto à Proteção de Dados Pessoais quando solicitado pela ANPD; comunicação de incidente de segurança aos titulares; e utilização de sistemas que cumprissem os requisitos de segurança, boas práticas e princípios da LGPD. As sanções aplicadas foram de advertência. Para mais informações, confira os despachos decisórios relativos ao processo sancionador do INSS e da SEEDF.
Em 06.02, a Comissão Europeia apresentou uma proposta para atualizar a sua legislação de direito penal relacionada ao abuso e à exploração sexual de crianças. De acordo com o anúncio feito pela Comissão, o novo regulamento irá expandir a definição dos tipos penais relacionados ao abuso sexual infantil para incluir ações como (i) transmissão online de abuso sexual infantil; (ii) compartilhamento online de “manuais” de pedofilia e (iii) criação de conteúdo de abuso sexual infantil por meio de ferramentas de inteligência artificial. Além disso, os Estados-Membros também deverão, pela nova proposição, aumentar o investimento em conscientização em relação aos riscos existentes no ambiente digital e garantir que a Internet seja um lugar mais seguro e melhor para crianças e adolescentes. A proposta tem por objetivo complementar outro projeto de lei, criado em 2022, que cria obrigações para plataformas de redes sociais identificarem, reportarem e removerem conteúdos de abuso sexual infantil em seus serviços. O projeto está, agora, sob avaliação do Parlamento e do Conselho Europeu.
Em 01.02, a Universal Music Group (UMG) começou processo de remoção de catálogos musicais de artistas que representa do TikTok. A UMG e o TikTok tinham um contrato de licenciamento para que músicas dos artistas representados pela empresa pudessem ser usadas na plataforma. Esse contrato expirou no dia 31.01, de forma que obras de artistas como Taylor Swift, Lana Del Rey, Drake e Ariana Grande, entre diversos outros, não poderão mais ser usadas em vídeos novos e serão retiradas de conteúdos já postados. Esse procedimento deve durar vários dias e pode afetar milhões de publicações. Em 30.01, a UMG havia publicado uma carta aberta em que afirmava que o TikTok a pressionou a aceitar um acordo desfavorável de renovação do licenciamento, e que a plataforma queria pagar menos do que outras redes sociais pelo uso das obras. Ainda segundo a UMG, o TikTok se recusou a implementar medidas para a compensação justa de artistas, proteções contra músicas geradas por inteligência artificial e adoção de ferramentas para proteger artistas de discurso de ódio e de assédio. Em resposta, o TikTok publicou nota na qual alegou ser “decepcionante” que a UMG tenha decidido abrir mão do apoio de uma plataforma com mais de um bilhão de usuários, afirmando que a empresa “coloca sua própria ganância acima dos interesses dos seus artistas e compositores”. O TikTok tem, ainda, acordo de licenciamento de catálogo musical com a Warner Music, anunciado em julho de 2023.
Em 05.02, o Comitê de Supervisão da Meta validou a decisão da empresa de não remover um vídeo manipulado do presidente estadunidense Joe Biden. O vídeo, publicado originalmente no Facebook, manipulava uma filmagem verdadeira em que Biden colocava um adesivo de “Eu Votei” no tórax de sua neta, já adulta. O vídeo manipulado fazia parecer que Biden tocava o peito dela de forma repetida e inapropriada e era acompanhado de uma legenda o descrevendo como “pedófilo”. O Comitê de Supervisão havia sido acionado por um usuário da rede social, que solicitou a revisão da decisão da Meta de não remover o conteúdo. Em seu parecer, o Comitê afirma que não caberia a remoção porque a política de mídia manipulada da Meta se aplica apenas a vídeos que tenham sido alterados com o uso de inteligência artificial e com a finalidade de fazer parecer que uma pessoa disse algo que não disse de fato. Segundo a decisão, ainda que o vídeo de Biden tenha sido altamente editado, não se enquadra na política da Meta por não ter usado inteligência artificial e não ter alterado uma fala do presidente. Em sua decisão, o Comitê criticou a regra sobre mídia manipulada, afirmando que a empresa deveria “reconsiderar essa política rapidamente, considerando o número de eleições em 2024”. O órgão recomenda que a diretriz seja ampliada para abarcar conteúdos que mostram pessoas fazendo coisas que não fizeram - ao invés de apenas dizendo coisas que não disseram - e que ela passe a incluir tanto peças sonoras quanto audiovisuais, independentemente da forma como foram criadas. A decisão também sugere que a política de conteúdo manipulado defina os danos que pretende evitar e que a Meta passe a aplicar rótulo que indique que a postagem está significativamente alterada e pode induzir erro, mesmo quando não violar os termos de uso da empresa.
Em 06.02, a Meta anunciou que passará a rotular mídias criadas a partir de inteligência artificial (IA) em suas redes sociais, Facebook, Instagram e Threads. De acordo com o blogpost da empresa, apesar de já classificar conteúdos que são gerados por IA através das ferramentas de suas próprias plataformas, a Meta ainda não consegue fazer o mesmo com aqueles advindos de outras redes sociais. Em razão disso, para além da criação de uma parceria com estas outras empresas para o desenvolvimento de padrões comuns de identificação de mídias advindas de IA, a Meta informa que está desenvolvendo outras ferramentas para a rotulagem. Dentre elas, haverá (i) a inserção, em suas redes sociais, de opções para que os próprios usuários indiquem quando compartilharem conteúdos gerados por IA, com a possibilidade de aplicação de penalidades se não o fizerem e (ii) a aplicação de classificadores que ajudem a detectar automaticamente mídias criadas por inteligência artificial. Em entrevista concedida ao jornal ABC News, o presidente de assuntos globais da Meta, Nick Clegg, disse que a empresa será “vigilante” em relação a conteúdos de IA que visem enganar os usuários em assuntos de importância política nesse período que antecede eleições ao redor do mundo neste ano. O anúncio veio alguns meses depois que o Presidente Joe Biden assinou uma ordem executiva que possui alguns padrões e regras em relação ao uso de Inteligência Artificial.
Em 02.02, a Autoridade Nacional de Proteção de Dados (ANPD) publicou o “Guia Orientativo das Hipóteses Legais de Tratamento de Dados - Legítimo Interesse”. O documento tem por objetivo esclarecer pontos relevantes para a aplicação do legítimo interesse, uma das bases legais previstas na Lei Geral de Proteção de Dados para o tratamento de dados pessoais. O guia da ANPD apresenta orientações sobre a interpretação e aplicação da hipótese legal do legítimo interesse e apresenta um modelo teste para sua aplicação, dividido em três fases: (i) finalidade, (ii) necessidade e (iii) balanceamento e salvaguardas.
Em 30.01, a Autoridade Nacional de Proteção de Dados (ANPD) colocou em consulta pública sua minuta do "Guia de Anonimização e Pseudonimização para a Proteção de Dados Pessoais". A consulta tem por objetivo receber contribuições para que a ANPD disponha sobre padrões e técnicas utilizadas em processos de anonimização de dados pessoais. O conceito é definido na Lei Geral de Proteção de Dados Pessoais (LGPD) como a “utilização de meios técnicos razoáveis e disponíveis no momento do tratamento, por meio dos quais um dado perde a possibilidade de associação, direta ou indireta, a um indivíduo”. A consulta está aberta até o dia 28 de fevereiro de 2024, e as contribuições devem ser feitas pela plataforma Participa+Brasil.