Em 21.02, a Comissão de Constituição e Justiça (CCJ) da Câmara dos Deputados aprovou o projeto de lei n° 2.628/2022, que pretende instituir o marco legal para a proteção de crianças e adolescentes em ambientes digitais. O projeto de lei cria uma série de obrigações para as plataformas digitais, como implementação de mecanismos de controle parental, realização de avaliação de riscos de conteúdos disponibilizados para crianças e desenvolvimento de mecanismos de denúncia de conteúdos que violem os direitos de crianças e adolescentes. Neste último ponto, a proposição vai além das obrigações criadas no Marco Civil da Internet e determina que os fornecedores de produtos ou serviços de tecnologia da informação devem remover conteúdos violadores assim que forem reportados, independentemente de ordem judicial. Além disso, o texto também prevê regras para o direcionamento de publicidade e veda expressamente a utilização de técnicas de perfilamento para o público de crianças e adolescentes. O projeto segue agora para a Comissão de Ciência, Tecnologia, Inovação e Informática (CCT), em caráter terminativo. A Coalizão de Direitos na Rede (CDR), em nota publicada dia 20.02, ressaltou a importância da proibição relacionada às técnicas de perfilamento para crianças e adolescentes, mas indicou a necessidade de um processo mais amplo de discussão e debate público para um projeto de lei que se propõe a “regular o exercício de direitos fundamentais, impactando diretamente milhões de usuários de redes sociais”.
Em 20.02, o deputado federal Júnior Mano (PL/CE) apresentou o projeto de lei n° 303/2024 para dispor sobre a titularidade de invenções feitas por sistemas de inteligência artificial. O projeto altera o artigo 6º da Lei de Propriedade Industrial (Lei nº 9279/1996) para determinar que, quando uma invenção for gerada exclusivamente por um sistema de inteligência artificial, a patente poderá ser requerida em nome deste sistema, que será o inventor e o titular dos direitos à invenção. Em sua justificativa, o deputado afirma que, ao reconhecer a inteligência artificial como uma possível inventora de patentes, se incentivará a “inovação e a pesquisa nesse campo” e se garantirá um “sistema jurídico eficaz para proteger os direitos de propriedade intelectual”.
Em 15.02, o senador Veneziano Vital do Rêgo (MDB/PB) apresentou o projeto de lei n° 266/2024, que tem por objetivo regular a utilização de ferramentas de inteligência artificial no auxílio das profissões de médico, advogado e juiz. O projeto altera as leis n° 8.906/1994 (Estatuto da OAB) e 12.842/2013 (Lei do Ato Médico) para permitir que o uso destes sistemas seja possível, desde que preserve a autonomia e a independência dos referidos profissionais. Ademais, pretende modificar o Código de Processo Civil para autorizar a realização de atos processuais com o uso de ferramentas de inteligência artificial, sob a condição de que eles serão submetidos aos juízes para revisão posteriormente. Em sua justificativa, o senador afirma que a regulação mostra-se oportuna, visto que o “mau uso da tecnologia de inteligência artificial pode representar um alto risco para a sociedade”.
Em 15.02, o senador Veneziano Vital do Rêgo (MDB/PB) propôs o projeto de lei n° 263/2024, que cria o Programa Nacional de Conectividade. De acordo com a justificativa apresentada pelo senador, a iniciativa busca integrar os programas de conectividade já existentes, como a Política de Inovação Educação Conectada, o Programa Internet Brasil e o Programa Wi-fi Brasil, “como forma de otimizar a alocação dos recursos, eliminar redundâncias e aumentar a eficácia das mencionadas políticas públicas”. O projeto de lei altera, ainda, a Lei nº 9.998/2000, que instituiu o Fundo de Universalização dos Serviços de Telecomunicações (Fust), para prever que recursos do Fundo sejam destinados para a “aquisição ou contratação de equipamento ou serviço de acesso à internet”.
Em 15.02, o senador Veneziano Vital do Rêgo (MDB/PB) apresentou o projeto de lei n° 261/2024 que criminaliza atos de violência psicológica cometidos em ambiente de realidade virtual. O projeto adiciona o artigo 147-C ao Código Penal, dentro do rol de crimes contra a liberdade individual, e prevê o aumento de hipótese de pena caso a conduta seja cometida contra idoso, criança ou adolescente. Em sua justificativa, o senador afirma que, por proporcionar uma “experiência de imersão que permite ao usuário ter a percepção de estar efetivamente vivenciando aquela realidade”, o legislador deve estar atento a possíveis crimes que podem ser cometidos contra a representação virtual dos indivíduos nestas realidades.
Em 09.02, o senador Carlos Viana (Podemos/MG) propôs o projeto de lei n° 247/2024, que altera o Código de Defesa do Consumidor (Lei n° 8.078/1990) para incluir regras relacionadas à veiculação de publicidade na internet. De acordo com a proposição, a publicidade veiculada na internet deve possuir, de forma “clara e ostensiva”, um indicativo de que se trata de um conteúdo patrocinado, inclusive em situações de artigos e reportagens jornalísticas. Em sua justificativa, o senador aponta que nem sempre um conteúdo publicitário no ambiente digital é evidente, o que prejudica o direito de acesso à informação do consumidor. A proposta, assim, teria por objetivo atualizar as normas do Código de Defesa do Consumidor para a “época da internet”.
Em 07.02, o senador Marcos do Val (Podemos/ES) propôs o projeto de lei n° 210/2024, que institui princípios para o uso da tecnologia de inteligência artificial no Brasil. O projeto apresenta cinco princípios norteadores para o uso destes sistemas: (i) segurança e efetividade dos sistemas; (ii) proteção contra discriminação algorítmica; (iii) garantia à privacidade dos dados e informações dos usuários; (iv) direito à informação e (v) direito à opção pelo tratamento humano e à contestação. Em sua justificativa, o senador argumenta que “as tecnologias de inteligência artificial avançam a passos largos em todo o mundo” e que os riscos inerentes a sua adoção “precisam ser cuidadosamente avaliados”.
No dia 15.02, a 18ª Câmara Cível do Tribunal de Justiça de Minas Gerais (TJMG) confirmou decisão que condenava empresas de comércio eletrônico por suspensão indevida de conta. De acordo com o portal de comunicação do TJMG, empresas de comércio eletrônico suspenderam a conta de autônomo que trabalhava com vendas em sites, bem como bloquearam o montante remanescente da pessoa. Segundo as empresas, a suspensão de conta ocorreu porque o vendedor possuía mais de uma conta atrelada a seu e-mail, o que iria contra as políticas das empresas. Ainda assim, elas foram condenadas pela 1ª Vara Cível da Comarca de Timóteo a indenizar o usuário em R$ 5.000,00 e desbloquear o saldo de R$ 15.835,01 que o vendedor tinha em sua conta. As empresas recorreram para a segunda instância, porém a decisão foi mantida. De acordo com o relator do caso, desembargador Marcelo de Oliveira Milagres, embora houvesse a possibilidade de suspensão da conta e retenção de valores por quebra de contrato por parte do vendedor, as empresas não teriam comprovado a violação, mostrando como provas prints ilegíveis. O relator - no que foi seguido pelos demais desembargadores - manteve a indenização e o desbloqueio de valores em prol do usuário.
Em 13.02, a 14ª Câmara Cível do Tribunal de Justiça de Minas Gerais (TJMG) condenou à indenização homem que divulgou fotos íntimas de sua ex-namorada. De acordo com o portal de comunicação do TJMG, com o fim de um relacionamento de oito anos, o homem passou a fazer ameaças de divulgar fotos íntimas de sua ex-namorada. O réu divulgou as fotos afirmando não ter ‘nada a perder’ e foi condenado em primeira instância na Comarca de Pratápolis ao pagamento de R$ 5.000,00 para a mulher. Em segunda instância, o relator, desembargador Estevão Lucchesi de Carvalho, reformou a condenação para R$ 25.000,00, por compreender que o valor da condenação da primeira instância era insuficiente. O relator, que foi seguido por seus pares, argumentou que “a denominada ‘pornografia da vingança’, sem dúvida alguma, enseja grave violência dos direitos da personalidade da vítima, na maior parte dos casos mulheres, que são humilhadas por seus ex-parceiros, os quais atuam movidos pelos mais cruéis sentimentos de vingança”. A mulher também havia pedido que a rede social em que as fotos foram divulgadas fosse considerada responsável solidária no pagamento da indenização, mas os desembargadores não atenderam o pedido.
Em 17.02, o Regulamento de Serviços Digitais - DSA (em inglês, Digital Services Act) começa a ser aplicado para todas as plataformas e serviços digitais, com exceção das pequenas e microempresas que empregam menos de 50 pessoas e têm um faturamento anual inferior a 10 milhões de euros. A norma aplica-se a plataformas digitais, serviços de hospedagem e a intermediários on-line, como provedores de serviços de Internet ou domínio. O regulamento, que tem por objetivo construir um ambiente online mais seguro justo e transparente, foi sancionado em 2022 e, ao longo de 2023, passou a ser aplicada gradativamente a plataformas e intermediários digitais considerados de alto porte (em inglês, Very large online platforms and search engines - VLOPS). A partir de agora, além do DSA valer para todas as plataformas e serviços, guardadas as exceções destacadas, aqueles que se enquadrem como VLOPS serão supervisionados pelos Estados-Membros por um grupo consultivo independente, o Conselho Europeu para Serviços Digitais (em inglês European Board for Digital Services). O Conselho, que se reuniu pela primeira vez em 19.02, deverá garantir que o DSA seja aplicado de forma consistente e que os usuários da UE desfrutem dos mesmos direitos, independentemente de onde as plataformas e serviços estejam estabelecidos.
Em 19.02, a Comissão Europeia iniciou um procedimento formal contra o TikTok para avaliar possíveis violações do Regulamento de Serviços Digitais ou Digital Services Act (DSA) em relação à proteção de menores, transparência em anúncios, acesso a dados para pesquisadores e gestão de riscos de conteúdos danosos e design viciante. Segundo a Comissão, a decisão de abertura do procedimento aconteceu após investigações preliminares que incluíram a análise de relatórios de risco e outras respostas do TikTok a solicitações do órgão. O procedimento terá como foco quatro pontos principais que concernem ao cumprimento pelo TikTok das obrigações previstas no DSA, são eles: i) produção de relatórios para mapear e mitigar os riscos sistêmicos relacionados ao design viciante da plataforma, em especial, seus impactos em crianças e adolescentes e em processos de radicalização; ii) implementação de medidas adequadas para garantir a privacidade e proteção de menores de idade; iii) o comprometimento com a transparência em anúncios e publicidade; iv) a transparência de dados públicos da plataforma que podem ser usados, por exemplos, por pesquisadores. O procedimento formal permite à Comissão tomar medidas executórias, por exemplo, de aceitar os compromissos de adequação propostos pelas investigada e de decidir que a plataforma não está agindo em conformidade com as diretrizes europeias. Em reação, o porta-voz do TikTok disse que a plataforma foi pioneira “em recursos e configurações para proteger os adolescentes e manter os menores de 13 anos fora da plataforma” e que espera continuar os trabalhos e demonstrá-los em detalhes à Comissão.
Em 14.02, o prefeito de Nova York, Eric Adams, anunciou que o seu governo, em conjunto com os sistemas educacional e de saúde, ajuizou ação judicial contra cinco plataformas de redes sociais — TikTok, Instagram, Facebook, Snapchat e YouTube — por danos causados à saúde mental de crianças e adolescentes em todo o país. A ação, que foi iniciada no Tribunal Superior da Califórnia, alega que as crianças e adolescentes são os alvos mais vulneráveis dos danos causados pelas plataformas, já que seus cérebros não estão completamente desenvolvidos. Ainda, argumenta que as acusadas atuam, intencionalmente, “desenvolvendo, operando e promovendo seu modelo de negócio para atrair, capturar e viciar jovens” e detalha como cada plataforma atua na crise de saúde mental juvenil estadunidense. A ação pede que a conduta das plataformas seja considerada uma perturbação de ordem pública, requer medidas de mitigação de danos e o ressarcimento de recursos públicos empregados para lidar com os prejuízos alegados. O caso integra uma série de litígios apresentados por estados e distritos escolares dos Estados Unidos que buscam obrigar as empresas a mudarem seus comportamentos e recuperar os recursos já utilizados para lidar com a crise. Segundo Adams, a cidade de Nova York emprega mais de $100 milhões por ano para lidar com a crise de saúde mental dos jovens. Paralelamente ao processo, a prefeitura lançou o plano de ação "O papel de Nova York na crise nacional da saúde mental juvenil e redes sociais". Em reação, as plataformas alegaram que já desenvolveram e continuam trabalhando em políticas de proteção e segurança de crianças e adolescentes.
Em 13.02, a Corte Europeia de Direitos Humanos entendeu que a utilização de backdoors, que permitem às autoridades decifrar as mensagens dos usuários, é contrária ao direito à privacidade. O caso chegou à Corte após o Telegram ter se recusado a compartilhar mensagens criptografadas com a agência de inteligência da Rússia, o Serviço Federal de Segurança (FSS). De maneira específica, o governo russo, sob a justificativa de combate ao terrorismo, tentou decifrar o conteúdo de mensagens de seis usuários por meio da criação de um backdoor específico para a agência de inteligência. O aplicativo de mensagens alegou que seria tecnicamente impossível fornecer às autoridades chaves associadas a pessoas individualizadas, de modo que a divulgação de chaves de criptografia afetaria a privacidade de todos os usuários. O Telegram chegou a ser multado e a receber uma ordem judicial de suspensão das atividades na Rússia. Um usuário, que levou o caso à Corte Europeia, afirmou que o cumprimento do pedido da FSS pelo Telegram violaria seus direitos à privacidade e às comunicações. À Corte Europeia, o governo russo alegou que o “dever de discrição” dos agentes do FSS impediria qualquer intrusão na vida privada dos usuários, e que a decodificação de mensagens era "necessária" no caso. Contudo, a Corte apontou que o enfraquecimento da criptografia das mensagens dos usuários representa um risco desproporcional aos direitos humanos, tendo em vista que a confidencialidade das comunicações constitui um elemento essencial do direito à privacidade. Dessa forma, a exigência do governo russo não poderia ser considerada necessária em uma sociedade democrática. A decisão pode frear planos propostos pela Comissão Europeia de exigir que provedores de serviços de e-mail e mensagens criem backdoors de criptografia que permitam às autoridades decifrar facilmente as mensagens dos usuários.
Em 19.02, o Departamento de Educação do governo do Reino Unido lançou guia para o desenvolvimento e implementação de políticas que visam proibir o uso de celulares nas escolas inglesas. O guia consiste em uma orientação não-estatutária, portanto não é de aderência obrigatória pelas instituições escolares, e tem por objetivo “auxiliar as escolas a estabelecerem ambientes calmos, seguros e de suporte ao ensino e à proteção das crianças em ambientes educacionais”. A série de documentos que acompanha o guia apresenta as razões pedagógicas para a proibição do uso de celulares em escolas e dispõe, em minúcia, as formas de implementação da política. Por exemplo, prevê a necessidade de orientar os alunos e responsáveis acerca de como a política será implementada, assim como das razões para a sua criação. Além disso, o guia orienta que professores, supervisores e demais funcionários das escolas devem evitar usar seus celulares por razões pessoais. Em entrevista, a Secretária da Educação, Gillian Keegan, disse que o plano foi elaborado após escuta ativa de diretores de escolas que já estavam usando algumas das medidas propostas, no entanto, sem o respaldo do governo. Assim, Keegan espera que o guia tanto incentive e capacite as escolas que ainda não proibiram o uso de celulares no ambiente escolar quanto sirva de respaldo às escolas que já praticam a proibição.
Em 16.02, um grupo de vinte empresas de tecnologia anunciou que esforços serão empreendidos em conjunto para evitar que conteúdos enganosos de inteligência artificial (IA) interfiram nas eleições ao redor do mundo de 2024 - ano em que mais da metade da população mundial irá votar. Dentre as empresas envolvidas, destaca-se a OpenAI, Microsoft e Adobe - que desenvolvem modelos de IA generativa -, bem como a Meta, TikTok e X - que buscam remover de suas plataformas conteúdos nocivos a eleições. O acordo, anunciado na Conferência de Segurança de Munique, prevê compromissos de colaboração no desenvolvimento de ferramentas para detectar imagens, vídeos e áudios enganosos gerados por IA - como, a título de exemplo, por meio de marcas d’água ou incorporação de metadados -, e criação de campanhas de conscientização pública. A iniciativa das empresas ocorre após casos concretos de uso de IA generativa para influenciar eleições, como o caso que ocorreu em janeiro, em que circulou em plataformas uma chamada robótica usando um áudio falso do presidente dos Estados Unidos, Joe Biden, pedindo que eleitores de New Hampshire ficassem em casa durante a eleição primária. Vale destacar que o acordo não especificou um cronograma para cumprimento dos compromissos ou como cada empresa signatária os implementaria.
Em 12.02, a Google anunciou que irá investir US$ 26,98 milhões em um programa voltado a auxiliar europeus no aprendizado e no uso de inteligência artificial (IA). No âmbito da iniciativa, a empresa disse que: i) abrirá inscrições para empresas e organizações sociais sem fins lucrativos que queiram participar do treinamento; ii) administrará “academias de crescimento” para apoiar empresas que usam IA para expandir seus negócios; iii) expandirá seus cursos remotos e gratuitos de IA para 18 idiomas. Adrian Brown, diretor executivo do Centre for Public Impact - organização que irá conduzir o impulsionamento de habilidades junto à Google na Europa -, afirmou que o programa “ajudará pessoas em toda a Europa a desenvolver seu conhecimento, habilidades e confiança em relação à IA, garantindo que ninguém seja deixado para trás”, tendo em vista que pesquisas sobre IA evidenciam que o uso da tecnologia pode exacerbar desigualdades existentes [Aprofunde-se aqui].
Em 14.02, o TikTok anunciou que irá lançar, em março, centrais de eleições na União Europeia (UE), tendo em vista as eleições que ocorrem em junho para o Parlamento Europeu. De acordo com a empresa, os vídeos com conteúdo eleitoral serão rotulados e direcionarão os usuários para as centrais. Além disso, aos vídeos serão adicionadas mensagens incentivando as pessoas a seguirem as regras eleitorais, verificarem fatos e denunciarem conteúdos que violem as diretrizes da plataforma. O TikTok disse que conta com mais de 6 mil moderadores de conteúdo na UE - os quais recebem ferramentas e treinamento especificamente voltados à identificação e eliminação de materiais inadequados - e assegurou que 99% das publicações contendo desinformação foram removidas antes mesmo de serem denunciadas. No que se refere especificamente ao combate a interferências eleitorais geradas por inteligência artificial (IA), a plataforma afirmou que exige dos criadores desse tipo de conteúdo a rotulação dos vídeos. Por fim, com relação a contas de políticos, a empresa alegou que aplica políticas diferenciadas em prol do interesse público, ressaltando que esses perfis não podem realizar anúncios ou monetizar na rede social.
Em 15.02, o the Guardian publicou reportagem em que afirma que a Google tem dado menos informações aos editores quando remove conteúdo de seus resultados de pesquisa, com base nas regras da União Europeia (UE) de direito ao esquecimento. A postura começou a ser adotada após um tribunal sueco ter decidido que informar os autores do conteúdo removido seria uma violação de privacidade de quem solicitou o direito ao esquecimento. O Regulamento Geral sobre a Proteção de Dados (GDPR, na sigla em inglês) garante que as decisões das jurisdições nacionais da UE sobre proteção de dados criam precedentes em todo o bloco. Com a mudança, agora a empresa apenas informa aos editores que uma URL foi removida, sem detalhar qual conteúdo e quais os motivos. O the Guardian criticou a postura da Google sob o argumento de que isso impede que jornalistas identifiquem situações em que o direito ao esquecimento foi usado para ocultar matérias legítimas, bem como inviabiliza a contestação de abusos mais sérios da prerrogativa. Além disso, o jornal alega que, logo após a decisão do tribunal sueco, teve seis materiais removidos das versões europeias dos mecanismos de busca da Google. Entre eles, o jornal destacou i) uma matéria sobre um árbitro de futebol aposentado que teria mentido sobre suas razões para conceder um pênalti em uma partida; ii) um artigo sobre um advogado acusado de uma fraude; e iii) uma reportagem sobre trabalhadores franceses fazendo arte com post-its de escritório. Por fim, o veículo ainda aponta que, desde a decisão sueca, a Google já recebeu quase um milhão de pedidos com base no direito ao esquecimento. Apesar de ter rejeitado a maioria, ainda assim a empresa teria removido quase 1,5 milhões de URLs individuais.
Em 15.02, a OpenAI anunciou o lançamento do modelo de inteligência artificial Sora que promete criar vídeos realísticos a partir de comandos de texto. Segundo a empresa, a “Sora, nosso modelo de texto-para-vídeo pode gerar vídeos de até um minuto de duração, mantendo a qualidade visual e a fidelidade ao comando de texto”. Até o momento, o modelo está disponível apenas para membros da equipe de análise de riscos e danos, como especialistas em desinformação e conteúdo de ódio. A desenvolvedora também concedeu acesso para alguns artistas visuais, designers e cineastas a fim de obter feedback sobre como aprimorar o modelo e torná-lo mais útil para profissionais da indústria criativa. A OpenAI disponibilizou alguns exemplos de vídeos gerados pela Sora e dos comandos fornecidos pela empresa. Também disponibilizou relatório técnico no qual apresenta seu “método para transformar dados visuais de todos os tipos em uma representação que permite o treinamento em larga escala de modelos generativos e (2) sua avaliação qualitativa dos recursos e limitações do Sora”. Especialistas apontam para as consequências sociais e éticas que a ferramenta pode apresentar, como os riscos à democracia e ao processo eleitoral, por exemplo, pela criação e veiculação de conteúdos falsos. Kristian Hammond, professor de ciências da computação da Universidade de Northwestern especialista em IA, aponta que “a evidência da verdade que pensávamos ter com a fotografia e vídeo desparecem”.
Em 15.02, o NYU Stern Center for Business and Human Rights lançou o relatório “Riscos Digitais para as Eleições de 2024: protegendo a democracia na era da desinformação” (em inglês, Digital Risks to the 2024 Elections: Safeguarding Democracy in an Era of Disinformation). O relatório, dividido em quatro tópicos, argumenta que “a principal ameaça relacionada à tecnologia para as eleições deste ano [nos Estados Unidos] não vem da criação de conteúdos por meio da inteligência artificial, mas de uma fonte mais familiar: a distribuição de conteúdo falso, odioso e violento por meio de plataformas de rede social.” O estudo apresenta o que considera como os principais riscos digitais para as eleições, nos Estados Unidos (tópico 2) e em outras partes do mundo (tópico 3). O relatório apresenta, também, uma série de recomendações práticas às empresas de plataformas digitais e aos governos para a promoção da integridade dos processos eleitorais deste ano.
O I Seminário Internacional de Inteligência Artificial e Direito está com inscrições abertas, até 29.02, para submissão de trabalhos em grupos temáticos relacionados à Inteligência Artificial. O Seminário acontecerá nos dias 11, 12 e 13 de abril na Pontifícia Universidade Católica no campus do Rio de Janeiro (PUC-Rio). O evento visa explorar as intersecções entre inteligência artificial, direito e ética e é realizado pelo Departamento de Direito da PUC-Rio com fomento do Programa de Apoio a Eventos no País (PAEP) da Coordenação de Aperfeiçoamento de Pessoal do Nível Superior (CAPES). A participação nos seminários é gratuita e poderá ser feita pelo formulário, além dos seminários o evento conta com quatro grupos de trabalho: i) ética; ii) regulação; iii) responsabilidade; iv) aplicação prática, o edital para submissão de trabalhos pode ser acessado aqui.
A European Summer School on Internet Governance (EUROSSIG) está com inscrições abertas, até 29.02, para bolsas de participação na 18ª edição do evento, que acontecerá de 13.07 a 20.07 em Meissen, na Alemanha. O EuroSSIG, consiste em um curso que visa auxiliar pessoas interessadas (acadêmicos, profissionais do setor público e privado e do terceiro setor) a obter um conhecimento abrangente e estruturado sobre os aspectos variados da governança da Internet e a atualizar os participantes acerca das discussões mais recentes na temática. O calendário de atividades e os docentes podem ser conferidos aqui. As bolsas cobrem apenas a participação no evento, no entanto, o site informa que haverá auxílios para os custos da viagem a grupos prioritários, cujos critérios serão divulgados posteriormente.