Em 12.04, o Ministério da Justiça e Segurança Pública (MJSP) editou a portaria 351/2023, que estabelece diretrizes para a responsabilização das plataformas digitais em casos de veiculação de conteúdos que incentivem ataques ou façam apologia à violência nas escolas. A norma prevê a instauração de processo administrativo na Senacon para apurar a responsabilidade das empresas em relação ao "dever geral de segurança e de cuidado em relação à propagação de conteúdos ilícitos, danosos e nocivos". Além disso, determina que as plataformas devem avaliar e tomar medidas para mitigar riscos sistêmicos, adotar ferramentas para evitar a disseminação de novas ameaças, políticas de moderação ativa de conteúdo, assim como prestar informações sobre regras de seus sistemas algoritmos de recomendação.
Em 12.04, a Presidência da República promulgou a Convenção sobre o Crime Cibernético, assinada pelo Brasil em Budapeste em 23 de novembro de 2001. A convenção estabelece que os países adotem medidas legislativas para criminalizar condutas como a pornografia infantil e a violação de direitos autorais, além adotar outras medidas cabíveis para investigação e punição dos crimes previstos pelo acordo. Em 2022, o Itamaraty e o Ministério da Justiça divulgaram nota afirmando que o tratado permitirá que as autoridades brasileiras tenham acesso a provas de crimes obtidas no exterior.
Em 12.04, a Deputada Federal Nely Aquino (PODEMOS/MG) apresentou o PL 1798/2023, que dispõe sobre a proibição da divulgação de imagens, vídeos ou outras informações dos autores de massacres, terrorismo ou de tiroteios violentos. Na justificativa, a parlamentar elenca eventos recentes para pautar a relevância do tema e argumenta que a disseminação desse tipo de conteúdo pode gerar “efeito de contágio”, que tem o potencial de inspirar novos atentados.
Em 11.04, a Deputada Federal Luisa Canziani (PSD/PR) apresentou o PL 1785/2023, que busca alterar o Código de Telecomunicações (Lei nº 4.117/1962) e o Marco Civil da Internet (Lei nº 12.965/2014) para indisponibilizar conteúdos que permitam a identificação de autores de crimes com "potencial de causar comoção social", tanto em plataformas digitais como em veículos de mídia. Na justificativa, a parlamentar defende que a divulgação de informações dessa natureza possui um efeito multiplicador, podendo causar "glorificação do criminoso", de maneira a incentivar o cometimento de outros crimes.
Em 12.04, o Deputado Federal Rodrigo Gambale (PODEMOS/SP), apresentou o PL 1828/2023, que pretende autorizar a instalação de câmeras de reconhecimento facial nas estações ferroviárias e rodoviárias, no interior dos vagões das composições, em vias públicas e repartições públicas em todo o território nacional. Na justificativa, o parlamentar argumenta que a presença de câmeras tem o potencial de inibir ações criminosas e cita a LGPD para sustentar que seria possível implantar, no sistema de vigilância por câmeras, programas decodificadores que protegeriam os dados dos usuários. Sugere, portanto, que a implementação dessa tecnologia promoveria a segurança pública, sem prejuízo à proteção de dados pessoais.
Em 07.04, o governo indiano aprovou uma emenda na sua lei de TI (o Information Technology Act, de 2000) que proíbe redes sociais de veicular, hospedar ou compartilhar informações falsas ou enganosas sobre "qualquer negócio" do governo. As empresas agora serão obrigadas a depender da unidade de verificação de fatos (fact-checking) vinculada ao governo para determinar a autenticidade de qualquer reivindicação. Diversos ativistas de direito digital na Índia apontaram o efeito inibidor da medida ao direito fundamental à liberdade de expressão, especialmente em relação a editores de notícias, jornalistas, ativistas, etc. Ainda, a medida foi criticada por colocar unicamente nas mãos do governo indiano o poder de determinação do que constitui desinformação, podendo resultar na censura às publicações na internet. O Ministério da Eletrônica e TI afirmou que as regras já existentes exigiam que intermediários fizessem "esforços razoáveis para não hospedar, veicular ou compartilhar informações que sejam patente e claramente falsas ou enganosas por natureza".
Em 11.04, o principal órgão regulador da internet da China, CAC (Cyberspace Administration of China), apresentou uma proposta com medidas para regular serviços de inteligência artificial semelhantes ao ChatGPT. A proposta, ainda em elaboração e aberta ao comentário público, estabelece que as empresas deverão enviar avaliações de segurança às autoridades antes de lançar seus serviços, além de estabelecer a responsabilidade das empresas pelo conteúdo gerado pela IA. Segundo a Época, “os conteúdos gerados não deverão conter elementos que possam subverter o poder do Estado, incitar secessão ou perturbar a ordem social”. A medida surgiu após uma série de gigantes de tecnologia chineses, incluindo Baidu, SenseTime e Alibaba, terem apresentado recentemente seus novos modelos de inteligência artificial, que podem alimentar desde chatbots até geradores de imagens. Ainda, segundo a Reuters, a CAC afirmou que o conteúdo gerado por GAI (inteligência artificial generativa, ou algoritmos, capazes de gerar conteúdo aparentemente novo e realista - como texto, imagens ou áudio - a partir dos dados de treinamento) deve estar alinhado com os "valores socialistas fundamentais" do país. De acordo com a proposta, os provedores serão responsáveis pela legitimidade dos dados usados para treinar produtos de GAI, e deverão atualizar a tecnologia em até 3 meses caso ocorram instâncias de conteúdo inapropriado. Em março de 2022, a China já havia regulado o uso de algoritmos e sistemas artificiais por meio das Provisões de Gerenciamento de Serviços de Informação na Internet e Recomendação Algorítmica.
Em 13.04, o Comitê Europeu para a Proteção de Dados anunciou o lançamento de uma força tarefa para fomentar a cooperação e troca de informações entre autoridades nacionais europeias sobre a aplicação da legislação europeia de proteção de dados ao ChatGPT e à OpenAI, sua fabricante. A medida ocorre após diversos reguladores europeus solicitarem maior coordenação na aplicação da legislação europeia de proteção de dados à nova tecnologia. No dia anterior ao lançamento da força tarefa, a autoridade italiana de proteção de dados anunciou que poderá suspender as restrições que havia imposto ao ChatGPT quanto ao tratamento de dados de usuários italianos. A autoridade afirmou que a suspensão das restrições ocorrerá caso a OpenAI implemente medidas quanto à transparência, à garantia de direitos dos titulares de dados (tanto usuários quanto não usuários) e à base legal para o tratamento de dados pessoais. A empresa deverá disponibilizar em seu site informações sobre o tratamento de dados pessoais pelo ChatGPT, implementar medidas de controle de idade de usuários, usar as bases legais de consentimento ou de legítimo interesse para o tratamento de dados, criar ferramentas para que os titulares de dados possam exercer seus direitos, implementar ferramentas para a proteção de crianças e adolescentes e promover uma campanha de conscientização pública sobre o uso de dados pessoais para o treinamento de inteligência artificial.
Em 08.04, a polícia do Irã anunciou que vai instalar câmeras com tecnologia de reconhecimento facial em locais e vias públicas para identificar e punir mulheres que não respeitarem a legislação de vestimenta, como o uso de véu. A polícia afirmou que as infratoras receberão mensagens de texto contendo as provas da violação da lei e informando sobre as consequências da reincidência, que incluem apreensão de veículo e possibilidade de processo judicial. A nova medida ocorre em meio a um aumento no número de mulheres que infringem propositalmente a legislação de vestimenta após a morte de Mahsa Amini sob a custódia da polícia iraniana, presa por usar seu hijab de maneira inadequada.
Desde 04.04, o Twitter alterou a descrição dos perfis da BBC e da NPR com rótulos sugerindo a ligação das emissoras com o Poder Público. Ambas se pronunciaram publicamente contra as classificações, que afirmam não capturar corretamente sua estrutura de governança e financiamento. Em entrevista à BBC, o dono da plataforma, Elon Musk, afirmou que fez a mudança porque o Twitter está "tentando ser preciso". A BBC foi rotulada inicialmente como "mídia financiada pelo governo" e, após protestos, o Twitter aceitou alterar a marca para “fundada publicamente”. A NPR, por sua vez, havia sido classificada como “mídia afiliada ao Estado”, rótulo que foi contestado e alterado posteriormente para “mídia financiada pelo governo”. No entanto, no caso da NPR, que continua sendo definida pela plataforma como "financiada pelo governo", a emissora optou por abandonar a plataforma digital no dia 12.04 devido à mudança, após afirmar que seus reiterados pedidos pela correção do título foram ignorados pelo Twitter. Em seu último post, a NPR afirmou que “produz jornalismo consequente e independente todos os dias em serviço ao público”, fornecendo os links para suas outras redes sociais.
Em 12.04, a Coalizão Direitos na Rede (CDR) publicou uma nota técnica sobre o conjunto de sugestões do Governo Federal para o Projeto de Lei 2630/2020, conhecido como “PL das Fake News”. A CDR elogia a abertura do governo em dialogar após apresentar a proposta de mudanças ao PL, afirmando que “a interlocução com um leque ampliado de atores e atrizes é fundamental para construir uma proposta de regulação que abarque as distintas camadas de complexidade da regulação do ecossistema online”. Por outro lado, critica a importação sem adequação de dispositivos estrangeiros e a falta de consideração por usuários brasileiros. A nota trata de temas que a CDR julga prioritários e que a respeito dos quais considera necessário haver mais debate: o dever de cuidado; o modelo regulatório; a auto-regulação; questões de privacidade, vigilância e criptografia, de transparência, de imunidade parlamentar e de remuneração do jornalismo. A CDR ainda ressalta a centralidade do Marco Civil da Internet para um modelo de responsabilidade de intermediários e afirma que a adoção de novos modelos não pode ser feita às custas dos direitos dos usuários da internet.
Em 11.04, o instituto “AI Now” publicou o relatório “Confronting Tech Power”, em que apresenta estratégias políticas para enfrentar a concentração de poder na indústria tecnológica. O documento sugere que respostas políticas que não abordam de forma significativa as discrepâncias de poder devem ser abandonadas em favor de reformas políticas, a serem combinadas com intervenções como ação coletiva e organização dos trabalhadores. O instituto afirma que a pretensão é de que o relatório sirva de orientação estratégica para moldar a trajetória futura da inteligência artificial, de forma a assegurar que essa tecnologia sirva ao público.