Novo Projeto de Lei das Fake News 3063/2020: 10 pontos que merecem atenção antes de qualquer votação
O que o legislativo brasileiro não pode desconsiderar ao tratar de um PL sobre a possível desinformação na Internet.
Em 02 de junho de 2020 foi apresentado um novo Projeto de Lei que institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. A norma projetada destina-se às redes sociais e serviços de “mensageria privada” que ofertam serviços de Internet, com o escopo de desestimular o abuso ou a manipulação destes, dando causa a danos individuais ou coletivos.
Não se aplica ao provedor de aplicação de redes sociais com menos de dois milhões de usuários registrados. Logo, é evidente o foco da Legislação para grandes aplicações como Twitter, Facebook, WhatsApp, Instagram e outros grandes serviços populares no Brasil e mundo, campos de batalha digital em período eleitoral. Sua aplicabilidade também se dá a empresas estrangeiras, desde que haja pelo menos uma integrante do grupo econômico presente no Brasil.
Os objetivos são contemplados no artigo 3 o ., como o fortalecimento do processo democrático com base no combate ao comportamento “inautêntico”, distribuição artificial de conteúdo e fomento à diversidade de informações. Em seu artigo 4º, define o que seria uma conta “inautêntica”, conta essa, criada ou usada com o propósito de assumir identidade inventada ou de terceiros para enganar o público, ressalvados o direito à pseudonímia, bem como o explícito ânimo humorístico ou de paródia. Do mesmo modo, descreve o que seriam “contas automatizadas”, como contas geridas por qualquer programa de computador ou tecnologia para simular, substituir ou facilitar atividades humanas na distribuição de conteúdo em aplicações de internet ou aquelas geridas por ação preponderantemente humana e que complementam a atuação automatizada da conta, ainda que esporadicamente.
A legislação projetada preocupa-se com a criação de “redes de distribuição artificial”, caracterizadas como sendo um comportamento coordenado e articulado de contas automatizadas ou por tecnologia não fornecida pelo provedor de aplicação, com o fim de implantar de forma artificial a distribuição de conteúdos.
No artigo 5º, simplesmente informa que os provedores de aplicação de internet deverão adotar medidas para vedar contas inautênticas, contas automatizadas cujo caráter automatizado não foi comunicado aos referidos provedores. Ainda, em seu artigo 6 o , inclui diversas atividades e deveres para as redes sociais, dentre as quais medidas que demandam levantamento de dados
excessivos e desnecessários para o efetivo combate às Fake News. Chega a anotar como obrigatório relatório com o “número total de redes de distribuição artificial” detectadas. Ora, será preciso uma perícia em informática acurada, e ainda assim, receia-se que será temeroso demais às redes sociais terem que rotular um grupo de perfis como uma “rede de distribuição artificial”.
O usuário passa a ter o direito de ser notificado pela própria rede social, sempre que ocorrer um processo de análise de conteúdos e contas violadoras. Este poderá, nos termos do art. 8º, contestar eventual denúncia de conteúdo irregular. Do mesmo modo, são previstos recursos das decisões, nos termos do art. 9º do Projeto de Lei.
A norma assegura que em caso de conteúdos que tenham sido equivocadamente identificados como irregulares ou violadores dos padrões do provedor de aplicações, caberá ao mesmo reparar o dano, informando o erro de maneira destacada e garantindo a exposição da correção, no mínimo, aos usuários inicialmente alcançados. Caso ocorra a revisão judicial de conteúdo tornado indisponível, assegura em seu art. 11 que a rede social deverá substituir o conteúdo tornado indisponível pela ordem judicial que deu fundamento à correção. Destaca-se que a nova versão do PL veda a indisponibilização de conteúdos com fundamento na própria lei, exceto em casos de decisão judicial.
Interferindo nos serviços de mensagens privadas, o regulamento ainda tenta limitar o número de encaminhamentos de mensagens a usuários e grupos e o número de membros dos mesmos. Diante do art. 14, o Telegram, por exemplo, encontrará um problema no seu modelo de negócios, permitindo grupos com centenas de usuários. O usuário deverá sempre dar permissão
prévia antes de receber uma mensagem de serviço de comunicação em massa nos mensageiros, o que impõe também medidas técnicas por parte de inúmeros aplicativos.
Proíbe-se, no artigo 15, o uso e a comercialização de ferramentas externas aos provedores de aplicação de mensageria privada, voltadas ao disparo em massa de mensagens. Esta questão pode interferir em inúmeros negócios lícitos hoje existentes, macros, automatizadores, chatbots e outros recursos. Muitas ferramentas não tem como fim “o envio” de mensagens em massa, mas possuem a função, para usuários cadastrados e sem qualquer finalidade de espalhe de Fake News.
Percebe-se, por parte do legislador, igualmente, uma tentativa de se “descobrir à fórceps” quem começou uma corrente de possível “Fake News” nos serviços de mensageria privada, uma vez que o artigo 17 estabelece que o provedor de aplicação que apresenta funcionalidade e o reencaminhamento similar de conteúdos, deve guardar os registros da cadeia de
reencaminhamentos até sua origem, pelo prazo mínimo de 1 (um) ano, resguardada a privacidade do conteúdo das mensagens, podendo esses registros ser solicitados mediante ordem judicial nos termos da Seção IV da Lei 12.965 de 2014. A norma, no entanto, não trata explicitamente da proibição de novos compartilhamentos de conteúdos indevidos, a partir da extração de metadados dos arquivos e seu cheksum, medidas aliás determinadas em alguns casos judiciais no país.
Em relação aos conteúdos impulsionados, os usuários passam a ter direitos, dentre os quais, o de saber quais as fontes de informação e quais os critérios utilizados para a definição de público alvo do conteúdo que teve contato. Basicamente, repisando parte do que já era disposto na Lei 12.965 de 2014, a Lei projetada destina sete artigos para tratar da atuação do Poder Público, que deverá incluir capacitação para o uso consciente da internet e deverá realizar campanhas sobre a importância do combate ao comportamento inautêntico na Internet.
As penalidades para o descumprimento estão previstas no artigo 29 do projeto e não excetuam sanções civis, criminais ou administrativas. As penalidades são advertência, multa e suspensão temporária das atividades. Nesta versão, não existe a penalidade de proibição das atividades.
Caberá, ainda, ao Comitê Gestor da Internet do Brasil, definir um grupo de trabalho multissetorial que deverá estabelecer proposta legislativa que conceitue “conteúdo desinformativo”, bem como apresentar as formas de combate a desinformação a partir de boas práticas internacionais em estudo. Este grupo multissetorial teria 1 (um) ano, a partir da publicação da Lei, para apresentar a proposta.
Passa a ser considerada violação à Lei de Improbidade Administrativa o fornecimento de acesso às contas de redes sociais de órgãos públicos à administradores externos ou que não tenham relação contratual com a administração pública, e também o emprego de recursos públicos para condutas que violem a Lei Brasileira de Liberdade, Responsabilidade e Transparência na
Internet (Art. 11, XI e XII).
Do mesmo modo, a Lei das organizações criminosas (12.850) é alterada para também abranger às organizações formadas para a criação e ou operação de contas inautênticas, contas automatizadas não identificadas e ou redes de distribuição artificial não identificadas por meio do emprego de recursos financeiros e técnicos que praticam ilícitos.
Por fim, a norma exige que as redes sociais e mensageiros nomeiem mandatários judiciais no Brasil, aos quais serão dirigidos os atos processuais decorrentes desta Lei. Feito este resumo dos principais pontos do novo PL, ao qual está se impingindo um ritmo desproporcional à atenção que um projeto desta natureza merece, elencamos 10 (dez) pontos de atenção e consideração, antes de qualquer votação e que demandam esclarecimentos sob pena de consequências gravíssimas:
1) Existe grande risco a aplicativos que não usam contas automatizadas, mas utilizam tecnologias conectadas às redes sociais, uma vez que podem ser consideradas “rede de distribuição artificial”. Como se avaliará a finalidade destes aplicativos? Quem definirá o que realmente é conteúdo artificial? Como as redes farão este papel?
2) As medidas para a vedação de contas “automatizadas” previstas no artigo 5º da legislação são genéricas, não definidas, onerosas e podem implicar na exclusão de conteúdos e perfis legais, isto porque um perfil real ou serviço poderá automatizar alguma tarefa em redes sociais e sem finalidade de praticar desinformação, o que poderá gerar um falso positivo nos registros da rede social.
3) As medidas para a verificação de contas inautênticas já existem hoje em grande parte das redes sociais, porém, não existe o monitoramento prévio, o que é salutar, e somente quando provocado judicialmente os provedores agem em respeito às disposições do Marco Civil da Internet. O Twitter, por exemplo, faz um questionário prévio antes liberar acesso à sua API. Medidas automatizadas poderão implicar em remoções de perfis legítimos, para pesquisas ou autorizados pelas pessoas reais e na limitação de direitos.
4) O relatório de dados que os provedores de aplicação deverão produzir a cada três meses possuem dados excessivos e desnecessários. Como as redes sociais poderão identificar “redes de distribuição artificial”? Qual critério? Qual metodologia e parâmetros para estas conclusões? Como aplicar na prática esta disposição legislativa?
5) Como uma rede social irá lidar com contestações e recursos de pessoas envolvidas em processos de notificação irregular? A rede social passará a julgar conteúdos? Quais as responsabilidades de um julgamento que exclua liberdade de expressão ou opinião? Não se está criando redes policialescas?
6) Como ficará a responsabilidade das redes sociais, a partir da inserção do art. 13 da Lei da Responsabilidade na Internet, quando algoritmos automaticamente reduzirem alcance de conteúdos ou removerem os mesmos? O artigo estabelece que é vedada a indisponibilização de conteúdo com fundamento nesta Lei, exceto por decisão judicial específica e fundamentada.
7) Ao proibir sistemas não oferecidos pelos mensageiros e que permitem o disparo de mensagens em massa, como lidar com serviços legais oferecidos por chatbots por exemplo, onde é possível enviar “broadcasts” aos usuários que optaram por receber os
referidos conteúdos? É possível considerar todos os serviços de disparo em massa como ilegais? E se o usuário concordou com o recebimento?
8) Como estender o conceito de “registros de acesso à aplicação” definidos no Marco Civil da Internet, para englobar também os tais “registros de cadeia de reencaminhamento” previstos na legislação projetada? O que seria este registro? Quais campos o compõe? Estaríamos tratando de data, hora, ip, número telefônico e fuso horário em ordem crescente dos encaminhamentos, desde a primeira publicação no serviço ou mensageiro? Quais os riscos à privacidade dos usuários?
9) Como interpretar um conteúdo desinformativo, se o grupo multissetorial que irá definir seu conceito, terá um ano, após a edição da norma, para defini-lo? Como se produzirá a prova de improbidade administrativa para identificar que agentes públicos cederam a administração de redes sociais a terceiros sem contratos com a administração pública?
10) Como definir “desinformação” de forma clara e justa? Como não tratar usuários de internet como potenciais infratores?
Não há dúvidas que a estas primeiras questões, muitas outras são acrescentadas por associações, entidades de Direito Digital, peritos em informática, cientistas da informação, provedores de aplicações, pesquisadores e sociedade em geral.
Como se verifica, o Projeto de Lei retirado de pauta (2630/2020) trazia uma série de questões polêmicas e exigência de dados excessivos, como documentos de identidade para criação de perfis, além de enaltecer a responsabilização das plataformas, o que confrontava o Marco Civil da Internet e poderia estimular as redes a controlarem conteúdos das redes sociais e ampliar a censura.
Não obstante, a nova proposta, mais amena, também apresenta riscos e pontos que dependem de esclarecimentos e maior tempo de análise, e como concebida, ao obrigar as redes a classificarem e detectarem quem é bot e quem não é, pode gerar um ambiente perigoso e ainda mais nocivo a direitos e garantias fundamentais. Um projeto, com tantos pontos a serem esclarecidos, como o presente, não pode, de forma alguma, tramitar à toque de caixa. Um amplo debate, que enfrente os quesitos aqui levantados, com dilatada participação da sociedade civil, é fundamental. Trata-se, aqui, de um tema sensível a todos, como impactos diretos em direitos e garantias fundamentais. A pressa é inimiga, e poderá culminar em graves consequências à inovação, liberdade de expressão e informação e a outros direitos.