Investigação forense e perícia digital em deep fakes de áudios e conteúdos criados com Inteligência Artificial

O uso das deepfakes para fins ilícitos

O surgimento da Inteligência Artificial (IA) generativa, traz em si inúmeros desafios para a sociedade, abrindo um leque de opções para criminosos e fraudadores digitais. Em um ambiente de contratações online onde imagem, vídeo e áudios podem expressar manifestações de vontade, fatos ou ações, as novas possibilidades da IA generativa acendem o alerta de pessoas e autoridades.

A exemplo, em  uma guerra eleitoral digital, já tem notícias de deepfakes colocando políticos e figuras públicas em situações embaraçosas, seja um vídeo em um contexto inexistente ou mesmo uma mensagem de áudio comprometedora.

Tal evolução tecnológica e, logicamente, o seu uso para más finalidades, vem demandando atenção do mundo todo sob o prisma regulatório. Enquanto a legislação amadurece, surgem inúmeros casos em que perícia digital precisará enfrentar o desafio de dar respostas sobre a suposta criação de um conteúdo por inteligência artificial ou não.

A guerra eleitoral com o uso do armamento “IA”

A falsificação de áudios em vídeos reais podem representar danos a um processo eleitoral ou responsabilizar pessoas de forma indevida. Nos Estados Unidos (EUA), por exemplo, um áudio com a voz do Presidente Joe Biden instigou os eleitores a não votarem nas eleições primárias de um estado-chave.

Os próximos anos serão marcados pelo uso de deepfakes e IA para criar conteúdo sintético e ofensivo em redes sociais, o que demandará a atuação de assistentes técnicos forenses e peritos digitais, no esclarecimento da verdade, em contribuição com a verdade técnica em casos judiciais e corporativos.

A facilidade em gerar e influenciar com deep fakes de áudio

Se antes peritos utilizavam técnicas para detectar adulterações em áudios e conteúdos reais, o desafio agora é detectar não uma mera modificação que deixa rastros, mas uma criação a partir de prompts e parâmetros, de um conteúdo realístico, de difícil detecção e sintético.

Pesquisas recentes [1], revelam que metade das pessoas não conseguem fazer distinção entre conteúdos gerados por IA e conteúdos reais, gerando assim uma exploração por parte dos criminosos para gerar conteúdos ofensivos e ilícitos. Uma preocupação especial está nos áudios sintéticos “cheapfakes”, que são mais fáceis e baratos de serem produzidos.

Estes áudios podem ser compartilhados através de whatsapp, comunicadores, ou mesmo serem reproduzidos em ligações telefônicas que podem ser “gravadas”, e até mesmo motivar decisões equivocadas, investigações e processos judiciais e administrativos indevidos.

As técnicas de produção de áudios sintéticos são mais avançadas, por outro lado, é mais difícil ao cidadão detectar manipulações, como nos vídeos com sobreposição de voz. Além disso, a perícia técnica nestes arquivos depende de inúmeros fatores, a exemplo, se o áudio está trafegando por um aplicativo ou rede social, certamente já perdeu seus metadados, e então sobraria a conhecida fonética forense, com análises que dependem de coleta de amostras de voz, análise de waveforms, análise espectral, dentre outras, que podem indicar dísticos de emendas digitais ou manipulações.

Times digitais para combater uso ilícito da IA e regulamentações

Empresas, personalidades e comitês de campanha eleitoral precisam de monitoramento contínuo nas eleições futuras. As ferramentas de IA poderiam denunciar a autoridades solicitações de gerações suspeitas, o que não garantem que assim o façam, considerando que alguém pode usar uma ferramenta no Japão para gerar um conteúdo ofensivo no Brasil, o que passaria despercebido pelos “detectores”.

As empresas de fact check precisam de peritos forenses digitais para auxílio e análises de conteúdos, de modo a desmistificar conteúdos antes que ganhem escala nas redes e influenciem decisões, até mesmo perigosas. Ferramentas como ElevenLabs, Resemble AI, Respeecher e Replica Studios, permitem gerar áudios ou clonar voz em poucos cliques.

Neste sentido, a mera “suspeita instintiva” de se tratar de IA na manipulação de áudio não pode servir de base para descaracterizar ou descredenciar a autenticidade de um conteúdo, usado como prova de um crime, infração, ou de um fato. É necessário que a perícia digital em IA e áudios atue neste processo, realizando análises fonéticas, de metadados e demais análises aplicáveis, a depender da amostra.

As empresas e comitês precisam de canais para recebimento de supostos vídeos e áudios ligados à Inteligência Artificial, para que possam ser analisados. A popularização da viralização, pode ser conferida em sites analisadores, como BuzzSumo. Os regulamentos e normas precisam enfrentar o uso da IA para más finalidades, como nos Estados Unidos, onde a Comissão Federal de Comunicações proibiu o uso da IA em chamadas automáticas [2].

Como a perícia digital em deepfakes e inteligência artificial podem atuar

Além das análises realizadas a partir de amostras de voz, algumas plataformas já desenvolvem tools que auxiliam ou ao menos já  detectam a IA desenvolvida em seu ambiente, em prestígio a ética e responsabilidade no uso da IA com oSpeech Classifier da Eleven Labs [3]. Outros detectores úteis são AIorNot, que pode ser utilizado para detecção de imagens e também de áudios sintéticos.

Outras tools proprietárias já permitem integrar em sistemas via API, para detectar falas falsas geradas a partir da IA, como o caso da Loccus.ai [4]. A Reality Defender é outra empresa dedicada à detecção de falsidades geradas com a IA [5]. O Ai Voice Detector, também oferece um serviço de detecção online [6]. Sensity também é uma ferramenta a se  considerar [7]. As análises devem ser somadas à investigação cibernética, envolvendo análise WHOIS (informações) do site que hospeda um conteúdo, quebra de sigilo dos perfis que divulgam conteúdos e análises de ondas sonoras com ferramentas como Audio Mass [8] na identificação de pontos de criação, além da análise de metadados, que pode indicar os tags do programa AI generator na estrutura dos arquivos além das datas de acesso, criação e modificação. Se a voz é gerada por IA, as ondas sonoras provavelmente serão muito claras e semelhantes entre si, porque a geração de som por IA é essencialmente um processo de desenho de som. Por outro lado, gravações de áudios criados por uma pessoa, tendem a soar mais naturais com variações.

Conclusões

Deste modo, os desafios da perícia de detecção de áudios com deepfakes, passa pela suficiência da amostra, sanitização ou manutenção de metadados,e identificação de padrões dos geradores, o que impede que esta seja uma perícia com apenas uma metodologia.

Em tal ambiente, a “análise multimodal” tem sido considerada pela perícia como a mais adequada, envolvendo análise de múltiplas fontes de dados e metadados e do contexto de canais de transmissão, aliado a análises de percepção humana, de modo a se buscar responder o ponto controvertido e que muito ecoará nos próximos anos: Este conteúdo é real ou feito com Inteligência Artificial?

A perícia precisa se atualizar e se valer de técnicas, ferramentas e principalmente dos algoritmos de aprendizado de máquina que estão se atualizando para auxiliar na detecção e análises de deepfakes e que poderão ser aplicados por perito digital em IA,  aprender padrões e características destes conteúdos sintéticos, bem como automatizar processos de análises periciais envolvendo conteúdos questionados por seus autores ou interlocutores.

Como contratar um perito em inteligência artificial e detecção de deepfakes?

A CyberExperts é consultoria especializada em computação forense, inteligência cibernética, perícia e auditorias em informática e inteligência artificial, sendo referência em perícia digital e em informática. Atuamos preventivamente ou em processos administrativos ou judiciais, para empresas, fintechs, órgãos de pesquisa e órgãos públicos, politicos, na coleta, preservação e análise de evidências digitais, por meio de um rol de peritos com notória experiência profissional. Realizamos auditorias independentes de maturidade de controles de segurança digital e compliance de Inteligência Artificial. Profissionais com as principais certificações internacionais. Fale conosco (11) 3254-7616 ou acesso www.cyberexperts.com.br.

Fale conosco

Tem dúvidas? Envie seu comentário ou sugestão para [email protected] e não se esqueça de se inscrever no  Youtube (http://www.youtube.com/josemilagre) ou pelo instagram (@dr.josemilagre).

JM Advocacia: www.direitodigital.adv.br Instragram: @direitodigital.adv.br

José Milagre & Advogados

É um dos nomes mais lembrados no Brasil na advocacia de direito digital e crimes cibernéticos. Diretor de Forense Digital e Resposta a Incidentes da CyberExperts, especializada em investigação forense de fraudes e golpes online e com criptomoedas. Advogado e Perito Especialista em Segurança Digital, Resposta a Incidentes e Crimes Cibernéticos. Certificações CIPM, CDPO IAPP, DPO EXIN, ISO 27701 Lead Implementer PECB, Graduação em Análise de Sistemas, Pós-graduado em Gestão de Tecnologia da Informação. Mestre e Doutor em Ciência da Informação pela Universidade Estadual Paulista UNESP, Presidente da Comissão de Direito Digital da OAB Barueri/SP.

NOTAS

[1]https://bpb-us-w2.wpmucdn.com/sites.northeastern.edu/dist/f/4599/files/2023/10/report-1017-2.pdf

[2]https://www-sfchronicle-com.translate.goog/news/politics/article/alert-fcc-outlaws-ai-generated-voices-in-18655936.php?_x_tr_sl=en&_x_tr_tl=pt&_x_tr_hl=pt-BR&_x_tr_pto=sc&_x_tr_hist=true

[3]https://elevenlabs.io/ai-speech-classifier0

[4]https://www-loccus-ai

[5]https://www-realitydefender-com

[6]https://aivoicedetector.com/

[7]https://sensity-ai

[8]https://audiomass.co/




A importância do compliance jurídico na tokenização de imóveis

O compliance Jurídico na tokenização de imóveis é essencial para garantir que transições e negócios sejam realizados de acordo com as leis e regulamentos aplicáveis no território nacional, devendo também abordar questões como a proteção dos investidores, a transparência na informação, a segurança dos dados e a responsabilidade das partes envolvidas no processo.

Em termos gerais, tokens são unidades digitais de valor, que existem como entradas de registro em uma blockchain, na qual são passíveis de transferência de modo descentralizado. É uma abordagem inovadora que oferece uma maneira nova e eficiente de investir em propriedades imobiliárias, ou seja, ao invés de comprar uma propriedade inteira, os investidores podem adquirir pequenas participações, chamadas “tokens”, em um portfólio de propriedades selecionadas. Essa técnica permite que investidores diversifiquem seus investimentos e reduzam seus riscos.

Sendo um método inovador que envolve a conversão de ativos imobiliários em tokens digitais que permite a divisão e a negociação fracionada, o compliance jurídico obtém um papel crucial, já que garante que todas as operações relacionadas à tokenização imobiliária estejam em conformidade com os regulamentos e Leis aplicáveis, isso inclui questões relacionadas à segurança jurídica das transações, proteção de investidores e prevenção de lavagem de dinheiro.

O Rio Grande do Sul, em Novembro de 2021 estabeleceu-se regulamento acerca da Tokenização por meio do Provimento n°38/2021, que estabelece os requisitos para validade:

I- Declaração das partes de que reconhecem o conteúdo econômico dos tokens/criptoativos objeto de permuta, especificando no título o seu valor.

II- Declaração das partes de que o conteúdo dos tokens/criptoativos envolvidos na permuta não apresenta direitos sobre o próprio imóvel permutado, seja no momento da permuta ou logo após, como conclusão do negócio jurídico representado no ato;

III- Que o valor declarado para os tokens/criptoativos guarde razoável equivalência econômica em relação à avaliação do imóvel permutado.

IV- Que os tokens/criptoativos envolvidos na permuta não tenham denominação ou endereço (link) de registro em blockchain que deem a entender que seu conteúdo se refira aos direitos de propriedade sobre o imóvel permutado.

Por mais que o provimento não seja uma legislação completa, ele possibilitou que os tabeliães de notas do Estado lavrassem escrituras públicas de permuta de bens imóveis com contrapartida de tokens/criptoativos, mediante a condições.

Iniciativas interessantes como a Pixway, revelam o surgimento de Startups e negócios prontos para tokenizar os mais diferentes setores de ativos. A Pixway funciona como uma espécie de cartório digital, ou seja, companhias emitem certificados de origem das obras de imóveis e as registram no Blockchain.

Dentre os inúmeros benefícios, a tokenização de imóveis traz maior liquidez, possibilidade de maior circulação, compra de frações, maior controle, celeridade, menor burocracia e tudo com base em um smart contract administrável e de modo centralizado, com tokens representando frações de um ativo, e com isso, garantindo ao titular a utilidade de exercer direitos obrigacionais e outros benefícios.

Por mais que a tokenização imobiliária proporcione uma diversidade de benefícios e inovações para investidores, é crucial reconhecer e avaliar os riscos, podendo ser ele riscos de mercado, riscos de segurança cibernética, riscos de liquidez, riscos operacionais e riscos regulatórios.

A volatilidade do mercado imobiliário pode acabar afetando os valores de ativos gerados, ou seja, mudanças nas condições econômicas ou políticas podem impactar negativamente o desempenho dos investimentos, como também a falta de regulamentação adequada que proteja os ativos de cibercriminosos.

Embora a liquidez seja uma das maiores vantagens da tokenização, a capacidade de vender tokens rapidamente pode ser prejudicada por condições atuais de mercados desfavoráveis ou pela falta de demandas por ativos específicos, incluindo questões de transparência e custódia de ativos.

Ao entender os benefícios e os riscos, investidores podem tomar decisões mais minuciosas e analisar se o seu investimento é apropriado para a tokenização.

Com a intenção de expandir a tokenização de imóveis, a Netspaces, uma startup de digitalização, lançou o programa “Sandbox da Propriedade Digital”, com o objetivo de preparar o mercado para as transações imobiliárias digitais. O projeto consiste na preparação de um novo mercado influenciado pela chegada do real digital (DREX), que foi apresentado pelo Banco Central do Brasil e que irá possibilitar a criação e execução de contratos inteligentes em transações de imóveis.

Tokenização não é hype, é realidade! E enganam-se aqueles que acreditam que é ilegal ou inviável no Brasil. Apesar da legislação ultrapassada, arranjos e planejamento jurídico especializado por advocacia especializada em criptoativos permitem e estão pavimentando estradas para projetos cada vez mais incríveis e rentáveis, em um mercado que crescerá milhões nos próximos anos.




Perito em inteligência artificial e Deep Fakes: A importância da prova técnica em questões jurídicas envolvendo IA

Introdução

O crescimento da inteligência artificial generativa, conectada a redes neurais e constituindo-se sistema inteligência para, a partir de aprendizado de máquina, construir sentenças, inferências e tomar decisões, com destaque para o ChatGPT, vem gerando uma revolução social, considerando os inúmeros benefícios do uso da Inteligência Artificial (IA) nos diversos setores comerciais e área do conhecimento.

Por outro lado, o uso para práticas de crimes vem preocupando autoridades e legisladores em todo o mundo. Europa, Estados Unidos e Brasil discutem a regulamentação da Inteligência Artificial.

Alia-se à Inteligência artificial, inúmeros sistemas de Deep Fakes, capazes de simular falas, gestos e ações, a partir de trechos de áudio, fotos ou vídeos de pessoas. No Brasil e em diversos países, inúmeras pessoas passam a ser vítimas de golpes, fraudes e crimes com uso indevido de áudios e imagens, inseridos em contextos criminosos. Com isso, cada vez maior será a demanda do Judiciário ligada a problemas e crimes praticados com uso da IA. Denota-se assim a necessidade do perito em Inteligência artificial, para solucionar as principais controvérsias que surjam em casos ligados à IA e seus usos nocivos.

Usos indevidos da IA e o papel do perito em sistemas de inteligência artificial

A inteligência artificial possui inúmeras vantagens e como visto, pode transformar o mundo nos próximos anos, no entanto, inúmeros desafios jurídicos surgem do possível uso indevido da tecnologia. Dentre os riscos jurídicos estão:

Responsabilidade Civil: Se um sistema de IA causa danos a pessoas ou propriedades devido a erros, falhas ou decisões inadequadas, discute-se a questão da responsabilidade civil. Determinar quem é responsável por tais danos, seja o desenvolvedor, o usuário ou outro envolvido, pode ser complexo e pode demandar a atuação de um perito em inteligência artificial

Violação de dados pessoais: O uso de IA em análise de dados pessoais pode levar a preocupações com a privacidade. Se algoritmos de IA processarem informações pessoais de maneira inadequada ou não autorizada, pode haver violações de leis de proteção de dados. O perito em inteligência artificial e proteção de dados poderá atuar na análise do suposto incidente, determinando as causas e os fatores.

Discriminação e Viés: Algoritmos de IA podem herdar preconceitos presentes nos dados de treinamento, resultando em decisões discriminatórias. Isso pode levar a questões legais relacionadas à igualdade, diversidade e direitos civis. A prova técnica e simulações para verificar se realmente ocorre discriminação poderá ser realizada pelo perito digital.

Segurança Cibernética: Sistemas de IA são suscetíveis a ataques cibernéticos. Se informações sensíveis forem comprometidas devido a falhas de segurança em sistemas de IA, pode haver implicações legais relacionadas à proteção de dados. Coletar evidências sobre um suposto incidente e compreender a extensão do dano é papel do perito digital em inteligência artificial.

Propriedade Intelectual e direitos autorais: A questão da propriedade intelectual pode surgir no desenvolvimento de algoritmos de IA. Quem detém os direitos autorais sobre o código-fonte ou os dados usados no treinamento do modelo? Quem é dono dos outputs e textos gerados a partir de prompts? Estas questões poderão aparecer no judiciário, o que demandará a análise de um perito digital em inteligência artificial.

Ética e Transparência: Questões éticas em torno do uso de IA, como a falta de transparência em algoritmos complexos, podem gerar preocupações legais. A exigência de explicabilidade e transparência pode ser um requisito legal em alguns contextos. Com o projeto de Lei 3238/2021, as IAs precisarão de alto risco de regras de compliance e poderão estar sujeitas à regulamentação de autoridade. Nestes casos, um perito em IA poderá avaliar e conceber pareceres sobre seu sistema, sobretudo sobre o risco algorítmico.

Regulamentação e Conformidade: A falta de regulamentação clara em relação ao uso da IA pode resultar em incertezas legais. Em alguns casos, o não cumprimento de regulamentações existentes pode levar a penalidades. A atuação de um perito em conjunto com advogado especializado em IA poderá auxiliar no processo de compliance de negócios que utilizem a IA como base.

Como visto, são inúmeras as questões jurídicas que são trazidas com o uso da IA, porém, uma das grandes preocupações está na integração da IA com ferramentas de Deep Fakes, capazes de simular pessoas em vídeos e falas fakes e não reais. Os danos são imensos e com a inevitável crescente destas questões na Justiça, o papel do perito em inteligência artificial é cada vez mais fundamental.

Usos indevidos da IA e o papel do perito em sistemas de inteligência artificial

O uso indevido de Deep Fakes, que envolvem a criação de conteúdo audiovisual falso e realista por meio de técnicas de inteligência artificial, apresentando uma série de desafios jurídicos adicionais, incluindo mas não se limitando a:

Difamação e Calúnia: Deep Fakes podem ser utilizados para criar vídeos ou áudios falsos com o intuito de difamar ou caluniar uma pessoa. Isso pode levar a questões legais relacionadas à reputação e à responsabilidade por danos. Identificar se determinado conteúdo é manipulado, quais técnicas usadas e por quem, pode ser tarefa atribuída ao perito digital em inteligência artificial.

Fraude e Manipulação: O uso de Deep Fakes para enganar ou manipular, pode resultar em fraudes de diversas formas, desde fraudes financeiras até manipulação de eleições e criação de estados mentais no eleitor. Isso pode gerar implicações legais sérias considerando que vídeos poderão surgir e levarão pessoas à tomada de decisões erradas.

Violação de Direitos Autorais: A criação de Deep Fakes muitas vezes envolve o uso de imagens e vídeos protegidos por direitos autorais sem permissão. Isso pode resultar em questões legais relacionadas à propriedade intelectual, uso indevido de imagem e direito concorrencial.

Assédio, Extorsão e Intimidação: Deep Fakes também podem ser utilizados para criar conteúdo que visa assediar, intimidar ou difamar uma pessoa. Isso pode levar a processos legais relacionados à violação da privacidade e segurança pessoal.

Pornografia de Vingança: Deep Fakes são frequentemente associados à criação de pornografia de vingança, onde o rosto de uma pessoa é sobreposto em conteúdo sexual explícito. Isso pode resultar em ações legais por difamação, violação de privacidade, violação ao Estatuto da Criança e do Adolescente e outros delitos. Na Justiça, o perito digital em inteligência artificial pode atuar auxiliando vítimas e acusados a provar tecnicamente seus direitos, atuando como assistente técnico.

Fraude Eletrônica: Se Deep Fakes são usados para criar vídeos ou áudios falsos com o objetivo de enganar sistemas de autenticação ou realizar fraudes eletrônicas, isso pode resultar em questões legais relacionadas à cibersegurança e crimes eletrônicos. Já se tem inúmeras notícias de fraudes bancárias envolvendo facial attack e sistemas que manipulam fotos de pessoas para gerar o “liveness” necessário para que autentiquem em bancos. As fraudes envolvendo assinaturas eletrônicas, identidade digital e IA crescerão e o perito digital em IA poderá ser chamado para esclarecer o contexto e esclarecer tecnicamente o ocorrido.

Deste modo, a crescente prevalência de Deep Fakes destaca a necessidade de legislação e regulamentação para lidar com essas questões específicas, garantindo que a tecnologia seja usada de maneira ética e responsável. Muitos países estão começando a implementar ou considerar a legislação para abordar os desafios legais associados aos Deep Fakes.

No entanto, os problemas sociais surgirão e o Judiciário terá que decidir embasado em provas técnicas, momento em que poderá ser assistido por perito em inteligência artificial. As partes, por sua vez, podem se valer de assistentes técnicos em processos cíveis, trabalhistas e criminais ligados à inteligência artificial.

O que faz o perito em IA e Deep Fakes?

O perito em Inteligência Artificial (IA) e Deep Fakes, é um profissional especializado em avaliar, analisar e fornecer expertise técnica relacionada a casos envolvendo o uso de IA, especialmente em contextos de Deep Fakes. Suas responsabilidades podem incluir:

Análise Forense:Conduzir análises forenses em vídeos, imagens ou áudios para determinar se eles foram manipulados por meio de técnicas de IA, como Deep Fakes. Isso envolve examinar metadados, padrões de pixel, e outras características para identificar possíveis sinais de manipulação.

Verificação de Autenticidade:Avaliar a autenticidade de mídias digitais, especialmente em casos onde a validade e integridade de vídeos ou imagens são questionadas. Isso pode envolver a comparação de dados originais com a mídia em questão.

Desenvolvimento de Métodos de Detecção:Colaborar com pesquisadores e especialistas para desenvolver métodos avançados de detecção de Deep Fakes. Isso inclui a compreensão profunda das técnicas usadas na criação de Deep Fakes para desenvolver contramedidas eficazes.

Testemunho em Processos Legais e provas técnicas simplificadas Fornecer depoimento como especialista em processos judiciais, explicando os métodos utilizados na análise e apresentando conclusões sobre a autenticidade ou manipulação de evidências digitais.

Colaboração com Profissionais de Segurança Cibernética:Trabalhar em conjunto com profissionais de segurança cibernética para entender e combater ameaças relacionadas a Deep Fakes que podem ter implicações em segurança digital e privacidade.

Assessoria de Compliance a empresas e organizações:Prestar consultoria a empresas e organizações que desejam proteger-se contra a manipulação de conteúdo por meio de Deep Fakes. Ou mesmo auxiliar empresas e negócios em pareceres e análises técnicas e algorítmicas necessárias para o compliance com agentes regulatórios.

Como funciona a perícia em inteligência artificial e como detectar Deep Fakes?

A detecção de Deep Fakes pode ser desafiadora, uma vez que essas tecnologias estão em constante evolução e se tornam cada vez mais sofisticadas. No entanto, a perícia poderá atuar com abordagens e técnicas que podem ser utilizadas para tentar identificar Deep Fakes, dentre elas, podemos citar:

Análise Visual:O perito em inteligência artificial irá analisar cuidadosamente o vídeo ou imagem em questão, procurando por anomalias, artefatos visuais, inconsistências na iluminação e sombras, ou distorções nos contornos faciais que podem indicar manipulação.

Comparação com Dados Originais:Se existir uma mídia original, uma prática da perícia em IA é realizar a comparação da mídia suspeita com fontes de dados originais, como fotos ou vídeos autênticos da mesma pessoa. As discrepâncias entre o conteúdo original e o Deep Fake podem ser reveladoras.

Análise Temporal:Pode ser importante realizar a denominada análises de consistência temporal do vídeo. Deep Fakes podem ter problemas com a sincronização labial ou movimentos faciais que parecem inconsistentes com o áudio ou contexto do vídeo.

Análise de Movimento:O Perito em Inteligência Artificial, pode realizar a análise do movimento natural das características faciais. Deep Fakes podem ter dificuldade em replicar movimentos sutis e expressões faciais autênticas.

Sons e Vozes Artificiais:Em Deep Fakes de vídeos com áudio, o perito atua com a análise da qualidade e coerência da voz. Alguns Deep Fakes podem apresentar artefatos sonoros ou discrepâncias entre a fala e os movimentos labiais.

Ferramentas de Detecção Automática:Atualmente existem algoritmos, técnicas e ferramentas especializadas de detecção de Deep Fakes. Algoritmos e softwares foram desenvolvidos para analisar padrões específicos associados a Deep Fakes.

Análise de Metadados da Mídia:Uma das análises mais comuns, sobretudo em questões de identidade e assinatura digital, é a análise dos metadados da mídia, como informações de data, hora e dispositivo de gravação. Inconsistências podem ser indicativos de manipulação.

Projeto de Lei 2338/2023

Atualmente, sob análise da Comissão Temporária Interna sobre Inteligência Artificial (CTIA) no Brasil, o Projeto Lei (PL) esclarece os princípios para o fomento, o desenvolvimento e uso seguro, confiável e responsável da Inteligência Artificial (IA), tendo como objetivo proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico.

O PL fez algumas definições acerca da IA onde se encontram previstas em seu Art. 4:

Sistema de inteligência artificial: sistema computacional, com graus diferentes de autonomia, desenhado para inferir como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento, por meio de dados de entrada provenientes de máquinas ou humanos, com o objetivo de produzir previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou real;

Fornecedor de sistema de inteligência artificial: pessoa natural ou jurídica, de natureza pública ou privada, que desenvolva um sistema de inteligência artificial, diretamente ou por encomenda, com vistas a sua colocação no mercado ou a sua aplicação em serviço por ela fornecido, sob seu próprio nome ou marca, a título oneroso ou gratuito;

Operador de sistema de inteligência artificial: pessoa natural ou jurídica, de natureza pública ou privada, que empregue ou utilize, em seu nome ou benefício, sistema de inteligência artificial, salvo se o referido sistema for utilizado no âmbito de uma atividade pessoal de caráter não profissional;

Agentes de inteligência artificial: fornecedores e operadores de sistemas de inteligência artificial;

Autoridade competente: órgão ou entidade da Administração Pública Federal responsável por zelar, implementar e fiscalizar o cumprimento desta Lei em todo o território nacional;

Discriminação: qualquer distinção, exclusão, restrição ou preferência, em qualquer área da vida pública ou privada, cujo propósito ou efeito seja anular ou restringir o reconhecimento, gozo ou exercício, em condições de igualdade, de um ou mais direitos ou liberdades previstos no ordenamento jurídico, em razão de características pessoais como origem geográfica, raça, cor ou etnia, gênero, orientação sexual, classe socioeconômica, idade, deficiência, religião ou opiniões políticas;

Discriminação indireta: discriminação que ocorre quando normativa, prática ou critério aparentemente neutro tem a capacidade de acarretar desvantagem para pessoas pertencentes a grupo específico, ou as coloquem em desvantagem, a menos que essa normativa, prática ou critério tenha algum objetivo ou justificativa razoável e legítima à luz do direito à igualdade e dos demais direitos fundamentais;

Mineração de textos e dados: processo de extração e análise de grandes quantidades de dados ou de trechos parciais ou integrais de conteúdo textual, a partir dos quais são extraídos padrões e correlações que gerarão informações relevantes para o desenvolvimento ou utilização de sistemas de inteligência artificial

O Projeto Lei ainda expõe os princípios para a proteção da espécie humana e dos dados pessoais:

Dignidade Humana: a IA deverá ser desenvolvida e utilizada de maneira a respeitar a dignidade, a liberdade e os direitos humanos, promovendo o bem-estar social e individual.

Proteção de Dados Pessoais: deverá ser garantida a proteção de dados pessoais, conforme as normativas legais vigentes, assegurando a privacidade e a segurança das informações.

Consentimento Informado: o consentimento livre, informado e explícito dos indivíduos deverá ser obtido para a coleta e uso de seus dados pessoais.

Transparência: os processos e decisões tomadas por sistemas de IA devem ser transparentes, auditáveis e explicáveis, permitindo a responsabilização dos desenvolvedores e operadores.

Não Discriminação: a IA deverá ser desenvolvida e operada de forma a prevenir e mitigar discriminações, vieses e preconceitos.

Educação e Conscientização: deverá ser promovida a educação e a conscientização sobre os impactos da IA na sociedade, bem como sobre os direitos dos indivíduos.

Deste modo, o PL traz orientações de como os cidadãos brasileiros devem interagir com o sistema de Inteligência Artificial de modo em que seja priorizado o respeito, conhecimento e responsabilidade ao bem-estar jurídico e humano.

Conclusões

Dada a complexidade e a evolução rápida das tecnologias de IA, o papel do perito em inteligência artificial e Deep Fakes é fundamental para a identificação e mitigação de potenciais ameaças e para a garantia da autenticidade em ambientes digitais.

Lembre-se de que, à medida que as tecnologias de Deep Fake avançam, também o fazem as técnicas de detecção e o avanço da perícia digital em inteligência artificial. A pesquisa contínua e a colaboração entre especialistas em segurança, pesquisadores acadêmicos e desenvolvedores de tecnologias é essencial para melhorar as capacidades de detecção e mitigar o impacto potencial de Deep Fakes e demais usos indevidos da Inteligência Artificial.

Como contratar um perito em assinatura online?

A CyberExperts é consultoria especializada em computação forense, inteligência cibernética, perícia e auditorias em informática e inteligência artificial, sendo referência em perícia digital e em informática. Atuamos preventivamente ou em processos administrativos ou judiciais, para empresas, fintechs, órgãos de pesquisa e órgãos públicos na coleta, preservação e análise de evidências digitais, por meio de um rol de peritos com notória experiência profissional. Realizamos auditorias independentes de maturidade de controles de segurança digital e compliance de Inteligência Artificial. Profissionais com as principais certificações internacionais. Fale conosco (11) 3254-7616 ou acesso www.cyberexperts.com.br. Expertise, lealdade e ética. Conheça nosso curso de Perícia em Proteção de Dados Pessoais.




Matéria na versão impressa e digital da Folha de S. Paulo, com a participação do especialista em Direito Digital, Dr. José Milagre, sobre o Registro da Cadeia de Encaminhamentos do WhatsApp, previsto no Projeto de Lei das Fakenews (PL 2630/2020).

Uma das matérias mais profundas sobre este tema, que pode vir a ameaçar toda a construção de direitos e garantias a todos os usuários de Internet do Brasil.

Quer saber mais detalhes, então acesse https://www1.folha.uol.com.br/poder/2020/07/regra-para-armazenar-cadeia-de-mensagens-do-whatsapp-pode-ser-ineficaz-em-projeto-de-fake-news-no-congresso.shtml e fique por dentro!




Como é a atuação do advogado especialista em crimes cibernéticos?

O exercício da Advocacia especializada em crimes virtuais vem chamando a atenção de inúmeros profissionais e alguns fatores são considerados chave, como o crescimento das fraudes, golpes e ofensas praticadas pela internet.

O número de crimes virtuais vem crescendo desenfreadamente em todo o mundo. No Brasil não é diferente. De acordo com um relatório global publicado pela Symantec, o Brasil é o terceiro país que mais recebe ataques cibernéticos em dispositivos conectados à internet, considerando que de todas as ameaças detectadas, 9,8% ocorreram no Brasil, que fica atrás apenas dos Estados Unidos, com 10,1% e da China com 24%.

A quantidade de denúncias de crimes na internet cresceu 109,5% em 2018, segundo a associação SaferNet Brasil. A popularização do uso das redes sociais e das tecnologias, além do natural aumento da superexposição, aliada a ausência de programas de educação digital, favorecem igualmente o surgimento de golpistas e exploradores digitais.

Casos comuns de atuação

A atuação deste profissional é variada, podendo atuar em casos de perseguição virtual, stalking, crimes contra a honra, calúnia, injúria, difamação, cyberbullying e até em crimes eleitorais. Para se ter uma ideia, de acordo com uma pesquisa realizada pelo Fundo das Nações Unidas para a Infância (UNICEF), ao analisar trinta países, chega-se a conclusão que um em cada três jovens foram vítimas de cyberbullying e muitos relataram que abandonaram a escola devido essas violências virtuais. 

No aspecto patrimonial, crescem os delitos de estelionato digital e furto mediante fraude. Alguns exemplos recentes foram os casos de golpes envolvendo o auxílio emergencial destinado a trabalhadores informais e autônomos neste momento de pandemia do Covid-19, que chegaram a atingir 7 milhões de pessoas no Brasil, segundo os dados da PSafe.

Outras técnicas utilizadas, como chip swap, vem permitindo que atacantes tomem posse de ativos digitais das vítimas, incluindo contas bancárias e a partir delas conseguem realizar saques em ativos ou solicitar empréstimos. 

Por falar em crimes patrimoniais, é impossível que o advogado especialista em crimes virtuais não lide com pelo menos um caso de extorsão online. Cresceram os casos de ransomwares, nos quais os atacantes criptografam os discos da vítima, bloqueando seus dados, solicitando resgate, normalmente em bitcoins, para que os dados sejam liberados. De acordo com os dados da Emsisoft, empresa de segurança especializada no atendimento a casos desse tipo, houve um aumento de 41% nas infecções por malwares que sequestram computadores e redes em 2019, sendo que 205,2 mil organizações foram vítimas de ataques desse tipo, com uma média de US$ 84,1 mil nos valores do resgate. 

Além disso, o phishing scam, que consiste na tentativa de fraudulenta de “pescar” (a palavra phishing, deriva do inglê fishing) informações confidenciais, através de mensagens aparentemente reais para obter, por exemplo, dados bancários, continua em alta e lesando inúmeras pessoas em todo Brasil. 

São diários os casos envolvendo crimes de pornografia infantil, onde o profissional precisa adotar procedimentos ágeis para cessar o conteúdo, impedir o constrangimento e muitas vezes apurar a autoria. Além disso, este profissional atua para empresas em questões envolvendo ataques direcionados, ataques de negação de serviços, invasões e até mesmo em questões envolvendo propriedade intelectual e softwares irregulares no ambiente corporativo, que também podem caracterizar condutas criminosas. 

O Advogado especialista em crimes cibernéticos também vai lidar constantemente com processos de apuração de autoria, bloqueios de conteúdos e aprenderá logo cedo a lidar com a resistência das empresas e algumas redes sociais em cumprirem ordens expedidas por juízes do Brasil, como aplicativos de mensagens, dentre outros. A base para a guarda de registros é o Marco Civil da Internet, Lei 12.965/2014, legislação basilar para quem atua na área. 

Ainda, em alguns casos, muitas vezes precisará do MLAT (mutual legal assistance treaty) para obter registros de provedores de aplicações sem sede ou localização no Brasil. 

Formação desejada

Como se pode verificar, atuar como advogado especialista em crimes virtuais exige, logicamente, conhecimento em tecnologia da informação, compreensão das principais técnicas utilizadas pelos atacantes para lesar e praticar crimes pela internet e conhecimento de procedimentos para apuração da autoria, já que em parte dos crimes cibernéticos que se apresentam, não se conhece, a princípio, os autores por trás da ofensa. 

Assim, não se pode afirmar que um profissional sem background técnico atuará com a mesma precisão de alguém que se dedica para ter uma complementação na carreira e mais afinidade com a informática. Por outro lado, isso  não significa uma graduação em tecnologia, já que, hoje, muitos treinamentos e cursos de extensão são úteis e recomendados, como o curso de perícia forense digital (https://bityli.com/9Jyef) que ministro para muitos advogados que atuam com direito digital, que participam com o escopo de compreender melhor os processos de apuração de autoria, quebra de sigilo, investigação informática, recuperação e preservação de evidências. 

Dentre as competências esperadas pelo especialista em crimes cibernéticos, encontram-se a produção da prova digital, compreensão das técnicas de ataques digitais, fundamentos de redes e sistemas operacionais, entendimento sobre principais vulnerabilidades web, dentre outras. 

Em meu livro, Manual de Crimes Informáticos (https://cutt.ly/ooMiv16) trato das 10 vulnerabilidades OWASP, instituição que apresenta as principais e mais sérias vulnerabilidades em aplicações WEB. Atualize-se nestas técnicas. 

Assistência técnica da Perícia em Informática

Ao longo de anos atuando com perícias e assistência técnica especializada em crimes informáticos, percebo cada vez mais a importância, seja na acusação ou na defesa, da figura do assistente técnico, profissional de tecnologia da informação, comumente especializado em perícia forense digital, para auxiliar tecnicamente o trabalho do profissional do direito ou penalista especialista em crimes virtuais. 

Este perito digital auxiliará em diversos momentos, desde inquéritos policiais, nas delegacias ou especializadas, na instrução, na formulação de quesitos, acompanhamento de exames técnicos e outras diligências, inclusive, avaliando os exames dos peritos oficiais e identificando falhas e omissões.  Também pode atuar dando suporte ao advogado para redação das teses e na produção de provas técnicas simplificadas. 

Tendências e como começar?

Furto de criptomoedas, pontos de milhagem, ativos virtuais, questões envolvendo jogos online e extraterritorialidade, atuação de bots na seara eleitoral, deep fakes, fake nudes dentre outras questões que surgem diariamente no mundo da Internet e tecnologia da informação, continuarão a crescer e demandarão ainda mais da atuação do profissional especializado em crimes cibernéticos. 

A cada dia novos jogos, aplicativos, técnicas e práticas se revelam verdadeiros perigos da internet. Os novos regulamentos de proteção de dados, como a LGPD e GDPR também estabelecem direitos aos titulares de dados e aumentam a preocupação de agentes de tratamentos com invasões e outros ataques e suas consequências, o que também abrirá um novo campo de mercado para os profissionais que se especializarem em crimes digitais.

Nos Estados Unidos, a atual preocupação passa a ser os crimes tributários e lavagem de dinheiro com criptoativos, nos quais inúmeros profissionais em crimes cibernéticos e lawtechs já atuam na investigação, perícia e defesa em casos desta natureza.  

Assim, o advogado especializado em crimes cibernéticos deverá estar em constante atualização, aprendendo conceitos de segurança da informação, principais formas de ataques e ameaças, estar bem assessorado tecnicamente por peritos e especialistas em tecnologia. Investir em aprimoramento é essencial e o diferencial entre profissionais que buscam, cada vez mais, atuar nesta promissora área do direito digital. Do mesmo modo que a sociedade migrou para a tecnologia, o crime também migrou e é neste contexto que o advogado em crimes cibernéticos apresenta um papel social relevante, como profissional fundamental na busca pela justiça, nos milhares de processos criminais envolvendo questões tecnológicas, que crescem a cada dia. 

Quer compreender melhor os processos de apuração de autoria, quebra de sigilo, investigação informática, recuperação e preservação de evidências? Então se inscreva no Curso de Perícia Digital e Investigação Forense Digital, que apresenta uma abordagem 360º sobre o tema que visa preparar profissionais para este novo mercado de trabalho através de técnicas e melhores práticas, para que possam atuar com segurança nas mais variadas frentes da perícia voltada à tecnologia da informação. Faça sua inscrição através do link https://bityli.com/9Jyef e fique por dentro!




As nebulosidades e riscos do art. 10 do Projeto de Lei das Fake News

O registro de encaminhamento de mensagens efetivamente contribuirá para o combate a crimes digitais e Fake News?

Aprovado no Senado o Projeto de Lei 2.630/2020, que trata do combate a Fake News, por 44 votos a 32. A matéria, no entanto, causou controvérsia, sobretudo no seu artigo 10, que obriga os aplicativos, como o WhatsApp, a registrarem os encaminhamentos de mensagens realizadas, rastreando o que alguém envia para outrem. Mas será que este artigo é fundamental para o combate a crimes digitais e Fake News?

Muitos mensageiros privados já informam medidas para combate às Fake News em tempos de pandemia. O WhatsApp, por exemplo, anuncia em suas políticas sobre limites de encaminhamentos de conversas:  “Para tornar o WhatsApp ainda mais pessoal, criamos o conceito de mensagens encaminhadas muitas vezes e adicionamos uma etiqueta de setas duplas para indicar que essas mensagens não foram criadas pelo contato que as enviou. Geralmente, as mensagens encaminhadas muitas vezes podem conter informações falsas e não são tão pessoais quanto as mensagens típicas enviadas pelos seus contatos no WhatsApp. Agora, atualizamos o limite de encaminhamento para que essas mensagens só possam ser encaminhadas para uma conversa por vez.”

Informa que as mensagens de WhatsApp já possuem um contador que registra quantas vezes a mensagem é encaminhada, informando ainda que o contador também é protegido pela criptografia ponta a ponta, e somente o aparelho do usuário e destinatário possui. O App alega que “não tem acesso a quantas vezes uma mensagem foi encaminhada”. Se esta tese for verdadeira, o próprio app no aparelho armazena a contagem e diante de número elevado aciona uma função condicional, limitando a possibilidade de encaminhamento. 

O artigo 10, no entanto, determina que os serviços de comunicação instantânea devam guardar os chamados “registros de encaminhamento”, o que vem sendo considerado uma “tornozeleira digital” pelos provedores de aplicação e um grande retrocesso. Basicamente, os provedores de aplicação deverão registrar metadados, “dados sobre dados”, relativos aos envios de mensagens veiculadas em encaminhamentos em massa, custodiando estes registros por três meses. A argumentação aqui é que se possa chegar à averiguação da origem de uma Fake News. Será?

O que se pretende guardar aqui seria, em nossa visão, data, hora, número/terminal ou Ids envolvidos nos envios, fuso horário e quantitativo total dos usuários que receberam a mensagem. Assim, a partir de uma mensagem recebida ou descoberta pela vítima, se poderia, com base na Lei Projetada (Lei Brasileira de Liberdade Responsabilidade e Transparência na Internet) requerer uma ordem judicial para que o mensageiro apresentasse, judicialmente, o registro de todos os encaminhamentos (cadeia de encaminhamentos), desde o primeiro existente no período de guarda, contanto que a mensagem deve se enquadrar nos critérios que obrigam o armazenamento, previstos em lei. Caso negativo, o provedor de aplicações deverá, em tese, justificar em juízo o não fornecimento. Quais critérios são esses?

Não se busca aqui, como visto, o conteúdo das mensagens e a princípio não se identifica os destinatários das mensagens. Faltava, no entanto, definir o que seriam os chamados “encaminhamentos em massa”. Na PL, ficou definido como o envio de uma “mesma mensagem”, por mais de 5 (cinco) usuários em intervalo de até 15 (quinze) dias, para grupos de conversas, lista de transmissão ou mecanismos similares de agrupamentos de múltiplos signatários, sendo obrigado a guardar apenas as mensagens que alcançarem 1.000 ou mais usuários. O acesso, só deve se dar por ordem judicial. A questão é, como a suposta vítima vai saber se a  “notícia falsa” está inserida no contexto de um encaminhamento em massa? Quais são os critérios para identificá-las? Uma mensagem pode não ter alcançado 1.000 usuários em uma semana, e na outra sim… Assim, na dúvida, resta indisfarçável que se este artigo calhar, muitas supostas vítimas irão pedir tais registros ao Judiciário, mesmo sem saber se trata de encaminhamento em massa, e isso pode gerar um aumento considerável de processos e requerimentos. O Judiciário deverá ser muito criterioso nas análises. As aplicações se recusarão a fornecer dados informando que não há registros para a mensagem, pois não atingiu os critérios legais para armazenamento. 

O artigo 10 foi aprovado no Senado, mesmo com destaque em sentido contrário, rejeitado, onde alguns Senadores entenderam que o “registro de encaminhamento” é essencial (pedra de toque) para apuração das Fake News, o que não é uma verdade técnica. O Marco Civil já prevê a guarda dos registros de acesso à aplicação (data, hora, ip e fuso horário) e que já são suficientes para a apuração da autoria de Fake News nos comunicadores instantâneos, ainda que em uma sequência de investigações mais demorada. Deste modo, não se trata de mais textos legislativos, mas de efetiva cooperação das aplicações no cumprimento da legislação já existente. 

De outra ordem, existem vários meios técnicos para “burlar” o “registro de encaminhamento” tal como vem sendo arquitetado. E se uma pessoa não “encaminha” a mensagem, mas a partir do conteúdo armazenado em seu dispositivo a reposta? Este registro seria considerado, tendo em vista que a ação foi outra? E se ao invés de encaminhar uma mensagem ou conteúdo visual, alguém printa a tela e reenvia, ou mesmo envia uma “foto da foto”, ou ainda, envia o conteúdo não como imagem ou texto, mas como documento. São meios simples de burlar as “etiquetas”, quer via metadado, quer via hashing que possam ser aplicadas em um sistema de rastreamento de encaminhamentos. 

Como se vê, a exigência do artigo 10 parte de uma premissa equivocada, é pouco eficaz contra as FaKe News e técnicas de subversão possíveis e vai gerar alta onerosidade técnica para os serviços de aplicativos de mensagens, que serão obrigados a ter uma estrutura para gerar e armazenar inúmeros registros de encaminhamentos, taggeando mensagens desde o surgimento dela (inserindo uma codificação para que, eventualmente, diante de uma ordem judicial, seja identificada a “mesma mensagem” compartilhada por mais de 5 usuários), mesmo “sem conhecerem o conteúdo” encaminhado, em um “rastreamento preventivo” perigoso. Aliás, se assim não for, outra questão perturbadora é: Como os provedores de aplicação e mensageria privada vão tecnicamente identificar “uma mesma mensagem”, enviada em massa, se eles não inspecionam o conteúdo das mensagens, por respeito à privacidade e proteção de dados? Farão por hash dos conteúdos (campos)? Desenvolverão uma técnica? Um risco imenso à privacidade se mentaliza. 

Do mesmo modo, a argumentação de que são “apenas” registros metadados e não de conteúdos, e que a criptografia ponta-a-ponta do WhatsApp já preserva a privacidade, também não resiste à análise técnica. A privacidade estará ameaçada mesmo que o mensageiro adote a criptografia das conversas, pois com os metadados gerados por usuários e armazenados pelos mensageiros (incluindo números telefônicos) em mãos erradas ou vazados, pode-se ter um dossiê completo sobre as atividades de encaminhamentos, além de outras correlações, com efeito, existem implicações e conflitos nítidos também com o disposto na Lei Geral de Proteção de Dados (13.709/2018).

Como visto, estes são apenas alguns de muitos pontos nebulosos na disposição o artigo 10 da PL 2.630/2020, como por exemplo, como avaliar a intenção do agente que encaminha uma mensagem considerada Fake? Estaria agindo com dolo ou é mais uma vítima que acreditou e repassou? São pontos como estes que demanda mais debates aprofundados no Senado, que diversamente, não estendeu a discussão para ouvir os especialistas e, rejeitando o destaque de modificação do artigo 10, aprovou o Projeto de Lei. Queremos crer, na Câmara dos Deputados, que o deslinde não seja o mesmo e que a discussão ocorra, no escopo de se corrigir inúmeras falhas deste projeto desproporcional e equilibrá-lo para não afrontar direitos e garantias fundamentais e Leis já estabelecidas, como o Marco Civil da Internet, sobretudo, para que não permaneça com o status de um dos mais restritivos do mundo.

José Antonio Milagre é perito digital, especialista em Crimes Cibernéticos, Advogado, Mestre e Doutorando pela UNESP, Presidente da Comissão de Direito Digital da Regional Vila Prudente da OAB/SP e Diretor do Instituto de Defesa do Cidadão na Internet (IDCI). e-mail: [email protected] 




FACEAPP PERIGO! Como requerer a exclusão dos seus dados! José Milagre – Especialista Crimes Virtuais

Se você usou o FaceApp saiba como pode requerer o acesso ou exclusão de seus dados pessoais! Proteja seus dados e evite riscos!

Toda quarta-feira um vídeo novo no canal!

Se inscreva! https://www.youtube.com/channel/UCqaPjjCjIRqeOlunUJM1xnw




Novo Projeto de Lei das Fake News 3063/2020: 10 pontos que merecem atenção antes de qualquer votação

O que o legislativo brasileiro não pode desconsiderar ao tratar de um PL sobre a possível desinformação na Internet.

Em 02 de junho de 2020 foi apresentado um novo Projeto de Lei que institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. A norma projetada destina-se às redes sociais e serviços de “mensageria privada” que ofertam serviços de Internet, com o escopo de desestimular o abuso ou a manipulação destes, dando causa a danos individuais ou coletivos.

Não se aplica ao provedor de aplicação de redes sociais com menos de dois milhões de usuários registrados. Logo, é evidente o foco da Legislação para grandes aplicações como Twitter, Facebook, WhatsApp, Instagram e outros grandes serviços populares no Brasil e mundo, campos de batalha digital em período eleitoral. Sua aplicabilidade também se dá a empresas estrangeiras, desde que haja pelo menos uma integrante do grupo econômico presente no Brasil.

Os objetivos são contemplados no artigo 3 o ., como o fortalecimento do processo democrático com base no combate ao comportamento “inautêntico”, distribuição artificial de conteúdo e fomento à diversidade de informações. Em seu artigo 4º, define o que seria uma conta “inautêntica”, conta essa, criada ou usada com o propósito de assumir identidade inventada ou de terceiros para enganar o público, ressalvados o direito à pseudonímia, bem como o explícito ânimo humorístico ou de paródia. Do mesmo modo, descreve o que seriam “contas automatizadas”, como contas geridas por qualquer programa de computador ou tecnologia para simular, substituir ou facilitar atividades humanas na distribuição de conteúdo em aplicações de internet ou aquelas geridas por ação preponderantemente humana e que complementam a atuação automatizada da conta, ainda que esporadicamente.

A legislação projetada preocupa-se com a criação de “redes de distribuição artificial”, caracterizadas como sendo um comportamento coordenado e articulado de contas automatizadas ou por tecnologia não fornecida pelo provedor de aplicação, com o fim de implantar de forma artificial a distribuição de conteúdos.

No artigo 5º, simplesmente informa que os provedores de aplicação de internet deverão adotar medidas para vedar contas inautênticas, contas automatizadas cujo caráter automatizado não foi comunicado aos referidos provedores. Ainda, em seu artigo 6 o , inclui diversas atividades e deveres para as redes sociais, dentre as quais medidas que demandam levantamento de dados
excessivos e desnecessários para o efetivo combate às Fake News. Chega a anotar como obrigatório relatório com o “número total de redes de distribuição artificial” detectadas. Ora, será preciso uma perícia em informática acurada, e ainda assim, receia-se que será temeroso demais às redes sociais terem que rotular um grupo de perfis como uma “rede de distribuição artificial”.

O usuário passa a ter o direito de ser notificado pela própria rede social, sempre que ocorrer um processo de análise de conteúdos e contas violadoras. Este poderá, nos termos do art. 8º, contestar eventual denúncia de conteúdo irregular. Do mesmo modo, são previstos recursos das decisões, nos termos do art. 9º do Projeto de Lei.

A norma assegura que em caso de conteúdos que tenham sido equivocadamente identificados como irregulares ou violadores dos padrões do provedor de aplicações, caberá ao mesmo reparar o dano, informando o erro de maneira destacada e garantindo a exposição da correção, no mínimo, aos usuários inicialmente alcançados. Caso ocorra a revisão judicial de conteúdo tornado indisponível, assegura em seu art. 11 que a rede social deverá substituir o conteúdo tornado indisponível pela ordem judicial que deu fundamento à correção. Destaca-se que a nova versão do PL veda a indisponibilização de conteúdos com fundamento na própria lei, exceto em casos de decisão judicial.

Interferindo nos serviços de mensagens privadas, o regulamento ainda tenta limitar o número de encaminhamentos de mensagens a usuários e grupos e o número de membros dos mesmos. Diante do art. 14, o Telegram, por exemplo, encontrará um problema no seu modelo de negócios, permitindo grupos com centenas de usuários. O usuário deverá sempre dar permissão
prévia antes de receber uma mensagem de serviço de comunicação em massa nos mensageiros, o que impõe também medidas técnicas por parte de inúmeros aplicativos.

Proíbe-se, no artigo 15, o uso e a comercialização de ferramentas externas aos provedores de aplicação de mensageria privada, voltadas ao disparo em massa de mensagens. Esta questão pode interferir em inúmeros negócios lícitos hoje existentes, macros, automatizadores, chatbots e outros recursos. Muitas ferramentas não tem como fim “o envio” de mensagens em massa, mas possuem a função, para usuários cadastrados e sem qualquer finalidade de espalhe de Fake News.

Percebe-se, por parte do legislador, igualmente, uma tentativa de se “descobrir à fórceps” quem começou uma corrente de possível “Fake News” nos serviços de mensageria privada, uma vez que o artigo 17 estabelece que o provedor de aplicação que apresenta funcionalidade e o reencaminhamento similar de conteúdos, deve guardar os registros da cadeia de
reencaminhamentos até sua origem, pelo prazo mínimo de 1 (um) ano, resguardada a privacidade do conteúdo das mensagens, podendo esses registros ser solicitados mediante ordem judicial nos termos da Seção IV da Lei 12.965 de 2014. A norma, no entanto, não trata explicitamente da proibição de novos compartilhamentos de conteúdos indevidos, a partir da extração de metadados dos arquivos e seu cheksum, medidas aliás determinadas em alguns casos judiciais no país.

Em relação aos conteúdos impulsionados, os usuários passam a ter direitos, dentre os quais, o de saber quais as fontes de informação e quais os critérios utilizados para a definição de público alvo do conteúdo que teve contato. Basicamente, repisando parte do que já era disposto na Lei 12.965 de 2014, a Lei projetada destina sete artigos para tratar da atuação do Poder Público, que deverá incluir capacitação para o uso consciente da internet e deverá realizar campanhas sobre a importância do combate ao comportamento inautêntico na Internet.

As penalidades para o descumprimento estão previstas no artigo 29 do projeto e não excetuam sanções civis, criminais ou administrativas. As penalidades são advertência, multa e suspensão temporária das atividades. Nesta versão, não existe a penalidade de proibição das atividades.

Caberá, ainda, ao Comitê Gestor da Internet do Brasil, definir um grupo de trabalho multissetorial que deverá estabelecer proposta legislativa que conceitue “conteúdo desinformativo”, bem como apresentar as formas de combate a desinformação a partir de boas práticas internacionais em estudo. Este grupo multissetorial teria 1 (um) ano, a partir da publicação da Lei, para apresentar a proposta.

Passa a ser considerada violação à Lei de Improbidade Administrativa o fornecimento de acesso às contas de redes sociais de órgãos públicos à administradores externos ou que não tenham relação contratual com a administração pública, e também o emprego de recursos públicos para condutas que violem a Lei Brasileira de Liberdade, Responsabilidade e Transparência na
Internet (Art. 11, XI e XII).

Do mesmo modo, a Lei das organizações criminosas (12.850) é alterada para também abranger às organizações formadas para a criação e ou operação de contas inautênticas, contas automatizadas não identificadas e ou redes de distribuição artificial não identificadas por meio do emprego de recursos financeiros e técnicos que praticam ilícitos.

Por fim, a norma exige que as redes sociais e mensageiros nomeiem mandatários judiciais no Brasil, aos quais serão dirigidos os atos processuais decorrentes desta Lei. Feito este resumo dos principais pontos do novo PL, ao qual está se impingindo um ritmo desproporcional à atenção que um projeto desta natureza merece, elencamos 10 (dez) pontos de atenção e consideração, antes de qualquer votação e que demandam esclarecimentos sob pena de consequências gravíssimas:

1) Existe grande risco a aplicativos que não usam contas automatizadas, mas utilizam tecnologias conectadas às redes sociais, uma vez que podem ser consideradas “rede de distribuição artificial”. Como se avaliará a finalidade destes aplicativos? Quem definirá o que realmente é conteúdo artificial? Como as redes farão este papel?

2) As medidas para a vedação de contas “automatizadas” previstas no artigo 5º da legislação são genéricas, não definidas, onerosas e podem implicar na exclusão de conteúdos e perfis legais, isto porque um perfil real ou serviço poderá automatizar alguma tarefa em redes sociais e sem finalidade de praticar desinformação, o que poderá gerar um falso positivo nos registros da rede social.

3) As medidas para a verificação de contas inautênticas já existem hoje em grande parte das redes sociais, porém, não existe o monitoramento prévio, o que é salutar, e somente quando provocado judicialmente os provedores agem em respeito às disposições do Marco Civil da Internet. O Twitter, por exemplo, faz um questionário prévio antes liberar acesso à sua API. Medidas automatizadas poderão implicar em remoções de perfis legítimos, para pesquisas ou autorizados pelas pessoas reais e na limitação de direitos.

4) O relatório de dados que os provedores de aplicação deverão produzir a cada três meses possuem dados excessivos e desnecessários. Como as redes sociais poderão identificar “redes de distribuição artificial”? Qual critério? Qual metodologia e parâmetros para estas conclusões? Como aplicar na prática esta disposição legislativa?

5) Como uma rede social irá lidar com contestações e recursos de pessoas envolvidas em processos de notificação irregular? A rede social passará a julgar conteúdos? Quais as responsabilidades de um julgamento que exclua liberdade de expressão ou opinião? Não se está criando redes policialescas?

6) Como ficará a responsabilidade das redes sociais, a partir da inserção do art. 13 da Lei da Responsabilidade na Internet, quando algoritmos automaticamente reduzirem alcance de conteúdos ou removerem os mesmos? O artigo estabelece que é vedada a indisponibilização de conteúdo com fundamento nesta Lei, exceto por decisão judicial específica e fundamentada.

7) Ao proibir sistemas não oferecidos pelos mensageiros e que permitem o disparo de mensagens em massa, como lidar com serviços legais oferecidos por chatbots por exemplo, onde é possível enviar “broadcasts” aos usuários que optaram por receber os
referidos conteúdos? É possível considerar todos os serviços de disparo em massa como ilegais? E se o usuário concordou com o recebimento?

8) Como estender o conceito de “registros de acesso à aplicação” definidos no Marco Civil da Internet, para englobar também os tais “registros de cadeia de reencaminhamento” previstos na legislação projetada? O que seria este registro? Quais campos o compõe? Estaríamos tratando de data, hora, ip, número telefônico e fuso horário em ordem crescente dos encaminhamentos, desde a primeira publicação no serviço ou mensageiro? Quais os riscos à privacidade dos usuários?

9) Como interpretar um conteúdo desinformativo, se o grupo multissetorial que irá definir seu conceito, terá um ano, após a edição da norma, para defini-lo? Como se produzirá a prova de improbidade administrativa para identificar que agentes públicos cederam a administração de redes sociais a terceiros sem contratos com a administração pública?

10) Como definir “desinformação” de forma clara e justa? Como não tratar usuários de internet como potenciais infratores?

Não há dúvidas que a estas primeiras questões, muitas outras são acrescentadas por associações, entidades de Direito Digital, peritos em informática, cientistas da informação, provedores de aplicações, pesquisadores e sociedade em geral.

Como se verifica, o Projeto de Lei retirado de pauta (2630/2020) trazia uma série de questões polêmicas e exigência de dados excessivos, como documentos de identidade para criação de perfis, além de enaltecer a responsabilização das plataformas, o que confrontava o Marco Civil da Internet e poderia estimular as redes a controlarem conteúdos das redes sociais e ampliar a censura.

Não obstante, a nova proposta, mais amena, também apresenta riscos e pontos que dependem de esclarecimentos e maior tempo de análise, e como concebida, ao obrigar as redes a classificarem e detectarem quem é bot e quem não é, pode gerar um ambiente perigoso e ainda mais nocivo a direitos e garantias fundamentais. Um projeto, com tantos pontos a serem esclarecidos, como o presente, não pode, de forma alguma, tramitar à toque de caixa. Um amplo debate, que enfrente os quesitos aqui levantados, com dilatada participação da sociedade civil, é fundamental. Trata-se, aqui, de um tema sensível a todos, como impactos diretos em direitos e garantias fundamentais. A pressa é inimiga, e poderá culminar em graves consequências à inovação, liberdade de expressão e informação e a outros direitos.




Fomos citados em 3 (três) oportunidades na Manifestação da PROCURADORIA GERAL DA REPÚBLICA 154141/2020, em trâmite no Supremo Tribunal Federal – STF

Muito feliz, fomos citados em 3 (três) oportunidades na Manifestação da PROCURADORIA GERAL DA REPÚBLICA 154141/2020, assinada pelo Procurador AUGUSTO ARAS, na ARGUIÇÃO DE DESCUMPRIMENTO DE PRECEITO FUNDAMENTAL 403/SE, em trâmite no Supremo Tribunal Federal – STF e da relatoria do Ministro Edson Fachin.

O parecer do PROCURADOR-GERAL DA REPÚBLICA, manifesta-se pela procedência do pedido, para obstar o bloqueio nacional do WHATSAPP como meio coercitivo para cumprimento de decisões judiciais, sem prejuízo de outras providências para cumprimento das ordens judiciais.Feliz em colaborar com o entendimento da corte MÁXIMA sobre o tema!

Para ter acesso ao inteiro teor, acesse: http://portal.stf.jus.br/processos/detalhe.asp?incidente=4975500




Motoristas e trabalhadores de aplicativos podem ser considerados empregados

A exposição dos riscos às pessoas que integram a economia da inovação em tempos de Pandemia (COVID-19) reacendeu as discussões sobre a classificação dos profissionais de aplicativos, como UBER, e traz novos contornos no nascedouro do modelo de negócios que se expandiu para o mundo. 

A discussão sobre o regime jurídico das pessoas que voluntariamente se cadastram em aplicativos para prestação de serviços, de motoristas a freelancers, pode estar sendo impactada e passa a sofrer modificações nos próximos meses, sobretudo por conta da exposição e fragilidade que o modelo de negócios apresentou para a proteção das pessoas que vivem dos serviços prestados através dos aplicativos.

O Estado da Califórnia, considerado um dos mais rentáveis para os aplicativos, iniciou com contundência a revisão deste debate. O Procurador do Estado move uma ação contra a Uber e Lyft para desclassificar os motoristas como contractors (empreiteiros).

Segundo o Estado, os aplicativos classificam erroneamente seus motoristas como “contratados independentes”, o que viola a nova lei trabalhista do Estado, a AB5, que está em vigor desde janeiro de 2020. Essa, dificulta para as empresas no momento de classificarem os trabalhadores como contratados, ao contrário, favorece os motoristas, pois ao serem tratados como empregados possuem direito à salario mínimo e benefícios, como remuneração e seguro desemprego, um direito aliás que não existe no Brasil, até agora, e que veio à tona durante a pandemia do Coronavírus.

O debate sobre o status dos que trabalham por meio de aplicativos não é recente. Inúmeras são as ações judiciais privadas e coletivas discutindo a classificação dos prestadores de serviços. Por outro lado, temos aqui no caso da Califórnia uma Ação do próprio Estado, inédita, que irá gerar um importante precedente mundial, com muitas chances de mudanças significativas nos entendimentos até então consolidados sobre o modelo de negócios versus direitos sociais. 

A Lei trabalhista estadual incorpora um conceito ou método para identificar ou determinar se o trabalhador deve ser classificado como funcionário ou não, denominado “ABC”, usado em outros casos nos Estados Unidos (Dynamex Operations West, Inc. vs. Superior Tribunal de Los Angeles) onde decisões expandiram a definição de funcionário. O teste está ligado a avaliação sobre quem exerce o controle do trabalho. Três perguntas precisam ser respondidas:

  1. O trabalhador está livre do controle e direção da entidade contratante, tanto no contrato como nas atividades em si?
  2. O trabalhador executa atividades que estão fora das atividades e negócios da entidade contratante?
  3. O trabalhador costuma estar envolvido em outro negócio independente, da mesma natureza que o trabalho realizado para a entidade contratante?

A questão é controversa pois à medida em que a Lei Estadual se torna mais protetiva aos profissionais, no âmbito federal, cartas de opinião facilitam a classificação dos trabalhadores como contratados independentes de acordo com Fair Labor Standards Act.

Não é demais destacar que foi o Estado da Califórnia um dos pioneiros a legalizar e permitir este modelo de negócios, e hoje, vem revendo seu posicionamento e buscando nova classificação, em tempos de COVID-19. O Estado representa a maior fonte de receita da Uber e Lyft. Lá, já existe uma campanha pública dos aplicativos para buscarem se tornarem isentos à legislação. Por outro lado, algumas liminares pretendidas pelos aplicativos foram rejeitadas. 

A guerra também é tributária, já que, classificando “erroneamente” os trabalhadores como contratantes, os aplicativos deixam de pagar significativos impostos ao Estado.  A ação busca, inclusive, a restituição de salários não pagos devidos aos motoristas, multas civis e uma decisão permanente que proibirá as empresas de classificarem os motoristas incorretamente no futuro.  

Uma análise da missão da Uber, que alega que os trabalhadores não podem assim ser classificados pois não participam da missão da empresa, é “inflamar a oportunidade colocando o mundo em movimento”. Bem diferente do que previa em 2018, “A missão da Uber é trazer transporte – para todos, em qualquer lugar”. Com base nesta missão fica evidente que os profissionais do aplicativo são essenciais e conjugam esforços para a missão da empresa.  

No Brasil, no entanto, em fevereiro de 2020 o Tribunal Superior do Trabalho negou vínculo empregatício de um motorista na primeira decisão de última instância sobre o tema. Embora aplicável somente ao caso do motorista, não se descarta a possibilidade da uniformização do entendimento. Com base em uma análise dezenas de vezes mais superficial do que a que vem sendo feita no Estados Unidos, os Ministros brasileiros se embasaram na suposta “prestação de serviços flexível” e “não exigência de exclusividade pela empresa” para afastar o vínculo. Contrariou assim o TST o entendimento do Tribunal Paulista, que em 2018 já havia reconhecido o vínculo. De fato, a autonomia dos trabalhadores, tão pregada pelos aplicativos, não funciona muito bem na prática, sendo que os mesmos devem seguir uma série de regras e até códigos de conduta estabelecidos pelas empresas. Porém destaque-se, esta decisão brasileira se deu quando o mundo não poderia prever o que viria alguns dias depois.  

Agora, com a primeira ação Estatal contra os aplicativos, não há dúvidas que a Uber e outras empresas investirão milhões nesta batalha legal e o resultado impactará em todo o mundo. Para muitos, este modelo jamais deveria ter existido, para outros, um retrocesso no “modelo inovador”.  Seja como for, o fato da propositura da ação estatal fez com que os aplicativos se manifestassem. Ao mesmo tempo em que informam que contestarão a ação, também informam que o momento crítico em que vivemos é, de fato, uma oportunidade para elevar o padrão do trabalho independente se fora trazido pela “economia da inovação”. De que forma? Não sabemos. 

Embora saibamos dos reflexos aos usuários em classificar prestadores como empregados, ninguém questiona que estes milhões de profissionais ficaram desprovidos neste momento crítico, e que a crise gerou uma importante reflexão sobre os direitos sociais nestes modelos de negócios. 

Em meio à crise do COVID-19 estes prestadores de serviços foram reconhecidos como “trabalhadores essenciais” a todos, menos para os aplicativos, que insistem em mantê-los como e independentes. Os riscos a que se expõe são muitos, e não restam dúvidas que algo precisa e, ao que parece, vai mudar.