Investigação forense e perícia digital em deep fakes de áudios e conteúdos criados com Inteligência Artificial

O uso das deepfakes para fins ilícitos

O surgimento da Inteligência Artificial (IA) generativa, traz em si inúmeros desafios para a sociedade, abrindo um leque de opções para criminosos e fraudadores digitais. Em um ambiente de contratações online onde imagem, vídeo e áudios podem expressar manifestações de vontade, fatos ou ações, as novas possibilidades da IA generativa acendem o alerta de pessoas e autoridades.

A exemplo, em  uma guerra eleitoral digital, já tem notícias de deepfakes colocando políticos e figuras públicas em situações embaraçosas, seja um vídeo em um contexto inexistente ou mesmo uma mensagem de áudio comprometedora.

Tal evolução tecnológica e, logicamente, o seu uso para más finalidades, vem demandando atenção do mundo todo sob o prisma regulatório. Enquanto a legislação amadurece, surgem inúmeros casos em que perícia digital precisará enfrentar o desafio de dar respostas sobre a suposta criação de um conteúdo por inteligência artificial ou não.

A guerra eleitoral com o uso do armamento “IA”

A falsificação de áudios em vídeos reais podem representar danos a um processo eleitoral ou responsabilizar pessoas de forma indevida. Nos Estados Unidos (EUA), por exemplo, um áudio com a voz do Presidente Joe Biden instigou os eleitores a não votarem nas eleições primárias de um estado-chave.

Os próximos anos serão marcados pelo uso de deepfakes e IA para criar conteúdo sintético e ofensivo em redes sociais, o que demandará a atuação de assistentes técnicos forenses e peritos digitais, no esclarecimento da verdade, em contribuição com a verdade técnica em casos judiciais e corporativos.

A facilidade em gerar e influenciar com deep fakes de áudio

Se antes peritos utilizavam técnicas para detectar adulterações em áudios e conteúdos reais, o desafio agora é detectar não uma mera modificação que deixa rastros, mas uma criação a partir de prompts e parâmetros, de um conteúdo realístico, de difícil detecção e sintético.

Pesquisas recentes [1], revelam que metade das pessoas não conseguem fazer distinção entre conteúdos gerados por IA e conteúdos reais, gerando assim uma exploração por parte dos criminosos para gerar conteúdos ofensivos e ilícitos. Uma preocupação especial está nos áudios sintéticos “cheapfakes”, que são mais fáceis e baratos de serem produzidos.

Estes áudios podem ser compartilhados através de whatsapp, comunicadores, ou mesmo serem reproduzidos em ligações telefônicas que podem ser “gravadas”, e até mesmo motivar decisões equivocadas, investigações e processos judiciais e administrativos indevidos.

As técnicas de produção de áudios sintéticos são mais avançadas, por outro lado, é mais difícil ao cidadão detectar manipulações, como nos vídeos com sobreposição de voz. Além disso, a perícia técnica nestes arquivos depende de inúmeros fatores, a exemplo, se o áudio está trafegando por um aplicativo ou rede social, certamente já perdeu seus metadados, e então sobraria a conhecida fonética forense, com análises que dependem de coleta de amostras de voz, análise de waveforms, análise espectral, dentre outras, que podem indicar dísticos de emendas digitais ou manipulações.

Times digitais para combater uso ilícito da IA e regulamentações

Empresas, personalidades e comitês de campanha eleitoral precisam de monitoramento contínuo nas eleições futuras. As ferramentas de IA poderiam denunciar a autoridades solicitações de gerações suspeitas, o que não garantem que assim o façam, considerando que alguém pode usar uma ferramenta no Japão para gerar um conteúdo ofensivo no Brasil, o que passaria despercebido pelos “detectores”.

As empresas de fact check precisam de peritos forenses digitais para auxílio e análises de conteúdos, de modo a desmistificar conteúdos antes que ganhem escala nas redes e influenciem decisões, até mesmo perigosas. Ferramentas como ElevenLabs, Resemble AI, Respeecher e Replica Studios, permitem gerar áudios ou clonar voz em poucos cliques.

Neste sentido, a mera “suspeita instintiva” de se tratar de IA na manipulação de áudio não pode servir de base para descaracterizar ou descredenciar a autenticidade de um conteúdo, usado como prova de um crime, infração, ou de um fato. É necessário que a perícia digital em IA e áudios atue neste processo, realizando análises fonéticas, de metadados e demais análises aplicáveis, a depender da amostra.

As empresas e comitês precisam de canais para recebimento de supostos vídeos e áudios ligados à Inteligência Artificial, para que possam ser analisados. A popularização da viralização, pode ser conferida em sites analisadores, como BuzzSumo. Os regulamentos e normas precisam enfrentar o uso da IA para más finalidades, como nos Estados Unidos, onde a Comissão Federal de Comunicações proibiu o uso da IA em chamadas automáticas [2].

Como a perícia digital em deepfakes e inteligência artificial podem atuar

Além das análises realizadas a partir de amostras de voz, algumas plataformas já desenvolvem tools que auxiliam ou ao menos já  detectam a IA desenvolvida em seu ambiente, em prestígio a ética e responsabilidade no uso da IA com oSpeech Classifier da Eleven Labs [3]. Outros detectores úteis são AIorNot, que pode ser utilizado para detecção de imagens e também de áudios sintéticos.

Outras tools proprietárias já permitem integrar em sistemas via API, para detectar falas falsas geradas a partir da IA, como o caso da Loccus.ai [4]. A Reality Defender é outra empresa dedicada à detecção de falsidades geradas com a IA [5]. O Ai Voice Detector, também oferece um serviço de detecção online [6]. Sensity também é uma ferramenta a se  considerar [7]. As análises devem ser somadas à investigação cibernética, envolvendo análise WHOIS (informações) do site que hospeda um conteúdo, quebra de sigilo dos perfis que divulgam conteúdos e análises de ondas sonoras com ferramentas como Audio Mass [8] na identificação de pontos de criação, além da análise de metadados, que pode indicar os tags do programa AI generator na estrutura dos arquivos além das datas de acesso, criação e modificação. Se a voz é gerada por IA, as ondas sonoras provavelmente serão muito claras e semelhantes entre si, porque a geração de som por IA é essencialmente um processo de desenho de som. Por outro lado, gravações de áudios criados por uma pessoa, tendem a soar mais naturais com variações.

Conclusões

Deste modo, os desafios da perícia de detecção de áudios com deepfakes, passa pela suficiência da amostra, sanitização ou manutenção de metadados,e identificação de padrões dos geradores, o que impede que esta seja uma perícia com apenas uma metodologia.

Em tal ambiente, a “análise multimodal” tem sido considerada pela perícia como a mais adequada, envolvendo análise de múltiplas fontes de dados e metadados e do contexto de canais de transmissão, aliado a análises de percepção humana, de modo a se buscar responder o ponto controvertido e que muito ecoará nos próximos anos: Este conteúdo é real ou feito com Inteligência Artificial?

A perícia precisa se atualizar e se valer de técnicas, ferramentas e principalmente dos algoritmos de aprendizado de máquina que estão se atualizando para auxiliar na detecção e análises de deepfakes e que poderão ser aplicados por perito digital em IA,  aprender padrões e características destes conteúdos sintéticos, bem como automatizar processos de análises periciais envolvendo conteúdos questionados por seus autores ou interlocutores.

Como contratar um perito em inteligência artificial e detecção de deepfakes?

A CyberExperts é consultoria especializada em computação forense, inteligência cibernética, perícia e auditorias em informática e inteligência artificial, sendo referência em perícia digital e em informática. Atuamos preventivamente ou em processos administrativos ou judiciais, para empresas, fintechs, órgãos de pesquisa e órgãos públicos, politicos, na coleta, preservação e análise de evidências digitais, por meio de um rol de peritos com notória experiência profissional. Realizamos auditorias independentes de maturidade de controles de segurança digital e compliance de Inteligência Artificial. Profissionais com as principais certificações internacionais. Fale conosco (11) 3254-7616 ou acesso www.cyberexperts.com.br.

Fale conosco

Tem dúvidas? Envie seu comentário ou sugestão para [email protected] e não se esqueça de se inscrever no  Youtube (http://www.youtube.com/josemilagre) ou pelo instagram (@dr.josemilagre).

JM Advocacia: www.direitodigital.adv.br Instragram: @direitodigital.adv.br

José Milagre & Advogados

É um dos nomes mais lembrados no Brasil na advocacia de direito digital e crimes cibernéticos. Diretor de Forense Digital e Resposta a Incidentes da CyberExperts, especializada em investigação forense de fraudes e golpes online e com criptomoedas. Advogado e Perito Especialista em Segurança Digital, Resposta a Incidentes e Crimes Cibernéticos. Certificações CIPM, CDPO IAPP, DPO EXIN, ISO 27701 Lead Implementer PECB, Graduação em Análise de Sistemas, Pós-graduado em Gestão de Tecnologia da Informação. Mestre e Doutor em Ciência da Informação pela Universidade Estadual Paulista UNESP, Presidente da Comissão de Direito Digital da OAB Barueri/SP.

NOTAS

[1]https://bpb-us-w2.wpmucdn.com/sites.northeastern.edu/dist/f/4599/files/2023/10/report-1017-2.pdf

[2]https://www-sfchronicle-com.translate.goog/news/politics/article/alert-fcc-outlaws-ai-generated-voices-in-18655936.php?_x_tr_sl=en&_x_tr_tl=pt&_x_tr_hl=pt-BR&_x_tr_pto=sc&_x_tr_hist=true

[3]https://elevenlabs.io/ai-speech-classifier0

[4]https://www-loccus-ai

[5]https://www-realitydefender-com

[6]https://aivoicedetector.com/

[7]https://sensity-ai

[8]https://audiomass.co/




A importância do compliance jurídico na tokenização de imóveis

O compliance Jurídico na tokenização de imóveis é essencial para garantir que transições e negócios sejam realizados de acordo com as leis e regulamentos aplicáveis no território nacional, devendo também abordar questões como a proteção dos investidores, a transparência na informação, a segurança dos dados e a responsabilidade das partes envolvidas no processo.

Em termos gerais, tokens são unidades digitais de valor, que existem como entradas de registro em uma blockchain, na qual são passíveis de transferência de modo descentralizado. É uma abordagem inovadora que oferece uma maneira nova e eficiente de investir em propriedades imobiliárias, ou seja, ao invés de comprar uma propriedade inteira, os investidores podem adquirir pequenas participações, chamadas “tokens”, em um portfólio de propriedades selecionadas. Essa técnica permite que investidores diversifiquem seus investimentos e reduzam seus riscos.

Sendo um método inovador que envolve a conversão de ativos imobiliários em tokens digitais que permite a divisão e a negociação fracionada, o compliance jurídico obtém um papel crucial, já que garante que todas as operações relacionadas à tokenização imobiliária estejam em conformidade com os regulamentos e Leis aplicáveis, isso inclui questões relacionadas à segurança jurídica das transações, proteção de investidores e prevenção de lavagem de dinheiro.

O Rio Grande do Sul, em Novembro de 2021 estabeleceu-se regulamento acerca da Tokenização por meio do Provimento n°38/2021, que estabelece os requisitos para validade:

I- Declaração das partes de que reconhecem o conteúdo econômico dos tokens/criptoativos objeto de permuta, especificando no título o seu valor.

II- Declaração das partes de que o conteúdo dos tokens/criptoativos envolvidos na permuta não apresenta direitos sobre o próprio imóvel permutado, seja no momento da permuta ou logo após, como conclusão do negócio jurídico representado no ato;

III- Que o valor declarado para os tokens/criptoativos guarde razoável equivalência econômica em relação à avaliação do imóvel permutado.

IV- Que os tokens/criptoativos envolvidos na permuta não tenham denominação ou endereço (link) de registro em blockchain que deem a entender que seu conteúdo se refira aos direitos de propriedade sobre o imóvel permutado.

Por mais que o provimento não seja uma legislação completa, ele possibilitou que os tabeliães de notas do Estado lavrassem escrituras públicas de permuta de bens imóveis com contrapartida de tokens/criptoativos, mediante a condições.

Iniciativas interessantes como a Pixway, revelam o surgimento de Startups e negócios prontos para tokenizar os mais diferentes setores de ativos. A Pixway funciona como uma espécie de cartório digital, ou seja, companhias emitem certificados de origem das obras de imóveis e as registram no Blockchain.

Dentre os inúmeros benefícios, a tokenização de imóveis traz maior liquidez, possibilidade de maior circulação, compra de frações, maior controle, celeridade, menor burocracia e tudo com base em um smart contract administrável e de modo centralizado, com tokens representando frações de um ativo, e com isso, garantindo ao titular a utilidade de exercer direitos obrigacionais e outros benefícios.

Por mais que a tokenização imobiliária proporcione uma diversidade de benefícios e inovações para investidores, é crucial reconhecer e avaliar os riscos, podendo ser ele riscos de mercado, riscos de segurança cibernética, riscos de liquidez, riscos operacionais e riscos regulatórios.

A volatilidade do mercado imobiliário pode acabar afetando os valores de ativos gerados, ou seja, mudanças nas condições econômicas ou políticas podem impactar negativamente o desempenho dos investimentos, como também a falta de regulamentação adequada que proteja os ativos de cibercriminosos.

Embora a liquidez seja uma das maiores vantagens da tokenização, a capacidade de vender tokens rapidamente pode ser prejudicada por condições atuais de mercados desfavoráveis ou pela falta de demandas por ativos específicos, incluindo questões de transparência e custódia de ativos.

Ao entender os benefícios e os riscos, investidores podem tomar decisões mais minuciosas e analisar se o seu investimento é apropriado para a tokenização.

Com a intenção de expandir a tokenização de imóveis, a Netspaces, uma startup de digitalização, lançou o programa “Sandbox da Propriedade Digital”, com o objetivo de preparar o mercado para as transações imobiliárias digitais. O projeto consiste na preparação de um novo mercado influenciado pela chegada do real digital (DREX), que foi apresentado pelo Banco Central do Brasil e que irá possibilitar a criação e execução de contratos inteligentes em transações de imóveis.

Tokenização não é hype, é realidade! E enganam-se aqueles que acreditam que é ilegal ou inviável no Brasil. Apesar da legislação ultrapassada, arranjos e planejamento jurídico especializado por advocacia especializada em criptoativos permitem e estão pavimentando estradas para projetos cada vez mais incríveis e rentáveis, em um mercado que crescerá milhões nos próximos anos.




A Guerra digital envolvendo Inteligência Artificial e Deep Fakes nas Eleições 2024

Quais os benefícios e riscos e como a perícia digital em IA poderá contribuir com as campanhas.

Em ano eleitoral, o próprio TSE sinaliza a dificuldade de fiscalização e punição das denominadas Fake News 2.0, que poderão ser impulsionadas pelo uso de Deep Fakes e Inteligência Artificial (IA).

O Deep Fake é um método que utiliza a Inteligência Artificial (IA) para trocar o rosto, sincronizar movimentos, expressões faciais e labiais, como também os demais detalhes de uma foto ou vídeo, o que acaba gerando um resultado convincente acerca de uma pessoa. Esse método, além de manipular fotos e vídeos, também é utilizado para a manipulação de áudios, ou seja, é capaz de criar gravações que simulam a voz de uma determinada pessoa.

A Inteligência Artificial (IA) consiste no uso de aparelhos eletrônicos e softwares capacitados para imitar pensamentos e comportamentos humanos acerca de decisões e execuções de tarefas, como o reconhecimento facial, assistente de voz e algoritmos de redes sociais que identificam quais posts e publicações possuem um grau de relevância de determinado conteúdo ou assunto à ser apresentado e entregue para pessoas e usuários de redes sociais.

A popularização de ferramentas e aplicações capazes de modificar falas, simular vídeos em situações vexatórias, fotos e demais recursos, absolutamente capazes de influenciar e criar estados mentais, que podem prejudicar candidatos, se tornaram mais frequentes nas últimas eleições não só no território nacional, como também em outros países.

Ao olharmos para nossos vizinhos, podemos constatar que as eleições Argentinas foram marcadas por vídeos falsos, inclusive de candidatos à presidência usando drogas, o que se tornou  altamente viralizado. Não há dúvida que a inovação será um desafio e demanda das campanhas a estruturação de grupos de inteligência e perícia digital, aptos a detectarem fakes e viralizações e atuarem desmistificando e identificando modus operandi e os autores, que comumente buscam o anonimato.

O uso das deep fakes na criação de conteúdo falso, inverídico, vexatório e enganoso inaugura uma era em que times digitais precisarão contar com apoio especializado de peritos digitais em inteligência artificial, na detecção se o conteúdo foi produzido com qual técnica, identificação da desinformações e atuação rápida, com vistas a remoção de conteúdos e identificação dos responsáveis, por meio de um time jurídico especializado em direito digital eleitoral.

São preocupações que não podem ser desconsideradas. O que fazer, por exemplo, se um áudio falso do candidato começar a circular pelo WhatsApp ou Telegram às vésperas do pleito? Como conter os boatos? como buscar a identificação da fonte e origem dos ataques? Os aplicativos podem ser obrigados a, a partir de metadados, bloquear a transmissão de arquivos feitos com a IA? Como responder adequadamente a incidentes envolvendo IA e criação de conteúdos realísticos?

É importante destacar que a PL 2338/2023, atualmente sob análise da Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), visa estabelecer normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de IA no território nacional, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis em benefício da pessoa humana, do regime democrático e do desenvolvimento.

O Código Eleitoral, em seu artigo 323, a Lei 9504/97 das Eleições, e a Resolução n° 23.714/2022 punem a contratação de pessoas para que espalhem  desinformações, bem como a manipulação destas no escopo de confundir o eleitor.

No entanto, o grande desafio é a detecção ágil, remoção de conteúdo e a identificação dos autores, o que passa pela contribuição dos provedores de aplicações e serviços de mensageria privada. A Google, por exemplo, obrigará a sinalizar o uso de IA em anúncios eleitorais, já que a empresa alega que as “deep fakes” criadas por algoritmos de Inteligência Artificial confundem os eleitores a distinguir entre o fato e a ficção, tornando difícil de saber o que é real ou falso.

O TSE realizou entre os dias 23 e 25 de Janeiro de 2024 ,  uma audiência que teve como finalidade a discussão acerca das regras eleitorais para 2024. Através da minuta de resolução que trata da propaganda eleitoral, alterando a resolução n°23.610/2019.

Em seu Art. 3°-C, discorre que a campanha eleitoral deve seguir regramentos a respeito da transparência, como também avisar os cidadãos sobre o uso de tecnologia digitais, quando assim ocorrer. O art. 9°-B da mesma minuta, dispõe sobre a utilização na campanha eleitoral, de qualquer meio ou modo de conteúdo que se utilize de tecnologia digital:

9º-B. A utilização na propaganda eleitoral, em qualquer de suas modalidades, de conteúdo fabricado ou manipulado, em parte ou integralmente, por meio do uso de tecnologias digitais para criar, substituir, omitir, mesclar, alterar a velocidade, ou sobrepor imagens ou sons, incluindo tecnologias de inteligência artificial, deve ser acompanhada de informação explícita e destacada de que o conteúdo foi fabricado ou manipulado e qual tecnologia foi utilizada, submetendo-se o seu descumprimento ao previsto no §1º do artigo 323 do Código Eleitoral, sem prejuízo de aplicação de outras medidas cabíveis quanto a ilicitude do conteúdo.

1º A fabricação ou manipulação de conteúdo político-eleitoral mencionada neste artigo refere-se à criação ou à edição de conteúdo sintético que ultrapasse ajustes destinados à melhoria da qualidade da imagem ou som. 

2º É vedada a utilização na propaganda eleitoral, qualquer que seja sua forma ou modalidade, de conteúdo fabricado ou manipulado de fatos sabidamente inverídicos ou gravemente descontextualizados com potencial de causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral, inclusive na forma de impulsionamento.

Na Europa, já se cogita que sistemas de IA para influência de eleitores em campanhas sejam classificados  “de alto risco” para que se submetam a compliance regulatório. No dia 9 de Dezembro de 2023, o Conselho e o Parlamento Europeu concordaram a assumir um compromisso com a proposta de regras harmonizadas. O “The EU’s AI Ac”,  que trata da Inteligência Artificial, visa estabelecer padrões globais para a regulamentação da Inteligência Artificial com o objetivo de preparar o caminho e garantir que o desenvolvimento da IA seja ético, seguro e confiável.

Ponto interessante diz respeito, igualmente, aos BOTS que podem ser operados por IA e assim, soarem como imperceptíveis ao eleitor, em comunicadores e redes sociais. Nos Estados Unidos, por sua vez, já ocorre a vedação que candidatos usem IA para enganar pessoas, bem como regras que determinam que os candidatos e campanhas/redes sociais desenvolvam avisos de tecnologia de que determinado conteúdo foi gerado por IA.

A regulamentação dessas regras eleitorais dependem de autoridades estaduais, já que o país possui uma tradição federativa. Segundo um levantamento, apenas cinco estados americanos (Califórnia,  Michigan, Minnesota, Texas e Washington) aprovaram leis proibindo o uso de IA em campanhas eleitorais.

Não há menor dúvida de que as eleições deste ano, como também as eleições futuras, serão marcadas pelo aumento das guerrilha digital e da desinformação, só que desta vez, sem montagens grosseiras, mas sim com produções indetectáveis por um não especialista, graças a popularização da IA Generativa e outras tecnologias acessíveis a todos.

A comunicação digital e a inteligência artificial ultrapassarão 50% dos gastos de campanha, pela primeira vez no Brasil. E diante dos riscos, a atuação da perícia digital em inteligência artificial poderá esclarecer inúmeros pontos de interesse de autoridades, ligados à meios de criação, autoria, repositórios encontráveis, constatação de falsidade e demais questões relevantes.

Não se descarta o uso positivo e benefícios oferecidos pela Inteligência Artificial no processo político eleitoral, como levantamento de dores, geração de anúncios, segmentação de eleitores e um poderoso instrumento no marketing político e construção de copies e discursos.

A união de ciência de dados e IA também pode ser muito benéfica para estratégias de campanha e construção de argumentos persuasivos. Na fase de pré-campanha, pode ser um importante recurso para construção de copies que engajem listas e aqueçam potenciais eleitores.  Já existem campanhas utilizando a tecnologia para, a partir de dados fornecidos, gerar outputs úteis  à construção de planos de governo.

Por outro lado, é inegável que a inovação poderá ser usada como arma em campanhas eleitorais. Partidos, coligações e comitês precisam estar atentos a isso e saber como reagir a ataques desta natureza.




Perito em inteligência artificial e Deep Fakes: A importância da prova técnica em questões jurídicas envolvendo IA

Introdução

O crescimento da inteligência artificial generativa, conectada a redes neurais e constituindo-se sistema inteligência para, a partir de aprendizado de máquina, construir sentenças, inferências e tomar decisões, com destaque para o ChatGPT, vem gerando uma revolução social, considerando os inúmeros benefícios do uso da Inteligência Artificial (IA) nos diversos setores comerciais e área do conhecimento.

Por outro lado, o uso para práticas de crimes vem preocupando autoridades e legisladores em todo o mundo. Europa, Estados Unidos e Brasil discutem a regulamentação da Inteligência Artificial.

Alia-se à Inteligência artificial, inúmeros sistemas de Deep Fakes, capazes de simular falas, gestos e ações, a partir de trechos de áudio, fotos ou vídeos de pessoas. No Brasil e em diversos países, inúmeras pessoas passam a ser vítimas de golpes, fraudes e crimes com uso indevido de áudios e imagens, inseridos em contextos criminosos. Com isso, cada vez maior será a demanda do Judiciário ligada a problemas e crimes praticados com uso da IA. Denota-se assim a necessidade do perito em Inteligência artificial, para solucionar as principais controvérsias que surjam em casos ligados à IA e seus usos nocivos.

Usos indevidos da IA e o papel do perito em sistemas de inteligência artificial

A inteligência artificial possui inúmeras vantagens e como visto, pode transformar o mundo nos próximos anos, no entanto, inúmeros desafios jurídicos surgem do possível uso indevido da tecnologia. Dentre os riscos jurídicos estão:

Responsabilidade Civil: Se um sistema de IA causa danos a pessoas ou propriedades devido a erros, falhas ou decisões inadequadas, discute-se a questão da responsabilidade civil. Determinar quem é responsável por tais danos, seja o desenvolvedor, o usuário ou outro envolvido, pode ser complexo e pode demandar a atuação de um perito em inteligência artificial

Violação de dados pessoais: O uso de IA em análise de dados pessoais pode levar a preocupações com a privacidade. Se algoritmos de IA processarem informações pessoais de maneira inadequada ou não autorizada, pode haver violações de leis de proteção de dados. O perito em inteligência artificial e proteção de dados poderá atuar na análise do suposto incidente, determinando as causas e os fatores.

Discriminação e Viés: Algoritmos de IA podem herdar preconceitos presentes nos dados de treinamento, resultando em decisões discriminatórias. Isso pode levar a questões legais relacionadas à igualdade, diversidade e direitos civis. A prova técnica e simulações para verificar se realmente ocorre discriminação poderá ser realizada pelo perito digital.

Segurança Cibernética: Sistemas de IA são suscetíveis a ataques cibernéticos. Se informações sensíveis forem comprometidas devido a falhas de segurança em sistemas de IA, pode haver implicações legais relacionadas à proteção de dados. Coletar evidências sobre um suposto incidente e compreender a extensão do dano é papel do perito digital em inteligência artificial.

Propriedade Intelectual e direitos autorais: A questão da propriedade intelectual pode surgir no desenvolvimento de algoritmos de IA. Quem detém os direitos autorais sobre o código-fonte ou os dados usados no treinamento do modelo? Quem é dono dos outputs e textos gerados a partir de prompts? Estas questões poderão aparecer no judiciário, o que demandará a análise de um perito digital em inteligência artificial.

Ética e Transparência: Questões éticas em torno do uso de IA, como a falta de transparência em algoritmos complexos, podem gerar preocupações legais. A exigência de explicabilidade e transparência pode ser um requisito legal em alguns contextos. Com o projeto de Lei 3238/2021, as IAs precisarão de alto risco de regras de compliance e poderão estar sujeitas à regulamentação de autoridade. Nestes casos, um perito em IA poderá avaliar e conceber pareceres sobre seu sistema, sobretudo sobre o risco algorítmico.

Regulamentação e Conformidade: A falta de regulamentação clara em relação ao uso da IA pode resultar em incertezas legais. Em alguns casos, o não cumprimento de regulamentações existentes pode levar a penalidades. A atuação de um perito em conjunto com advogado especializado em IA poderá auxiliar no processo de compliance de negócios que utilizem a IA como base.

Como visto, são inúmeras as questões jurídicas que são trazidas com o uso da IA, porém, uma das grandes preocupações está na integração da IA com ferramentas de Deep Fakes, capazes de simular pessoas em vídeos e falas fakes e não reais. Os danos são imensos e com a inevitável crescente destas questões na Justiça, o papel do perito em inteligência artificial é cada vez mais fundamental.

Usos indevidos da IA e o papel do perito em sistemas de inteligência artificial

O uso indevido de Deep Fakes, que envolvem a criação de conteúdo audiovisual falso e realista por meio de técnicas de inteligência artificial, apresentando uma série de desafios jurídicos adicionais, incluindo mas não se limitando a:

Difamação e Calúnia: Deep Fakes podem ser utilizados para criar vídeos ou áudios falsos com o intuito de difamar ou caluniar uma pessoa. Isso pode levar a questões legais relacionadas à reputação e à responsabilidade por danos. Identificar se determinado conteúdo é manipulado, quais técnicas usadas e por quem, pode ser tarefa atribuída ao perito digital em inteligência artificial.

Fraude e Manipulação: O uso de Deep Fakes para enganar ou manipular, pode resultar em fraudes de diversas formas, desde fraudes financeiras até manipulação de eleições e criação de estados mentais no eleitor. Isso pode gerar implicações legais sérias considerando que vídeos poderão surgir e levarão pessoas à tomada de decisões erradas.

Violação de Direitos Autorais: A criação de Deep Fakes muitas vezes envolve o uso de imagens e vídeos protegidos por direitos autorais sem permissão. Isso pode resultar em questões legais relacionadas à propriedade intelectual, uso indevido de imagem e direito concorrencial.

Assédio, Extorsão e Intimidação: Deep Fakes também podem ser utilizados para criar conteúdo que visa assediar, intimidar ou difamar uma pessoa. Isso pode levar a processos legais relacionados à violação da privacidade e segurança pessoal.

Pornografia de Vingança: Deep Fakes são frequentemente associados à criação de pornografia de vingança, onde o rosto de uma pessoa é sobreposto em conteúdo sexual explícito. Isso pode resultar em ações legais por difamação, violação de privacidade, violação ao Estatuto da Criança e do Adolescente e outros delitos. Na Justiça, o perito digital em inteligência artificial pode atuar auxiliando vítimas e acusados a provar tecnicamente seus direitos, atuando como assistente técnico.

Fraude Eletrônica: Se Deep Fakes são usados para criar vídeos ou áudios falsos com o objetivo de enganar sistemas de autenticação ou realizar fraudes eletrônicas, isso pode resultar em questões legais relacionadas à cibersegurança e crimes eletrônicos. Já se tem inúmeras notícias de fraudes bancárias envolvendo facial attack e sistemas que manipulam fotos de pessoas para gerar o “liveness” necessário para que autentiquem em bancos. As fraudes envolvendo assinaturas eletrônicas, identidade digital e IA crescerão e o perito digital em IA poderá ser chamado para esclarecer o contexto e esclarecer tecnicamente o ocorrido.

Deste modo, a crescente prevalência de Deep Fakes destaca a necessidade de legislação e regulamentação para lidar com essas questões específicas, garantindo que a tecnologia seja usada de maneira ética e responsável. Muitos países estão começando a implementar ou considerar a legislação para abordar os desafios legais associados aos Deep Fakes.

No entanto, os problemas sociais surgirão e o Judiciário terá que decidir embasado em provas técnicas, momento em que poderá ser assistido por perito em inteligência artificial. As partes, por sua vez, podem se valer de assistentes técnicos em processos cíveis, trabalhistas e criminais ligados à inteligência artificial.

O que faz o perito em IA e Deep Fakes?

O perito em Inteligência Artificial (IA) e Deep Fakes, é um profissional especializado em avaliar, analisar e fornecer expertise técnica relacionada a casos envolvendo o uso de IA, especialmente em contextos de Deep Fakes. Suas responsabilidades podem incluir:

Análise Forense:Conduzir análises forenses em vídeos, imagens ou áudios para determinar se eles foram manipulados por meio de técnicas de IA, como Deep Fakes. Isso envolve examinar metadados, padrões de pixel, e outras características para identificar possíveis sinais de manipulação.

Verificação de Autenticidade:Avaliar a autenticidade de mídias digitais, especialmente em casos onde a validade e integridade de vídeos ou imagens são questionadas. Isso pode envolver a comparação de dados originais com a mídia em questão.

Desenvolvimento de Métodos de Detecção:Colaborar com pesquisadores e especialistas para desenvolver métodos avançados de detecção de Deep Fakes. Isso inclui a compreensão profunda das técnicas usadas na criação de Deep Fakes para desenvolver contramedidas eficazes.

Testemunho em Processos Legais e provas técnicas simplificadas Fornecer depoimento como especialista em processos judiciais, explicando os métodos utilizados na análise e apresentando conclusões sobre a autenticidade ou manipulação de evidências digitais.

Colaboração com Profissionais de Segurança Cibernética:Trabalhar em conjunto com profissionais de segurança cibernética para entender e combater ameaças relacionadas a Deep Fakes que podem ter implicações em segurança digital e privacidade.

Assessoria de Compliance a empresas e organizações:Prestar consultoria a empresas e organizações que desejam proteger-se contra a manipulação de conteúdo por meio de Deep Fakes. Ou mesmo auxiliar empresas e negócios em pareceres e análises técnicas e algorítmicas necessárias para o compliance com agentes regulatórios.

Como funciona a perícia em inteligência artificial e como detectar Deep Fakes?

A detecção de Deep Fakes pode ser desafiadora, uma vez que essas tecnologias estão em constante evolução e se tornam cada vez mais sofisticadas. No entanto, a perícia poderá atuar com abordagens e técnicas que podem ser utilizadas para tentar identificar Deep Fakes, dentre elas, podemos citar:

Análise Visual:O perito em inteligência artificial irá analisar cuidadosamente o vídeo ou imagem em questão, procurando por anomalias, artefatos visuais, inconsistências na iluminação e sombras, ou distorções nos contornos faciais que podem indicar manipulação.

Comparação com Dados Originais:Se existir uma mídia original, uma prática da perícia em IA é realizar a comparação da mídia suspeita com fontes de dados originais, como fotos ou vídeos autênticos da mesma pessoa. As discrepâncias entre o conteúdo original e o Deep Fake podem ser reveladoras.

Análise Temporal:Pode ser importante realizar a denominada análises de consistência temporal do vídeo. Deep Fakes podem ter problemas com a sincronização labial ou movimentos faciais que parecem inconsistentes com o áudio ou contexto do vídeo.

Análise de Movimento:O Perito em Inteligência Artificial, pode realizar a análise do movimento natural das características faciais. Deep Fakes podem ter dificuldade em replicar movimentos sutis e expressões faciais autênticas.

Sons e Vozes Artificiais:Em Deep Fakes de vídeos com áudio, o perito atua com a análise da qualidade e coerência da voz. Alguns Deep Fakes podem apresentar artefatos sonoros ou discrepâncias entre a fala e os movimentos labiais.

Ferramentas de Detecção Automática:Atualmente existem algoritmos, técnicas e ferramentas especializadas de detecção de Deep Fakes. Algoritmos e softwares foram desenvolvidos para analisar padrões específicos associados a Deep Fakes.

Análise de Metadados da Mídia:Uma das análises mais comuns, sobretudo em questões de identidade e assinatura digital, é a análise dos metadados da mídia, como informações de data, hora e dispositivo de gravação. Inconsistências podem ser indicativos de manipulação.

Projeto de Lei 2338/2023

Atualmente, sob análise da Comissão Temporária Interna sobre Inteligência Artificial (CTIA) no Brasil, o Projeto Lei (PL) esclarece os princípios para o fomento, o desenvolvimento e uso seguro, confiável e responsável da Inteligência Artificial (IA), tendo como objetivo proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico.

O PL fez algumas definições acerca da IA onde se encontram previstas em seu Art. 4:

Sistema de inteligência artificial: sistema computacional, com graus diferentes de autonomia, desenhado para inferir como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento, por meio de dados de entrada provenientes de máquinas ou humanos, com o objetivo de produzir previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou real;

Fornecedor de sistema de inteligência artificial: pessoa natural ou jurídica, de natureza pública ou privada, que desenvolva um sistema de inteligência artificial, diretamente ou por encomenda, com vistas a sua colocação no mercado ou a sua aplicação em serviço por ela fornecido, sob seu próprio nome ou marca, a título oneroso ou gratuito;

Operador de sistema de inteligência artificial: pessoa natural ou jurídica, de natureza pública ou privada, que empregue ou utilize, em seu nome ou benefício, sistema de inteligência artificial, salvo se o referido sistema for utilizado no âmbito de uma atividade pessoal de caráter não profissional;

Agentes de inteligência artificial: fornecedores e operadores de sistemas de inteligência artificial;

Autoridade competente: órgão ou entidade da Administração Pública Federal responsável por zelar, implementar e fiscalizar o cumprimento desta Lei em todo o território nacional;

Discriminação: qualquer distinção, exclusão, restrição ou preferência, em qualquer área da vida pública ou privada, cujo propósito ou efeito seja anular ou restringir o reconhecimento, gozo ou exercício, em condições de igualdade, de um ou mais direitos ou liberdades previstos no ordenamento jurídico, em razão de características pessoais como origem geográfica, raça, cor ou etnia, gênero, orientação sexual, classe socioeconômica, idade, deficiência, religião ou opiniões políticas;

Discriminação indireta: discriminação que ocorre quando normativa, prática ou critério aparentemente neutro tem a capacidade de acarretar desvantagem para pessoas pertencentes a grupo específico, ou as coloquem em desvantagem, a menos que essa normativa, prática ou critério tenha algum objetivo ou justificativa razoável e legítima à luz do direito à igualdade e dos demais direitos fundamentais;

Mineração de textos e dados: processo de extração e análise de grandes quantidades de dados ou de trechos parciais ou integrais de conteúdo textual, a partir dos quais são extraídos padrões e correlações que gerarão informações relevantes para o desenvolvimento ou utilização de sistemas de inteligência artificial

O Projeto Lei ainda expõe os princípios para a proteção da espécie humana e dos dados pessoais:

Dignidade Humana: a IA deverá ser desenvolvida e utilizada de maneira a respeitar a dignidade, a liberdade e os direitos humanos, promovendo o bem-estar social e individual.

Proteção de Dados Pessoais: deverá ser garantida a proteção de dados pessoais, conforme as normativas legais vigentes, assegurando a privacidade e a segurança das informações.

Consentimento Informado: o consentimento livre, informado e explícito dos indivíduos deverá ser obtido para a coleta e uso de seus dados pessoais.

Transparência: os processos e decisões tomadas por sistemas de IA devem ser transparentes, auditáveis e explicáveis, permitindo a responsabilização dos desenvolvedores e operadores.

Não Discriminação: a IA deverá ser desenvolvida e operada de forma a prevenir e mitigar discriminações, vieses e preconceitos.

Educação e Conscientização: deverá ser promovida a educação e a conscientização sobre os impactos da IA na sociedade, bem como sobre os direitos dos indivíduos.

Deste modo, o PL traz orientações de como os cidadãos brasileiros devem interagir com o sistema de Inteligência Artificial de modo em que seja priorizado o respeito, conhecimento e responsabilidade ao bem-estar jurídico e humano.

Conclusões

Dada a complexidade e a evolução rápida das tecnologias de IA, o papel do perito em inteligência artificial e Deep Fakes é fundamental para a identificação e mitigação de potenciais ameaças e para a garantia da autenticidade em ambientes digitais.

Lembre-se de que, à medida que as tecnologias de Deep Fake avançam, também o fazem as técnicas de detecção e o avanço da perícia digital em inteligência artificial. A pesquisa contínua e a colaboração entre especialistas em segurança, pesquisadores acadêmicos e desenvolvedores de tecnologias é essencial para melhorar as capacidades de detecção e mitigar o impacto potencial de Deep Fakes e demais usos indevidos da Inteligência Artificial.

Como contratar um perito em assinatura online?

A CyberExperts é consultoria especializada em computação forense, inteligência cibernética, perícia e auditorias em informática e inteligência artificial, sendo referência em perícia digital e em informática. Atuamos preventivamente ou em processos administrativos ou judiciais, para empresas, fintechs, órgãos de pesquisa e órgãos públicos na coleta, preservação e análise de evidências digitais, por meio de um rol de peritos com notória experiência profissional. Realizamos auditorias independentes de maturidade de controles de segurança digital e compliance de Inteligência Artificial. Profissionais com as principais certificações internacionais. Fale conosco (11) 3254-7616 ou acesso www.cyberexperts.com.br. Expertise, lealdade e ética. Conheça nosso curso de Perícia em Proteção de Dados Pessoais.




Profissão Repórter: Golpe do 0800

Diretor da Cyberexperts especialista em Perícia Forense e Análise de Dados, José Milagre, participou em 22/11/2023 do Profissão Repórter, em matéria que expõe golpe de Falsa Central de Atendimentos Bancários.

Em mensagem enviada por golpistas alegando que compras foram aprovadas em seus cartões, vítimas são aconselhadas a entrarem em contato através do 0800 para solicitarem o “estorno” do valor, onde acabam fornecendo seus dados com a expectativa de ter o valor devolvido.

Após a solicitação, os golpistas usam o argumento que para receber o suposto valor, a vítima teria que enviar um PIX para que o estorno fosse concedido. Usando os dados que foram fornecidos anteriormente, os golpistas enviam um link e um código orientando o envio do valor solicitado, fazendo assim, vítimas a caírem no verdadeiro golpe.

Considerando que vivemos em uma era que a cada dia se torna mais digital, proteger seus dados é primordial, já que acabam ficando cada vez mais expostos. Seja para criar uma usuário em um aplicativo ou em um streamer, acabamos concedendo informações importantes que precisam ser preservados.

Para ver a reportagem completa, acesse o link:
https://g1.globo.com/profissao-reporter/noticia/2023/11/22/a-senhora-ta-esperta-diz-falso-atendente-para-reporter-ao-tentar-aplicar-golpe-do-0800-veja-video.ghtml




José Milagre toma posse no Instituto Nacional de Criptoativos

Na última Sexta-Feira (10/11), foi realizado a cerimônia de posse da Diretoria e Conselho do Instituto Nacional de Inecripto, que tem como destino o estudo e o aperfeiçoamento da Legislação Brasileira que trata de criptoativos.

Nomeado como um novo integrante do Conselho, o Expert José Milagre tomou posse de sua nomeação no Plenário do Tribunal de Contas Paulista.

 

Para mais informações, acesse: https://inecripto.org.br/




JORNAL DA RECORD: Grupo terrorista arrecada a equivalente R$200 milhões em criptomoedas para financiar ataques

O especialista em Direito Digital e Crimes Cibernéticos, José Milagre, participou em 20/10/2023 do Jornal da Record, em matéria especial sobre a arrecadação de criptomoedas por grupos terroristas.

 

É possível rastrear titulares e grupos que utilizam criptomoedas?

Rastrear a origem exata dos titulares de criptomoedas envolve muitos pontos a serem observados, já que envolve toda uma questão de segurança e privacidade de dados. Normalmente transações de criptomoedas são armazenadas em um blockchain, que mesmo sendo de acesso público, ainda sim mantém as identidades de seus titulares de forma oculta.

Sendo objetivo, sim é possível rastrear titulares responsáveis pelas transações de criptomoedas. A identificação é realizada por empresas especialistas em análise forense de blockchain, Exchanges de criptomoedas e Agências Governamentais.

Em consideração, é importante ressaltar que qualquer questão que envolva a privacidade é um direito fundamental. Tentar rastrear a origem e transições de titulares de criptomoedas sem que ocorra uma situação específica que esteja ligada a investigações criminais ou questões regulatórias, é totalmente ilegal. É importante respeitar a privacidade de dados pessoais, e seguir as leis aplicáveis.




Como remover seus dados pessoais e boatos da Internet e evitar problemas?

Especialista em direito digital e proteção de dados, José Milagre, explica os riscos de exposição indevida de dados e fakenews na Internet e como pessoas e empresas podem se proteger e remover informações da rede, com 10 estratégias de atuação.

Danos catastróficos

É importante pensar que dados pessoais são, hoje em dia, considerados insumos para criminosos e fraudadores. Com estes dados, marginais podem criar contas, cadastros, contrair empréstimos, fazer compras, clonar chips, tomar perfis em redes sociais, cadastrar a pessoa em redes sociais sexuais, falsear identidade de alguém, além de inúmeras outras atividades que podem trazer inúmeros transtornos para o titular de dados e terceiros, sem contar o uso desabonador e vexatório, onde a vítimas poderá perder oportunidades de negócios, empregos, dentre outros.

Neste sentido, é possível falar ou cogitar em proteção de nossos dados pessoais, limpando-os da Internet? Notícias ou publicações com dados pessoais podem ser removidas? E falsas reclamações ou informações fake? Na verdade, é impossível vivermos sem que haja o compartilhamento de dados pessoais (ainda que inconscientemente), porém, podemos e devemos ter o controle de onde estes dados circulam e não podemos hesitar em agir caso estejam estampados para todo o mundo.

Não é bom que fiquem expostos em resultados de busca ou sites públicos dados financeiros, imagens antigas, de alta resolução, documentos, endereços, dados de familiares, vencimentos, dentre outras informações. No escritório especializado em direito digital, somos capacitados em gestão da reputação online (ORM), atuando com tools de última geração para detecção e procedimentos de remoção de conteúdos indevidos, atuando para empresas, políticos, personalidades, executivos, pessoas físicas e jurídicas em geral. Seja você uma pessoa pública ou não: Não é obrigado a conviver com exposição que pode lhe trazer danos morais, físicos e materiais, sempre que pesquisam por seu nome na Internet ou redes sociais.

Neste texto, selecionei algumas estratégias que podem ajudar nesta tarefa de manter-se seguro e sem dados pessoais ou desabonadores na Internet.

Mas, qual o problema?

Talvez, o principal problema sobre nossas informações pessoais na Internet seja o fato de que a maioria delas está lá sem a nossa autorização, à medida em que navegamos, compartilhamos informações na web, muitas vezes sem permissão ou de forma inconsciente. Estes dados podem ser coletados por mineradores, bots, crawlers e são agrupados, classificados e podem revelar informações sobre uma pessoa, preferências, status financeiro, doenças, interesses, posses, paradeiros, etc. Estas inferências podem ser usadas para golpes, crimes digitais, contra a honra e discriminação.

Dark web

Os dados vazados ou copiados atualmente vão parar em painéis feitos por crackers (cibercriminosos) na Darkweb e ficam à disposição para compras e aquisições. Pode-se comprar um ou centenas de registros. Quem compra, compra para aplicar golpes. Então, quando você recebe uma ligação do seu “gerente do banco” (bandido se passando por ele) e seus dados pessoais são confirmados ou ele sabia todas as suas informações, provavelmente ele se valeu destas fontes criminosas que fazem do mercado de registros e dados um negócio altamente lucrativo.

Como descobrir?

Um ponto de partida são os buscadores, que podem revelar indícios na web de superfície. É provável que ao digitar seu nome do Google encontre registros que sequer sabia que existiam, dados pessoais, informações falsas ou equivocadas, preferências, processos judiciais em sigilo, empresas no nome, reclamações falsas e outras informações que não deveriam ser públicas, para sua segurança e de seu negócio. Além disso, no escritório, atuamos com inteligência cibernética e investigações técnicas, de modo a identificar dados pessoais em repositórios não acessíveis por meios convencionais ou hospedados em serviços internacionais.

Dá para apagar tudo?

Apagar por completo a pegada digital é muito difícil, pois a cada dia estamos gerando mais e mais dados e “pedaços de informações”. Por isso, o monitoramento contínuo de exposição de dados pessoais ou dados corporativos sensíveis é fundamental, além do monitoramento da reputação, ataques indevidos ou falsas notícias e reclamações. Preparei opções para reduzir a exposição, com eliminação e controles sobre informações pessoais que aparecem sobre você na web.

Orientações preventivas

Dentre as estratégias para reduzir sua exposição digital e aumentar sua privacidade, posso citar dez essenciais:

1 Revise e exclua contas antigas em jogos ou em redes sociais. A ferramenta Mine® pode ajudar a você lembrar quais contas estão no seu nome/e-mail na Internet.

2 Revise configurações de privacidade de aplicativos e redes sociais, ativando controles de segurança que permitam que seus conteúdos só sejam vistos por amigos. Denuncie imediatamente contas fakes identificadas.

3 Aja imediatamente em face de sites indexadores que coletam dados públicos, de processos judiciais e fazem dossiês sobre pessoas. Não é porque o dado é público que ele pode ser usado de qualquer modo, inclusive para criação de perfis que possam te prejudicar, com a agregação de informações. Lembre-se que muitos sistemas processuais mantêm cópias de documentos de partes e dados sensíveis. Se for caso, peticione pedindo sigilo.

5 Jamais cadastre ou publique seu e-mail usado para autenticações bancárias em sites, redes sociais, blogs/fóruns na Internet. Prefira ter um e-mail privado, apenas para autenticação em bancos e fintechs. Cuidado com códigos via SMS para acesso a contas. Prefira sempre APPs autenticadores ou um e-mail seguro.

6 Limpe sempre os cookies e histórico de navegação, dificultando o rastreio virtual.

7 Troque o Google, que hoje totaliza 96% das pesquisas de usuários, por buscadores mais privados. Faça o mesmo com seu navegador. Hoje existem navegadores menos populares, mas muito mais seguros. Uma sugestão é o Duck Duck Go (https://play.google.com/store/apps/details?id=com.duckduckgo.mobile.android&hl=en_US&gl=US&pli=1) A consultoria de um privacy expert pode lhe orientar a criar ambientes seguros e privados, seja no âmbito pessoal ou empresarial.

8 Utilize uma VPN (Virtual Private Network), do mesmo modo, prejudicando a coleta de dados de navegação e o rastreio de suas atividades. Existem excelentes opções gratuitas. A minha indicação é a HotSpot Shield, acessível em https://www.hotspotshield.com/

9 Assine um sistema de gestão de reputação online ou vazamento de dados pessoais, monitorando em tempo real quando ocorrem, para que saiba rapidamente e aja para impedir que criminosos utilizem os dados ou causem danos. Uma plataforma gratuita que pode lhe dar inputs sobre dados vazados, contas em seu nome e outras informações, como chaves PIX criadas é o registrato, acessível em https://registrato.bcb.gov.br

10 Em caso de recusa, impossibilidade de remoção ou de identificação dos responsáveis, conte com um escritório de advocacia especializado em direito digital, para procedimentos especializados de identificação das ofensas e remoção de dados e informações falsas, desabonadoras ou prejudiciais, ou aplicação do direito ao esquecimento.

Aja imediatamente

A cada dia que os dados pessoais ou informações falsas e equivocadas permanecem no ar, maiores os riscos às pessoas, familiares e empresas. O escritório especializado em Direito Digital (http://www.direitodigital.adv.br) atua há mais de 15 anos e com expertise em remoção de dados pessoais, fakenews, informações equivocadas e descabidas da Internet. Além disso, atuamos com a apuração da autoria de boatos, calúnias, concorrência desleal, ofensas na Internet, mesmo que publicadas em domínios internacionais.

Temos parceria com a empresa de perícia digital CyberExperts (http://www.cyberexperts.com.br) e seu serviço Minha Imagem – Monitoramento de dados pessoais e exposição indevida da imagem. Com isso, oferecemos a clientes e empresas, monitoramento em tempo real de vazamentos, dados pessoais, informações inverídicas e boatos e imediatamente iniciamos procedimentos especializados, com objetivo de identificar responsáveis e remover os conteúdos, fazendo a gestão da reputação online de crises, com procedimentos técnicos e jurídicos.

Portanto, em tempo de dados pessoais como insumos de crimes, e de confiança cega no que “está na Internet”, adotar medidas para se proteger e atuar com segurança demonstra-se fundamental.

Canal Youtube

Você já conhece meu canal? No meu canal no Youtube você encontra inúmeros tutoriais e vídeos sobre como aprimorar sua privacidade e segurança digital. Acesse https://www.youtube.com/user/josemilagre/ e não deixe de se inscrever para ser avisado dos vídeos exclusivos semanais. Me siga no Instagram http://www.instagram.com/dr.josemilagre

José Milagre é Diretor de Forense Digital e Resposta a Incidentes da CyberExperts. Advogado e Perito Especialista em Segurança Digital, Resposta a Incidentes e Crimes Cibernéticos. Certificaçõs CIPM, CDPO IAPP, DPO EXIN, ISO 27701 Lead Implementer PECB, Graduação em Análise de Sistemas, Pós Graduado em Gestão de Tecnologia da Informação. Mestre e Doutor em Ciência da Informação pela Universidade Estadual Paulista UNESP, Presidente da Comissão de Direito Digital da OAB Barueri/SP.




Como retirar ofensas e remover difamação e dados pessoais da Internet? (2023)

“Estou sendo difamado e linchado na Internet! Como proceder? O que fazer e como produzir a prova técnica?”

Esta é uma das perguntas mais comuns que recebemos no escritório especializado em direito digital e crimes cibernéticos e na CyberExperts. É importante destacar que a Constituição Federal protege a liberdade de expressão, no entanto, este direito não é absoluto e pode ser restringido quando se caracteriza crimes contra a honra, como calúnia, injuria ou difamação ou mesmo conteúdos íntimos que são divulgados.

Pessoas podem ter desentendimentos comerciais, sofrerem processo ou cometerem danos e as vítimas tem direito de reclamação, opinião, o que não significa expor dados pessoais, intimidade, ameaças, ofensas, agressão a familiares e outras formas de linchamento e cancelamento, que destroem a honra e relações sociais e empresariais, gerando danos morais e materiais indenizáveis. Em muitos casos, pessoas sequer foram condenadas na justiça, mas na internet já foram, sem oportunidade de defesa. Posteriormente, podem ser absolvidas e amargurarem conviver com links, perfis falsos, e postagens ofensivas e caluniadoras, que precisam ser removidas.

O escritório JM&A Direito Digital é especializado em gestão de reputação online, crises, com adoção de medidas técnicas e jurídicas para identificação de ofensores, indenização, processo crime por ofensas e remoção de conteúdos ofensivos, dados pessoais, processos judiciais e conteúdo sensível da Internet, que podem ser utilizados para prática de crimes. Proteger a reputação online é fundamental, seja de uma empresa ou pessoa. O escritório atua em parceria com o serviço Minha Imagem da CyberExperts, uma perícia especializada em questões ligadas a monitoramento de ofensas, focos de compartilhamento, etc.

Para empresas, negócios e pessoas que estão sendo vítima de linchamentos e ofensas na Internet, as recomendações técnicas são:

1) Inicialmente, salve e preserve todo o conteúdo, incluindo Links, URLS;

2) Encaminhe ao advogado especialista em Direito Digital e Difamação na Internet para avaliação se crime ou liberdade de expressão;

3)Sendo o caso, registre ata notarial das ofensas, o que evita a falta da provas caso as publicações sejam excluídas;

4) Registre a ocorrência policial, preferencialmente em delegacias especializadas;

Com estas medidas e assessorada por escritório especializado em crimes virtuais e difamação na Internet, deverão ser adotadas medidas jurídicas para remoção das ofensas, identificação dos usuários (caso a autoria seja incerta) e até mesmo medidas para proibição de menções sob pena de multa ou desobediência, bem como reparação pelos danos morais e materiais sofridos, sem prejuízo dos processos criminais cabíveis.

O Dano moral é caracterizado pelo abalo emocional e psicológico gerado. O Dano material representa perdas emergentes e lucros cessantes que o negócio ou pessoa tiveram diante das ofensas, fake news e difamações: Ex: Diante das ofensas, as vitimas tiveram que fechar os negócios, unidades, ou tiveram queda de clientes e faturamento, ou estão na iminência de quebrarem.

Agir rápido é fundamental. O Injusto não deve prevalecer. Nenhum direito é absoluto e o Judiciário tem condenado inúmeras pessoas por abusos no direito de reclamação, falsas reclamações e ofensas. A experiência demonstra que medidas jurídicas possuem efeito desencorajador para novos ataques infundados. É evidente que muitas pessoas, amparadas ou não pelo anonimato, só cessam suas atividades criminosas com o peso das decisões judiciais. Portanto, procure ajuda especializada. O Advogado José Milagre, especialista em crimes virtuais, preparou um vídeo onde explica como pessoas devem fazer e proceder diante de ofensas, crimes e difamações na Internet. Assista e já se inscreva no canal para receber conteúdo semanal.

Compartilhe esse vídeo, mais pessoas podem precisar! Precisa de atendimento? Fale conosco.




Penalidades por violação à Lei de Proteção de Dados já podem ser aplicadas: Como se adequar?

Início

No dia 27 de fevereiro foi publicado pela Autoridade Nacional de Proteção de Dados Pessoais o regulamento de dosimetria e aplicação de sanções administrativas. O regulamento estabelece quais os critérios serão analisados e considerados para aplicação de penas para aqueles que estiverem realizando tratamento irregular de dados pessoais.

Processo fiscalizatório

A Autoridade Nacional já havia estabelecido o processo administrativo e fiscalizatório, que prevê os processos ligados a autuação e produção de provas diante de uma denúncia ligada a tratamento irregular de dados.

Penalidades

A partir de agora, as penalidades previstas na LGPD já podem ser aplicadas às empresas e pessoas que façam tratamento de dados irregular. As multas podem chegar a R$ 50 milhões de reais, porém, como é sabido, com o regulamento de dosimetria, critérios transparentes são avaliados, antes que se aplique penalidades mais severas. A penas previstas são: Advertência; Multa simples, de até 2% do faturamento da empresa, limitada, no total, a R$ 50 milhões, por infração; Multa diária; Publicização da infração; Bloqueio dos dados pessoais; Eliminação dos dados pessoais; Suspensão parcial do funcionamento do banco de dados por no máximo de seis meses, prorrogável por igual período, até que se regularize a situação; Suspensão do exercício da atividade de tratamento dos dados pessoais por no máximo de seis meses, prorrogável por igual período; Proibição parcial ou total do exercício de atividades relacionadas a tratamento de dados. As penalidades também se aplicam a órgãos públicos, menos a de multa. As multas devem ser pagas até 20 dias após a notificação. As alíquotas são definidas de acordo com a natureza da infração, que pode ser leve, grave ou média.

Sem desculpas!

Não existem desculpas para que aqueles que não se adequaram. A Lei 13.709 é de 2018 e negócios tiveram um bom tempo para adequação até a aplicação da norma. Mais que isso, como faltavam os regulamentos, mais tempo foi concedido às empresas e negócios que tratam dados pessoais. Ao que parece, muitos negócios, de forma desavisada, acabaram por relaxarem em relação ao compliance, sobretudo diante da demora na fiscalização e regulamento de aplicação de penas. Acreditavam que “não ia dar em nada”. Mas este cenário mudou.

PROCON

Apesar de agora a Autoridade Nacional de Proteção de Dados ter tudo que precisa para fiscalizar e aplicar multas, os PROCONS de diversos estados, na proteção ao direito do consumidor, já atuam de forma incisiva e no recebimento de denúncias por violação a dados pessoais. Inúmeras empresas no Brasil já receberam penalidades altíssimas, por não respeitarem a Lei Geral de Proteção de Dados, e não criarem um sistema de gestão que demonstre conformidade.

ANPD começa julgar casos

Como o regulamento de dosimetria, a entidade começará julgar o estoque de processos. A ANPD já recebeu cerca de 7 mil denúncias e tem oito processos sancionadores e que irá apreciar. Na maioria das denúncias, pedidos de dados excessivos pelos e-commerces ou venda de dados pessoais.

Justiça também se movimenta

Independentemente, o Judiciário Brasileiro já conta com inúmeros processos ligados à violações de dados pessoais. Farmácias, bancos, prefeituras e outros figuram como Requeridos. No site da Associação Nacional de Profissionais de Privacidade de Dados é possível ver este radar.

Como denunciar

No site da ANPD é possível ainda fazer uma petição contra o controlador de dados (agente de tratamento), denunciar o descumprimento da LGPD ou comunicar incidentes de segurança. O site é https://www.gov.br/anpd/pt-br

Momento impulsiona PrivacyTechs

Diante da aplicação das penalidades, começou a corrida da adequação e isso tem motivado a criação de inúmeras PrivacyTechs, startups do ramo de tecnologia. Se a empresa realiza tratamento de dados pessoais, deve iniciar a adequação. O https://privacyoffice.com.br/ é uma startup interessante, que modulariza a adequação em áreas: a) Compliance, para empresas pouco maduras ou que não iniciaram o tratamento, b) Auditoria e Perícia, para negócios que precisam auditar controles implementados e efetividade do programa de proteção de dados, c) DPO as a service e time de resposta a incidentes, para empresas que querem terceirizar o encarregado de proteção de dados e a resposta a incidentes e d) Educação, que são treinamentos e palestras de conscientização. O site da Startup é https://privacyoffice.com.br/

Tome ciência!

O processo de fiscalização pode ser consultado em https://www.gov.br/anpd/pt-br/documentos-e-publicacoes/regulamentacoes-da-anpd/resolucao-cd-anpd-no1-2021 e o regulamento de dosimetria em https://www.in.gov.br/en/web/dou/-/resolucao-cd/anpd-n-4-de-24-de-fevereiro-de-2023-466146077

No dia 27 de fevereiro foi publicado pela Autoridade Nacional de Proteção de Dados Pessoais o regulamento de dosimetria e aplicação de sanções administrativas. O regulamento estabelece quais os critérios serão analisados e considerados para aplicação de penas para aqueles que estiverem realizando tratamento irregular de dados pessoais.

Processo fiscalizatório

A Autoridade Nacional já havia estabelecido o processo administrativo e fiscalizatório, que prevê os processos ligados a autuação e produção de provas diante de uma denúncia ligada a tratamento irregular de dados.

Penalidades

A partir de agora, as penalidades previstas na LGPD já podem ser aplicadas às empresas e pessoas que façam tratamento de dados irregular. As multas podem chegar a R$ 50 milhões de reais, porém, como é sabido, com o regulamento de dosimetria, critérios transparentes são avaliados, antes que se aplique penalidades mais severas. A penas previstas são: Advertência; Multa simples, de até 2% do faturamento da empresa, limitada, no total, a R$ 50 milhões, por infração; Multa diária; Publicização da infração; Bloqueio dos dados pessoais; Eliminação dos dados pessoais; Suspensão parcial do funcionamento do banco de dados por no máximo de seis meses, prorrogável por igual período, até que se regularize a situação; Suspensão do exercício da atividade de tratamento dos dados pessoais por no máximo de seis meses, prorrogável por igual período; Proibição parcial ou total do exercício de atividades relacionadas a tratamento de dados. As penalidades também se aplicam a órgãos públicos, menos a de multa. As multas devem ser pagas até 20 dias após a notificação. As alíquotas são definidas de acordo com a natureza da infração, que pode ser leve, grave ou média.

Sem desculpas!

Não existem desculpas para que aqueles que não se adequaram. A Lei 13.709 é de 2018 e negócios tiveram um bom tempo para adequação até a aplicação da norma. Mais que isso, como faltavam os regulamentos, mais tempo foi concedido às empresas e negócios que tratam dados pessoais. Ao que parece, muitos negócios, de forma desavisada, acabaram por relaxarem em relação ao compliance, sobretudo diante da demora na fiscalização e regulamento de aplicação de penas. Acreditavam que “não ia dar em nada”. Mas este cenário mudou.

PROCON

Apesar de agora a Autoridade Nacional de Proteção de Dados ter tudo que precisa para fiscalizar e aplicar multas, os PROCONS de diversos estados, na proteção ao direito do consumidor, já atuam de forma incisiva e no recebimento de denúncias por violação a dados pessoais. Inúmeras empresas no Brasil já receberam penalidades altíssimas, por não respeitarem a Lei Geral de Proteção de Dados, e não criarem um sistema de gestão que demonstre conformidade.

ANPD começa julgar casos

Como o regulamento de dosimetria, a entidade começará julgar o estoque de processos. A ANPD já recebeu cerca de 7 mil denúncias e tem oito processos sancionadores e que irá apreciar. Na maioria das denúncias, pedidos de dados excessivos pelos e-commerces ou venda de dados pessoais.

Justiça também se movimenta

Independentemente, o Judiciário Brasileiro já conta com inúmeros processos ligados à violações de dados pessoais. Farmácias, bancos, prefeituras e outros figuram como Requeridos. No site da Associação Nacional de Profissionais de Privacidade de Dados é possível ver este radar.

Como denunciar

No site da ANPD é possível ainda fazer uma petição contra o controlador de dados (agente de tratamento), denunciar o descumprimento da LGPD ou comunicar incidentes de segurança. O site é https://www.gov.br/anpd/pt-br

Momento impulsiona PrivacyTechs

Diante da aplicação das penalidades, começou a corrida da adequação e isso tem motivado a criação de inúmeras PrivacyTechs, startups do ramo de tecnologia. Se a empresa realiza tratamento de dados pessoais, deve iniciar a adequação. O https://privacyoffice.com.br/ é uma startup interessante, que modulariza a adequação em áreas: a) Compliance, para empresas pouco maduras ou que não iniciaram o tratamento, b) Auditoria e Perícia, para negócios que precisam auditar controles implementados e efetividade do programa de proteção de dados, c) DPO as a service e time de resposta a incidentes, para empresas que querem terceirizar o encarregado de proteção de dados e a resposta a incidentes e d) Educação, que são treinamentos e palestras de conscientização. O site da Startup é https://privacyoffice.com.br/

Tome ciência!

O processo de fiscalização pode ser consultado em https://www.gov.br/anpd/pt-br/documentos-e-publicacoes/regulamentacoes-da-anpd/resolucao-cd-anpd-no1-2021 e o regulamento de dosimetria em https://www.in.gov.br/en/web/dou/-/resolucao-cd/anpd-n-4-de-24-de-fevereiro-de-2023-466146077