Perito em inteligência artificial e Deep Fakes: A importância da prova técnica em questões jurídicas envolvendo IA
Introdução
O crescimento da inteligência artificial generativa, conectada a redes neurais e constituindo-se sistema inteligência para, a partir de aprendizado de máquina, construir sentenças, inferências e tomar decisões, com destaque para o ChatGPT, vem gerando uma revolução social, considerando os inúmeros benefícios do uso da Inteligência Artificial (IA) nos diversos setores comerciais e área do conhecimento.
Por outro lado, o uso para práticas de crimes vem preocupando autoridades e legisladores em todo o mundo. Europa, Estados Unidos e Brasil discutem a regulamentação da Inteligência Artificial.
Alia-se à Inteligência artificial, inúmeros sistemas de Deep Fakes, capazes de simular falas, gestos e ações, a partir de trechos de áudio, fotos ou vídeos de pessoas. No Brasil e em diversos países, inúmeras pessoas passam a ser vítimas de golpes, fraudes e crimes com uso indevido de áudios e imagens, inseridos em contextos criminosos. Com isso, cada vez maior será a demanda do Judiciário ligada a problemas e crimes praticados com uso da IA. Denota-se assim a necessidade do perito em Inteligência artificial, para solucionar as principais controvérsias que surjam em casos ligados à IA e seus usos nocivos.
Usos indevidos da IA e o papel do perito em sistemas de inteligência artificial
A inteligência artificial possui inúmeras vantagens e como visto, pode transformar o mundo nos próximos anos, no entanto, inúmeros desafios jurídicos surgem do possível uso indevido da tecnologia. Dentre os riscos jurídicos estão:
Responsabilidade Civil: Se um sistema de IA causa danos a pessoas ou propriedades devido a erros, falhas ou decisões inadequadas, discute-se a questão da responsabilidade civil. Determinar quem é responsável por tais danos, seja o desenvolvedor, o usuário ou outro envolvido, pode ser complexo e pode demandar a atuação de um perito em inteligência artificial
Violação de dados pessoais: O uso de IA em análise de dados pessoais pode levar a preocupações com a privacidade. Se algoritmos de IA processarem informações pessoais de maneira inadequada ou não autorizada, pode haver violações de leis de proteção de dados. O perito em inteligência artificial e proteção de dados poderá atuar na análise do suposto incidente, determinando as causas e os fatores.
Discriminação e Viés: Algoritmos de IA podem herdar preconceitos presentes nos dados de treinamento, resultando em decisões discriminatórias. Isso pode levar a questões legais relacionadas à igualdade, diversidade e direitos civis. A prova técnica e simulações para verificar se realmente ocorre discriminação poderá ser realizada pelo perito digital.
Segurança Cibernética: Sistemas de IA são suscetíveis a ataques cibernéticos. Se informações sensíveis forem comprometidas devido a falhas de segurança em sistemas de IA, pode haver implicações legais relacionadas à proteção de dados. Coletar evidências sobre um suposto incidente e compreender a extensão do dano é papel do perito digital em inteligência artificial.
Propriedade Intelectual e direitos autorais: A questão da propriedade intelectual pode surgir no desenvolvimento de algoritmos de IA. Quem detém os direitos autorais sobre o código-fonte ou os dados usados no treinamento do modelo? Quem é dono dos outputs e textos gerados a partir de prompts? Estas questões poderão aparecer no judiciário, o que demandará a análise de um perito digital em inteligência artificial.
Ética e Transparência: Questões éticas em torno do uso de IA, como a falta de transparência em algoritmos complexos, podem gerar preocupações legais. A exigência de explicabilidade e transparência pode ser um requisito legal em alguns contextos. Com o projeto de Lei 3238/2021, as IAs precisarão de alto risco de regras de compliance e poderão estar sujeitas à regulamentação de autoridade. Nestes casos, um perito em IA poderá avaliar e conceber pareceres sobre seu sistema, sobretudo sobre o risco algorítmico.
Regulamentação e Conformidade: A falta de regulamentação clara em relação ao uso da IA pode resultar em incertezas legais. Em alguns casos, o não cumprimento de regulamentações existentes pode levar a penalidades. A atuação de um perito em conjunto com advogado especializado em IA poderá auxiliar no processo de compliance de negócios que utilizem a IA como base.
Como visto, são inúmeras as questões jurídicas que são trazidas com o uso da IA, porém, uma das grandes preocupações está na integração da IA com ferramentas de Deep Fakes, capazes de simular pessoas em vídeos e falas fakes e não reais. Os danos são imensos e com a inevitável crescente destas questões na Justiça, o papel do perito em inteligência artificial é cada vez mais fundamental.
Usos indevidos da IA e o papel do perito em sistemas de inteligência artificial
O uso indevido de Deep Fakes, que envolvem a criação de conteúdo audiovisual falso e realista por meio de técnicas de inteligência artificial, apresentando uma série de desafios jurídicos adicionais, incluindo mas não se limitando a:
Difamação e Calúnia: Deep Fakes podem ser utilizados para criar vídeos ou áudios falsos com o intuito de difamar ou caluniar uma pessoa. Isso pode levar a questões legais relacionadas à reputação e à responsabilidade por danos. Identificar se determinado conteúdo é manipulado, quais técnicas usadas e por quem, pode ser tarefa atribuída ao perito digital em inteligência artificial.
Fraude e Manipulação: O uso de Deep Fakes para enganar ou manipular, pode resultar em fraudes de diversas formas, desde fraudes financeiras até manipulação de eleições e criação de estados mentais no eleitor. Isso pode gerar implicações legais sérias considerando que vídeos poderão surgir e levarão pessoas à tomada de decisões erradas.
Violação de Direitos Autorais: A criação de Deep Fakes muitas vezes envolve o uso de imagens e vídeos protegidos por direitos autorais sem permissão. Isso pode resultar em questões legais relacionadas à propriedade intelectual, uso indevido de imagem e direito concorrencial.
Assédio, Extorsão e Intimidação: Deep Fakes também podem ser utilizados para criar conteúdo que visa assediar, intimidar ou difamar uma pessoa. Isso pode levar a processos legais relacionados à violação da privacidade e segurança pessoal.
Pornografia de Vingança: Deep Fakes são frequentemente associados à criação de pornografia de vingança, onde o rosto de uma pessoa é sobreposto em conteúdo sexual explícito. Isso pode resultar em ações legais por difamação, violação de privacidade, violação ao Estatuto da Criança e do Adolescente e outros delitos. Na Justiça, o perito digital em inteligência artificial pode atuar auxiliando vítimas e acusados a provar tecnicamente seus direitos, atuando como assistente técnico.
Fraude Eletrônica: Se Deep Fakes são usados para criar vídeos ou áudios falsos com o objetivo de enganar sistemas de autenticação ou realizar fraudes eletrônicas, isso pode resultar em questões legais relacionadas à cibersegurança e crimes eletrônicos. Já se tem inúmeras notícias de fraudes bancárias envolvendo facial attack e sistemas que manipulam fotos de pessoas para gerar o “liveness” necessário para que autentiquem em bancos. As fraudes envolvendo assinaturas eletrônicas, identidade digital e IA crescerão e o perito digital em IA poderá ser chamado para esclarecer o contexto e esclarecer tecnicamente o ocorrido.
Deste modo, a crescente prevalência de Deep Fakes destaca a necessidade de legislação e regulamentação para lidar com essas questões específicas, garantindo que a tecnologia seja usada de maneira ética e responsável. Muitos países estão começando a implementar ou considerar a legislação para abordar os desafios legais associados aos Deep Fakes.
No entanto, os problemas sociais surgirão e o Judiciário terá que decidir embasado em provas técnicas, momento em que poderá ser assistido por perito em inteligência artificial. As partes, por sua vez, podem se valer de assistentes técnicos em processos cíveis, trabalhistas e criminais ligados à inteligência artificial.
O que faz o perito em IA e Deep Fakes?
O perito em Inteligência Artificial (IA) e Deep Fakes, é um profissional especializado em avaliar, analisar e fornecer expertise técnica relacionada a casos envolvendo o uso de IA, especialmente em contextos de Deep Fakes. Suas responsabilidades podem incluir:
Análise Forense:Conduzir análises forenses em vídeos, imagens ou áudios para determinar se eles foram manipulados por meio de técnicas de IA, como Deep Fakes. Isso envolve examinar metadados, padrões de pixel, e outras características para identificar possíveis sinais de manipulação.
Verificação de Autenticidade:Avaliar a autenticidade de mídias digitais, especialmente em casos onde a validade e integridade de vídeos ou imagens são questionadas. Isso pode envolver a comparação de dados originais com a mídia em questão.
Desenvolvimento de Métodos de Detecção:Colaborar com pesquisadores e especialistas para desenvolver métodos avançados de detecção de Deep Fakes. Isso inclui a compreensão profunda das técnicas usadas na criação de Deep Fakes para desenvolver contramedidas eficazes.
Testemunho em Processos Legais e provas técnicas simplificadas Fornecer depoimento como especialista em processos judiciais, explicando os métodos utilizados na análise e apresentando conclusões sobre a autenticidade ou manipulação de evidências digitais.
Colaboração com Profissionais de Segurança Cibernética:Trabalhar em conjunto com profissionais de segurança cibernética para entender e combater ameaças relacionadas a Deep Fakes que podem ter implicações em segurança digital e privacidade.
Assessoria de Compliance a empresas e organizações:Prestar consultoria a empresas e organizações que desejam proteger-se contra a manipulação de conteúdo por meio de Deep Fakes. Ou mesmo auxiliar empresas e negócios em pareceres e análises técnicas e algorítmicas necessárias para o compliance com agentes regulatórios.
Como funciona a perícia em inteligência artificial e como detectar Deep Fakes?
A detecção de Deep Fakes pode ser desafiadora, uma vez que essas tecnologias estão em constante evolução e se tornam cada vez mais sofisticadas. No entanto, a perícia poderá atuar com abordagens e técnicas que podem ser utilizadas para tentar identificar Deep Fakes, dentre elas, podemos citar:
Análise Visual:O perito em inteligência artificial irá analisar cuidadosamente o vídeo ou imagem em questão, procurando por anomalias, artefatos visuais, inconsistências na iluminação e sombras, ou distorções nos contornos faciais que podem indicar manipulação.
Comparação com Dados Originais:Se existir uma mídia original, uma prática da perícia em IA é realizar a comparação da mídia suspeita com fontes de dados originais, como fotos ou vídeos autênticos da mesma pessoa. As discrepâncias entre o conteúdo original e o Deep Fake podem ser reveladoras.
Análise Temporal:Pode ser importante realizar a denominada análises de consistência temporal do vídeo. Deep Fakes podem ter problemas com a sincronização labial ou movimentos faciais que parecem inconsistentes com o áudio ou contexto do vídeo.
Análise de Movimento:O Perito em Inteligência Artificial, pode realizar a análise do movimento natural das características faciais. Deep Fakes podem ter dificuldade em replicar movimentos sutis e expressões faciais autênticas.
Sons e Vozes Artificiais:Em Deep Fakes de vídeos com áudio, o perito atua com a análise da qualidade e coerência da voz. Alguns Deep Fakes podem apresentar artefatos sonoros ou discrepâncias entre a fala e os movimentos labiais.
Ferramentas de Detecção Automática:Atualmente existem algoritmos, técnicas e ferramentas especializadas de detecção de Deep Fakes. Algoritmos e softwares foram desenvolvidos para analisar padrões específicos associados a Deep Fakes.
Análise de Metadados da Mídia:Uma das análises mais comuns, sobretudo em questões de identidade e assinatura digital, é a análise dos metadados da mídia, como informações de data, hora e dispositivo de gravação. Inconsistências podem ser indicativos de manipulação.
Projeto de Lei 2338/2023
Atualmente, sob análise da Comissão Temporária Interna sobre Inteligência Artificial (CTIA) no Brasil, o Projeto Lei (PL) esclarece os princípios para o fomento, o desenvolvimento e uso seguro, confiável e responsável da Inteligência Artificial (IA), tendo como objetivo proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico.
O PL fez algumas definições acerca da IA onde se encontram previstas em seu Art. 4:
Sistema de inteligência artificial: sistema computacional, com graus diferentes de autonomia, desenhado para inferir como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento, por meio de dados de entrada provenientes de máquinas ou humanos, com o objetivo de produzir previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou real;
Fornecedor de sistema de inteligência artificial: pessoa natural ou jurídica, de natureza pública ou privada, que desenvolva um sistema de inteligência artificial, diretamente ou por encomenda, com vistas a sua colocação no mercado ou a sua aplicação em serviço por ela fornecido, sob seu próprio nome ou marca, a título oneroso ou gratuito;
Operador de sistema de inteligência artificial: pessoa natural ou jurídica, de natureza pública ou privada, que empregue ou utilize, em seu nome ou benefício, sistema de inteligência artificial, salvo se o referido sistema for utilizado no âmbito de uma atividade pessoal de caráter não profissional;
Agentes de inteligência artificial: fornecedores e operadores de sistemas de inteligência artificial;
Autoridade competente: órgão ou entidade da Administração Pública Federal responsável por zelar, implementar e fiscalizar o cumprimento desta Lei em todo o território nacional;
Discriminação: qualquer distinção, exclusão, restrição ou preferência, em qualquer área da vida pública ou privada, cujo propósito ou efeito seja anular ou restringir o reconhecimento, gozo ou exercício, em condições de igualdade, de um ou mais direitos ou liberdades previstos no ordenamento jurídico, em razão de características pessoais como origem geográfica, raça, cor ou etnia, gênero, orientação sexual, classe socioeconômica, idade, deficiência, religião ou opiniões políticas;
Discriminação indireta: discriminação que ocorre quando normativa, prática ou critério aparentemente neutro tem a capacidade de acarretar desvantagem para pessoas pertencentes a grupo específico, ou as coloquem em desvantagem, a menos que essa normativa, prática ou critério tenha algum objetivo ou justificativa razoável e legítima à luz do direito à igualdade e dos demais direitos fundamentais;
Mineração de textos e dados: processo de extração e análise de grandes quantidades de dados ou de trechos parciais ou integrais de conteúdo textual, a partir dos quais são extraídos padrões e correlações que gerarão informações relevantes para o desenvolvimento ou utilização de sistemas de inteligência artificial
O Projeto Lei ainda expõe os princípios para a proteção da espécie humana e dos dados pessoais:
Dignidade Humana: a IA deverá ser desenvolvida e utilizada de maneira a respeitar a dignidade, a liberdade e os direitos humanos, promovendo o bem-estar social e individual.
Proteção de Dados Pessoais: deverá ser garantida a proteção de dados pessoais, conforme as normativas legais vigentes, assegurando a privacidade e a segurança das informações.
Consentimento Informado: o consentimento livre, informado e explícito dos indivíduos deverá ser obtido para a coleta e uso de seus dados pessoais.
Transparência: os processos e decisões tomadas por sistemas de IA devem ser transparentes, auditáveis e explicáveis, permitindo a responsabilização dos desenvolvedores e operadores.
Não Discriminação: a IA deverá ser desenvolvida e operada de forma a prevenir e mitigar discriminações, vieses e preconceitos.
Educação e Conscientização: deverá ser promovida a educação e a conscientização sobre os impactos da IA na sociedade, bem como sobre os direitos dos indivíduos.
Deste modo, o PL traz orientações de como os cidadãos brasileiros devem interagir com o sistema de Inteligência Artificial de modo em que seja priorizado o respeito, conhecimento e responsabilidade ao bem-estar jurídico e humano.
Conclusões
Dada a complexidade e a evolução rápida das tecnologias de IA, o papel do perito em inteligência artificial e Deep Fakes é fundamental para a identificação e mitigação de potenciais ameaças e para a garantia da autenticidade em ambientes digitais.
Lembre-se de que, à medida que as tecnologias de Deep Fake avançam, também o fazem as técnicas de detecção e o avanço da perícia digital em inteligência artificial. A pesquisa contínua e a colaboração entre especialistas em segurança, pesquisadores acadêmicos e desenvolvedores de tecnologias é essencial para melhorar as capacidades de detecção e mitigar o impacto potencial de Deep Fakes e demais usos indevidos da Inteligência Artificial.
Como contratar um perito em assinatura online?
A CyberExperts é consultoria especializada em computação forense, inteligência cibernética, perícia e auditorias em informática e inteligência artificial, sendo referência em perícia digital e em informática. Atuamos preventivamente ou em processos administrativos ou judiciais, para empresas, fintechs, órgãos de pesquisa e órgãos públicos na coleta, preservação e análise de evidências digitais, por meio de um rol de peritos com notória experiência profissional. Realizamos auditorias independentes de maturidade de controles de segurança digital e compliance de Inteligência Artificial. Profissionais com as principais certificações internacionais. Fale conosco (11) 3254-7616 ou acesso www.cyberexperts.com.br. Expertise, lealdade e ética. Conheça nosso curso de Perícia em Proteção de Dados Pessoais.