Nos últimos 18 meses, parece que perdemos a capacidade de confiar em nossos próprios olhos. As falsificações do Photoshop não são nenhuma novidade, é claro, mas o advento da inteligência artificial generativa (IA) levou a falsificação para um nível sem precedentes. Talvez a primeira falsificação viral de IA tenha sido a imagem do Papa em uma jaqueta branca, em 2023, e desde então, o número de golpes com manipulação de imagens de alta qualidade disparou. Conforme a IA se desenvolve, podemos esperar vídeos falsos cada vez mais convincentes em um futuro muito próximo.
Isso agravará ainda mais o já complicado problema das notícias falsas e das imagens que as acompanham. Elas podem mostrar uma foto de um evento e alegar que é de outro, colocar pessoas que nunca se conheceram na mesma foto e assim por diante.
A falsificação de imagens e vídeos tem relação direta com a segurança cibernética. Os golpistas usam imagens e vídeos falsos para enganar as vítimas e roubar seu dinheiro há anos. Eles podem enviar uma foto de um cachorrinho triste para alegar que o animalzinho precisa de ajuda, uma imagem de uma celebridade promovendo esquemas obscuros, ou até uma foto de um cartão de crédito que dizem pertencer a algum conhecido. Os fraudadores também usam imagens geradas por IA para criar perfis voltados para a prática de catfishing em sites de namoro e mídias sociais.
Os golpes mais sofisticados usam vídeos e áudios deepfake do chefe da vítima ou de um parente, para que caiam na conversa dos golpistas. Recentemente, um funcionário de uma instituição financeira foi enganado e transferiu USD 25 milhões para os cibercriminosos! Eles fizeram uma videochamada com o “diretor financeiro” e “colegas” da vítima, todos deepfakes.
Então, o que pode ser feito para lidar com deepfakes ou falsificações simples? Como é possível detectá-los? Esse é um problema extremamente complexo, mas que pode ser mitigado passo a passo, ao rastrear a procedência da imagem.
Espere… eu não vi isso antes?
Como mencionado acima, existem diferentes tipos de “falsidade”. Às vezes, a imagem em si não é falsa, entretanto ela é usada de forma enganosa. Talvez uma foto real de uma zona de guerra seja manipulada para que transmita a aparência de ser outro conflito, ou uma cena de um filme é apresentada como um documentário. Nesses casos, procurar anomalias na imagem em si não ajudará muito, mas é possível tentar procurar cópias da imagem on-line. Felizmente, temos ferramentas como Google Reverse Image Search e TinEye, que podem ser úteis para fazer essa busca.
Se você tiver alguma dúvida em relação a uma imagem, basta enviá-la para uma dessas ferramentas e ver os resultados. É possível descobrir se a mesma foto de uma família desabrigada por um incêndio, um grupo de cães de abrigo ou vítimas de alguma outra tragédia está circulando na Internet há anos. Quando se trata de falsa arrecadação de fundos, existem alguns outros indicadores de segurança que devem ser observados além das imagens.
Manipulação por Photoshop? Em breve saberemos.
Como a manipulação por Photoshop existe há algum tempo, matemáticos, engenheiros e especialistas em imagens estão trabalhando já faz muito tempo nas maneiras de detectar imagens alteradas automaticamente. Alguns métodos populares incluem análise de metadados de imagem e análise de nível de erro (ELA), que verifica artefatos de compactação JPEG para identificar as partes modificadas de uma imagem. Muitas ferramentas populares de análise de imagens, como o Fake Image Detector, aplicam essas técnicas.
Com o surgimento da IA generativa, também apareceram novos métodos baseados em IA para detectar o conteúdo gerado, mas nenhum deles é perfeito. Aqui estão alguns dos aprimoramentos mais relevantes: detecção de transformação de face; detecção de imagens geradas por IA e determinação do modelo de IA usado para gerá-las; e um modelo aberto de IA para os mesmos propósitos.
Com todas essas abordagens, o principal problema é que nenhuma delas garante 100% de certeza sobre a procedência da imagem, que ela está livre de modificações, ou torna possível a verificação dessas modificações.
WWW para o reconhecimento: verificação da procedência do conteúdo
Não seria ótimo se houvesse uma maneira mais fácil para os usuários comuns verificarem se uma imagem é real? Imagine clicar em uma foto e ver algo como: “João tirou esta foto com um iPhone em 20 de março”, “Ana cortou as bordas e aumentou o brilho em 22 de março”, “Pedro salvou novamente esta imagem com alta compactação em 23 de março” ou “nenhuma alteração foi feita”, com todos esses dados sendo impossíveis de falsificar. Parece um sonho, certo? Bem, é exatamente isso que a Coalizão para Proveniência e Autenticidade de Conteúdo (C2PA) busca fazer. A C2PA inclui alguns dos principais agentes dos setores de informática, fotografia e mídia: Canon, Nikon, Sony, Adobe, AWS, Microsoft, Google, Intel, BBC, Associated Press, e cerca de uma centena de outros membros. São as empresas que poderiam estar individualmente envolvidas em qualquer etapa da vida de uma imagem, desde a criação até a publicação on-line.
O padrão C2PA desenvolvido pela coalizão já está disponível e já chegou à versão 1.3. Agora, estamos começando a ver as peças do quebra-cabeça industrial necessárias para usá-lo se encaixarem. A Nikon planeja fabricar câmeras compatíveis com C2PA, e a BBC já publicou seus primeiros artigos com imagens verificadas.
A ideia é que, quando os meios de comunicação responsáveis e as grandes empresas passarem a publicar imagens verificadas, será possível confirmar a procedência de qualquer imagem diretamente no navegador. Um pequeno selo de “imagem verificada” poderá ser visualizado, e ao clicar nele, uma janela maior é exibida mostrando quais imagens serviram como fonte, quais edições foram feitas em cada estágio antes que a imagem aparecesse no navegador, por quem e quando. Será possível até visualizar as versões intermediárias da imagem.
Essa abordagem não será voltada apenas para câmeras; ela também poderá funcionar em outras formas de criação de imagens. Serviços como Dall-E e Midjourney também podem aplicar o selo em suas criações.
O processo de verificação é baseado em criptografia de chave pública semelhante à proteção usada em certificados de servidores Web para estabelecer uma conexão HTTPS segura. A ideia é que todo criador de imagem, seja João da Silva com um tipo específico de câmera ou Maria da Silva com uma licença do Photoshop, precisará obter um certificado X.509 de uma autoridade de certificação confiável. O certificado pode ser integrado diretamente na câmera na fábrica, ou emitido após a ativação, no caso de produtos de software. Ao processar imagens com rastreamento de procedência, cada nova versão do arquivo conterá uma grande quantidade de informações extras: data, hora e local das edições, miniaturas das versões original e editada, e assim por diante. Todas essas informações serão assinadas digitalmente pelo autor ou editor da imagem. Dessa forma, um arquivo de imagem verificado terá uma cadeia com todas as versões anteriores, e cada uma delas será assinada pela pessoa que o editou.
Os autores da especificação também estavam preocupados com os recursos de privacidade. Às vezes, os jornalistas não podem revelar suas fontes. Para situações como essa, há um tipo especial de edição chamado “redação”. Isso permitirá que alguém substitua algumas das informações sobre o criador da imagem por zeros e, em seguida, assine a alteração com o seu próprio certificado.
Para demonstrar os recursos do C2PA, uma coleção de imagens e vídeos de teste foi criada. É possível conferir o site de credenciais de conteúdo para verificar as credenciais, o histórico de criação e o histórico de edição dessas imagens.
Limitações naturais
Infelizmente, as assinaturas digitais para imagens não resolverão o problema das falsificações da noite para o dia. Afinal, já existem bilhões de imagens on-line que não foram assinadas por ninguém, e elas não vão desaparecer. No entanto, conforme as fontes de informações respeitáveis passarem a publicar apenas imagens assinadas, qualquer foto sem assinatura digital será vista com suspeita. Fotos e vídeos reais com data, hora e dados de localização serão praticamente impossíveis de serem falsificados, e o conteúdo gerado por IA será mais fácil de detectar.