Nudes falsos e “ChatGPT do mal”: como a IA vem sendo usada em crimes
Apesar da infinidade de usos positivos, a inteligência artificial generativa também tem sido um meio para fake news até pornografia de vingança; conheça esses riscos e possíveis soluções
Em novembro de 2020, um conhecido apareceu de surpresa na casa de Helen Mort, em Sheffield, na Inglaterra. O visitante tinha um aviso urgente: ele reconhecera o rosto de Helen, uma poetisa e mãe, num site de conteúdo adulto.
Mas isso parecia impossível: a escritora nunca havia compartilhado fotos íntimas com ninguém, justamente porque temia se tornar uma vítima de pornografia de vingança algum dia. Por isso, quis ver com seus próprios olhos as imagens de que seu conhecido estava falando.
“Era meu rosto, meu olho, minha franja… Parecia a minha mandíbula, mas não era a minha boca. A pele da pessoa, da mulher, era bem mais bronzeada do que a minha. E essa mulher tinha exatamente a mesma tatuagem que eu”, relata Helen no documentário My Blonde GF, lançado pelo jornal britânico The Guardian em outubro.
O vídeo que a poetisa havia visto, na verdade, era um deepfake, isto é, “uma imagem ou gravação que tenha sido alterada e manipulada de forma convincente para representar erroneamente alguém fazendo ou dizendo algo que não foi realmente feito ou dito”, como define o dicionário estadunidense Merriam-Webster.
No caso, alguém havia usado um sistema de inteligência artificial (IA) para estudar os ângulos de Helen em fotos ou vídeos e, assim, inserir o rosto dela no vídeo íntimo de outra mulher.
A pornografia de revanche é apenas um dos usos criminosos que pessoas têm feito das inteligências artificiais generativas, aquelas capazes de produzir textos, imagens, sons, códigos computacionais ou outros tipos de conteúdo a partir de comandos dos seus usuários.
É o caso das plataformas ChatGPT, ferramenta de IA generativa em texto da empresa OpenAI, e Midjourney, recurso de IA generativa para imagens (usado para ilustrar esta reportagem) criado pela Midjourney, Inc, ambas sediadas nos EUA.
Essas são redes neurais artificiais que aprendem a fazer suas próprias criações conforme estudam determinados formatos de mídia fornecidos por seus criadores ou usuários. E, não surpreendentemente, têm entregado resultados cada vez mais complexos e convincentes.
O próprio deepfake evoluiu muito rapidamente
O termo apareceu pela primeira vez em um fórum do site Reddit em 2017, segundo o Instituto de Tecnologia de Massachusetts (MIT).
Mas, naquela época, só era possível criar conteúdos desse tipo em um computador com alta capacidade de processamento gráfico. Já hoje, plataformas online e acessíveis se encarregam disso para gerar esses clipes.
Ademais, bastam poucas fotos e vídeos de uma pessoa para o algoritmo aprender a emular a aparência dela, e pequenas falhas podem ser facilmente mascaradas na hora de disseminar o conteúdo.
“O pessoal pega esse vídeo, diminui a resolução dele e manda por WhatsApp, por exemplo. A pessoa olha na tela do celular e não vê todas essas imperfeições”, explica Jonas Krause, doutor em Ciência da Computação pela Universidade do Havaí, nos Estados Unidos, em entrevista a GALILEU.
Eles estão entre nós
Muitos deepfakes são feitos apenas para fins de entretenimento, sem a intenção de enganar ninguém. É o caso das composições do criador de conteúdo “demonflyingfox”: com a ajuda da IA generativa, ele imagina como seriam filmes e séries famosos se eles se passassem em outros países. O clipe “Harry Potter but in Berlin” (“Harry Potter, mas em Berlim”) já tem mais de 1 milhão de visualizações no YouTube (veja abaixo).
Além disso, deepfakes podem ser aliados da indústria cinematográfica: em Indiana Jones e o Chamado do Destino (2023), foi possível rejuvenescer a aparência de Harrison Ford, de 81 anos, graças a um sistema de inteligência artificial.
Por outro lado, a preocupação de que a tecnologia tire empregos de atores e atrizes foi um dos motivos que levaram a uma greve em Hollywood no ano passado. Junto a roteiristas, eles paralisaram suas atividades em filmes e séries por 118 dias e protestaram para defender seus direitos.
O sindicato estadunidense que os representa chegou a um acordo com os estúdios em novembro. O documento exige que produtores peçam o consentimento de atores para criar e usar as réplicas digitais deles, e especifiquem como essas recriações serão usadas. Além disso, quando essas réplicas entrarem em jogo, os atores devem receber uma compensação equivalente ao que ganhariam se eles mesmos tivessem feito o trabalho gerado por IA.
Mas o problema mais urgente é o crescimento de ocorrências como a enfrentada por Helen Mort – que, aliás, já vêm sendo registradas no Brasil. Em novembro de 2023, a Polícia Civil abriu um inquérito para investigar alunos do 7º ao 9º ano do Colégio Santo Agostinho, no Rio de Janeiro, acusados de criar nudes falsos de colegas meninas.
Já em outubro, a atriz Isis Valverde viu montagens pornográficas usando seu rosto se alastrarem pelas redes sociais. O advogado dela afirmou ao site gshow que a ocorrência havia sido denunciada na Delegacia de Crimes de Informática do Rio de Janeiro. Antes da artista mineira, famosas estrangeiras, como Gal Gadot, Taylor Swift e Scarlett Johansson, já haviam sido vítimas do mesmo crime.
As IAs generativas também facilitam a desinformação. Em março de 2023, uma foto falsa do Papa Francisco usando um casacão acolchoado branco enganou muitas pessoas na internet, que acreditaram que o líder religioso havia deixado suas vestimentas católicas tradicionais para abraçar um lado “fashion”.
Mas há situações ainda mais sérias do que essa. As últimas eleições presidenciais da Argentina acenderam o alerta para o uso de deepfakes como estratégia política: integrantes do partido de Javier Milei compartilharam nas redes sociais um vídeo em que um suposto Sérgio Massa, adversário do atual presidente argentino quando ainda disputavam o cargo, usava cocaína. A equipe de Massa declarou que a gravação, cuja autoria ainda é desconhecida, era obra de IA.
E não são só vídeos, imagens e sons falsos que têm gerado inquietação. Rakesh Krishnan, pesquisador independente de cibersegurança e analista de ameaças online baseado na Índia, descobriu anúncios de versões maliciosas de modelos de linguagem grande (LLMs, na sigla em inglês).
Esse é o nome dado a IAs capazes de gerar e traduzir textos e outros conteúdos, além de diversas atividades de processamento de linguagem natural (PLN).
Esses serviços “do mal” – batizados de “WormGPT” e “FraudGPT”, em clara referência ao famoso ChatGPT – estavam sendo vendidos em fóruns na dark web, uma parte da internet que só pode ser acessada por programas especiais (nada de Google Chrome ou Mozilla Firefox) e na qual usuários conseguem se manter anônimos.
Enquanto o ChatGPT tem barreiras éticas que impedem usuários de pedir certas tarefas, o anúncio do “FraudGPT” que Krishnan encontrou prometia uma ferramenta capaz de “escrever código malicioso”, criar “malware indetectável” e “ferramentas para hackear”, entre outras práticas ilícitas.
Mas, não se engane: a função de aperfeiçoar textos, que é tão utilizada por usuários bem-intencionados do ChatGPT, é um dos pontos mais valiosos para quem recorre às LLMs malignas.
“Quem usar um ‘FraudGPT’ pode criar um belo e-mail para qualquer tipo de cenário. Se você for falar com alguém da imprensa, ele pode imitar exatamente a linguagem da mídia, usando jargões relacionados ao jornalismo”, exemplifica Krishnan, em entrevista a GALILEU.
“Esses tipos de ferramentas podem escrever mensagens que façam as vítimas clicarem em um link malicioso; e-mails atraentes.”
Esse tipo de cibercrime, que mira em uma pessoa ou um grupo específico usando informações de interesse do alvo, é conhecido como spear phishing. Em inglês, spear significa “lança”, e phishing é uma variação de fishing, verbo para “pescar”.
A ideia é, tal qual um peixe atraído por uma isca, induzir pessoas a caírem em golpes a partir de algo que naturalmente chamaria a atenção delas.
As promessas ilegais do “FraudGPT” têm um preço, é claro: a assinatura mensal do sistema de IA foi oferecida na dark web por US$ 200, quase R$ 1 mil na conversão atual.
O criador da ferramenta até compartilhou um suposto vídeo de demonstração para convencer potenciais clientes.
Krishnan não arriscou a compra para verificar se a LLM era verdadeira; mas ele assegura que desenvolver algo assim é perfeitamente possível.
“O ‘WormGPT’ era real; o serviço estava funcionando sem problemas até ganhar a atenção da mídia. Então, se o ‘WormGPT’ foi bem-sucedido, por que o ‘FraudGPT’ não poderia seguir o mesmo caminho?”
Novos mundos, novas soluções
Para Krishnan, “a tecnologia é uma faca de dois gumes”: ao mesmo tempo que alguns desenvolvem ou usam IAs generativas para o mal, há quem esteja criando ferramentas para detectar textos, fotos, sons ou vídeos feitos por elas.
Em artigo sobre o “FraudGPT” publicado no Medium, o especialista da Índia em cibersegurança cita dois serviços que procuram identificar textos gerados por IAs: SMODIN e GPTZERO. Mas eles não prometem ser infalíveis.
O primeiro, inclusive, recomenda que usuários o vejam como “medida preventiva” contra problemas como plágio. “Certifique-se de verificar o texto antes de publicá-lo ou enviá-lo, em vez de confiar na ferramenta como uma solução após o fato”, diz o site.
O brasileiro Jonas Krause também tem desenvolvido seu próprio detector de deepfakes no pós-doutorado. Junto ao seu orientador, Heitor Silvério Lopes, professor da Universidade Tecnológica Federal do Paraná (UTFPR), e a Andrei de Souza Inácio, professor do Instituto Federal de Educação, Ciência e Tecnologia de Santa Catarina, ele escreveu o artigo Language-focused Deepfake Detection Using Phonemes, Mouth Movements, and Video Features, no qual propõe um sistema que analisa fonemas e movimentos de boca associados entre si.
A ideia surgiu após Krause estudar deepfakes em português e notar que alguns deles não conseguiam reproduzir de maneira convincente a forma como a boca se mexe em sons muito característicos da nossa língua – principalmente o “ão”.
O motivo?
As IAs de criação de deepfakes mais populares foram treinadas com vídeos em inglês. Ou seja: suas referências não incluem pessoas movimentando os lábios para falar “ação” ou “mão”, por exemplo.
A ideia de Krause é que seu sistema seja adaptado para outras línguas e seus fonemas específicos. Ele também projeta que celebridades, por exemplo, passarão a buscar sistemas de detecção de vídeos falsos desenvolvidos especialmente para seus traços físicos.
“Daí essas pessoas poderão se defender, porque não vai ser só elas dizendo ‘sou eu’ ou ‘não sou eu’. Também haverá um sistema treinado seriamente para dizer, ‘ei, existe 80, 90, 75% de chance de não ser você’.”
Apesar disso, Krause reconhece que, assim como SMODIN e GPTZERO, sua proposta não é imbatível. “Talvez os vídeos falsos do futuro se preocupem em fazer uma boca melhor, e aí meu sistema não conseguirá detectar tanto.”
IAs feitas para desmascarar criações de outras inteligências são só uma parte da resposta para esse “novo normal” tecnológico.
O Poder Legislativo brasileiro também tem discutido soluções para regulamentar a inteligência artificial como um todo (isto é, além da generativa) desde 2020, quando a Câmara de Deputados aprovou o PL 2120.
Porém, esse projeto foi criticado tanto pela sociedade civil quanto por cientistas por ser genérico, sem “estabelecer responsabilidades” e “concretizar ações”, conforme explica a advogada Tainá Aguiar Junquilho, professora de Tecnologia, Inovação e Direito no Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP).
“Ele foi aprovado em regime de urgência, e é um tema que precisa e merece um tempo de maturação”, pondera Junquilho, que é doutora em Direito com ênfase em Inteligência Artificial pela Universidade de Brasília (UnB).
A regulamentação da IA já está em debate em diversos países. No início de 2024, a União Europeia deve votar o “AI Act”; e o Brasil, o PL 2338/2023
Em 2022, o Senado formou uma comissão de 18 juristas para discutir um substitutivo desse PL. Esse grupo compôs um extenso relatório que inspirou o presidente da casa, Rodrigo Pacheco (PSD-MG), a apresentar um novo projeto, o PL 2338, e formar uma nova comissão temporária de senadores para avaliar a proposta, revisada em maio de 2023.
As discussões ainda estão em andamento, mas a expectativa é que haja uma votação em 2024.
Há muitos desafios na regulamentação da IA generativa. Um deles é o fato de que ainda não foram mapeados todos os riscos desse tipo de tecnologia. Outra questão é que alguns desses sistemas foram alimentados com dados protegidos por direitos autorais.
Em setembro do ano passado, um grupo de autores incluindo George R. R. Martin, criador da saga As Crônicas de Gelo e Fogo, abriu um processo contra a desenvolvedora do ChatGPT, a OpenAI, alegando que a ferramenta foi treinada com as obras deles sem consentimento.
“A questão da propriedade intelectual é muito mais reparatória, porque isso já foi coletado, já está sendo usado”, analisa Junquilho.
Um grande ponto dessa regulamentação no Brasil é a possibilidade de punir e responsabilizar operadores ou fornecedores de sistemas de inteligência artificial, vetando serviços muito arriscados antes de eles criarem problemas.
É a ideia de “cortar o mal pela raiz”, segundo a professora do IDP.
“Daí não vai ter mais a chance de surgir um aplicativo para produzir nude de criança e adolescente. É muito mais fácil do que você punir granularmente após uma criança ou adolescente ter produzido um nude de outra pessoa”, pondera.
A Europa já vem recorrendo a algumas proibições. Em março de 2023, a Itália baniu brevemente o ChatGPT, acusando a OpenAI de violar regras de coleta e armazenamento de dados pessoais ao treinar os algoritmos da plataforma.
No último dia 9 de dezembro, o Conselho e o Parlamento da União Europeia chegaram a um acordo provisório sobre seu próprio projeto de regulamentação, o AI Act.
Uma das proibições anunciadas é “a coleta não direcionada de imagens faciais da Internet ou de filmagens de circuitos fechados de televisão (CFTV) para criar bancos de dados de reconhecimento facial”. A votação final da legislação está prevista para o início de 2024.
Do lado de quem desenvolve inteligências artificiais, uma das preocupações é a escolha de uma regulamentação muito restritiva, que poderia empacar inovações ou mesmo a atração de investimentos em tecnologia no Brasil.
É preciso ter a compreensão de que as IAs “erram para acertar”, conforme destaca Loren Spíndola, líder do Grupo de Trabalho de Inteligência Artificial e de Cibersegurança da Associação Brasileira de Empresas de Software (ABES).
“Concordo que é preocupante quando falamos de um erro que possa afetar algum direito fundamental, pôr risco à vida, discriminar. Para isso, a gente deve ter regras e princípios muito claros de como agir e desenvolver [softwares]”, sugere.
“O maior desafio hoje é: qual a melhor forma de fazer isso? Já que não conseguimos controlar uma tecnologia que está em constante evolução.
” Para Spíndola e Junquilho, só é possível chegar a uma regulamentação equilibrada da IA se forem ouvidas as diversas vozes que essa questão envolve – empresas, acadêmicos, juristas e, claro, cidadãos.
“Tem que haver maior participação da sociedade para entendermos quais são os valores que a gente quer ver incutidos nesses projetos legislativos. Não é um caso de proibição”, diz a professora do IDP.
Mas, em um mundo no qual nem todo conteúdo é o que parece, legislações, autenticadores e detectores de criações de IAs não são suficientes para evitar problemas. Na opinião de todos os especialistas consultados pela reportagem, a educação — incluindo o letramento digital — é a melhor maneira de construir uma sociedade mais segura nesse sentido.
É isso o que impede alguém de disseminar pelo WhatsApp uma imagem falsa como se ela fosse verdade, de criar um nude falso de um conhecido ou de confiar completamente no ChatGPT para escrever um texto importante.
“A gente precisa que a sociedade esteja apta para um novo mundo”, reflete Spíndola.
“Se não estivermos preparados com o básico, vamos cair em deepfake. Vamos navegar em um mundo sombrio.”
Fonte: Revista Galileu
Nenhum comentário:
Postar um comentário