Especialistas britânicos temem que as imagens criadas por inteligência artificial “ponham em risco a democracia”. O aviso veio depois que uma foto falsa do primeiro-ministro Rishi Sunak derramando cerveja “no copo errado” provocou indignação entre o Partido Conservador.
Imagens de políticos geradas ou editadas usando IA generativa, como Midjourney ou Stable Diffusion, “representam uma ameaça aos processos democráticos”, dizem especialistas em IA. A alegação vem após a recente publicação de uma foto editada do primeiro-ministro britânico Rishi Sunak no London Beer Festival – ele está atrás do bar segurando um copo barato cheio de forte cerveja Black Dub, uma mulher ao lado dele com uma expressão zombeteira.
E embora inicialmente não estivesse claro se a foto original foi editada por IA, o debate sobre falsificações profundas e rotulagem de imagens de IA foi renovado com força total. Posteriormente, descobriu-se que a foto foi seriamente editada: na verdade, o copo é de marca, a cerveja está cheia até o topo e a expressão no rosto da mulher ao lado do primeiro-ministro é totalmente neutra.
No entanto, a imagem editada foi postada pela primeira vez nas redes sociais pelo parlamentar trabalhista Carl Turner e posteriormente por outros membros do partido. Os conservadores, por sua vez, explodiram em indignação. O vice-primeiro-ministro Oliver Dowden chamou a imagem de inaceitável e pediu aos membros trabalhistas que removessem a foto falsa porque era “enganosa”.
Especialistas alertam que a situação atual é um indicador do que pode acontecer na corrida eleitoral do próximo ano e que, embora não esteja totalmente claro se a foto com o primeiro-ministro foi processada por inteligência artificial, tais programas tornariam mais rápido e fácil criar de fakes (e ao mesmo tempo convincentes) de textos, fotos e áudios.
A professora de ciência da computação da Universidade de Southampton, Wendy Hall, comentou que o uso de tecnologias digitais em geral e IA em particular é uma ameaça aos processos democráticos e medidas urgentes devem ser tomadas para minimizar os riscos em vista das próximas eleições nos EUA e no Reino Unido.
Shweta Singh, professora assistente de sistemas de informação e gestão da Universidade de Warwick, por sua vez disse que é preciso estabelecer um conjunto de princípios éticos que permitam às pessoas entender que estão vendo informações confiáveis nas notícias, e não fakes.
A ideia dela foi compartilhada pelo professor Faten Ghosn, chefe do Departamento de Administração Pública da Universidade de Essex, que destacou que é responsabilidade dos políticos informar os eleitores sobre o uso de imagens editadas. Ou seja, nos termos mais simples, marcar imagens que foram alteradas usando tecnologias digitais para que não haja ilusões de que sejam reais.
Os políticos trabalhistas parecem pensar que nada de terrível está acontecendo. “A questão principal é: como alguém pode dizer que uma foto é uma farsa profunda?” Eu não criticaria Carl Turner por postar uma foto que parece real”, escreveu Darren Jones, chefe do comitê de negócios e comércio do parlamento. E em resposta às críticas da ministra da Ciência, Michelle Donelan, ele perguntou o que seu departamento de detecção de deepfake estava fazendo em vista das próximas eleições.
No início deste ano, o Ministério da Ciência publicou um relatório descrevendo os principais princípios para controlar o desenvolvimento de novas tecnologias, em vez de proibições privadas de produtos específicos. O próprio primeiro-ministro Sunak mudou sua retórica de elogiar a IA como uma fonte de novas oportunidades para alertar que a IA deve ser equipada com uma “grade”.
Enquanto isso, as corporações de IA mais poderosas já concordaram em criar todo um conjunto de novas restrições à inteligência artificial. Em particular, após uma reunião com o presidente dos EUA, Joe Biden, representantes da Amazon, Google, Meta, Microsoft e OpenAI decidiram colocar marca d’água automaticamente em qualquer conteúdo visual e de áudio criado usando seus desenvolvimentos.
A marcação de conteúdo de IA é uma boa ideia, mas se funcionará de maneira eficaz é outra questão. Primeiro, as marcas d’água são muito difíceis de remover, mas relativamente fáceis de adicionar. E, portanto, qualquer material comprometedor real pode ser disfarçado de deepfake. E expor falsificações e refutar mentiras requer muito mais tempo e esforço do que criá-las.
Em segundo lugar, mesmo que os desenvolvedores mais avançados de IA generativa aceitem as restrições necessárias, não é certo que todos os outros o farão. Não será surpreendente se a “IA negra” for usada em “RP negra” e se tornar uma ferramenta nas mãos de consultores políticos inescrupulosos. Do ponto de vista técnico, é simplesmente uma questão de poder computacional.
O uso generalizado de deepfaking pode eventualmente desacreditar completamente o conteúdo de fotos e vídeos em sua forma atual, dizem os especialistas. Mas também pode estimular o desenvolvimento de novos tipos de mídias de armazenamento – mais high-tech e protegidas de tentativas de falsificação das informações nelas contidas.