O risco dos deepfakes no maior ano eleitoral da história

2024 é o maior ano eleitoral da história. 4.000 milhões de pessoas deslocar-se-ão às urnas este ano. O risco, alerta Yves Kramer, gestor sénior de Ações Temáticas na Pictet AM, é coincidirem com a chegada da Era dos deepfakes impulsionados pela IA, capazes de divulgar informações falsas para influenciar os eleitores.

Através da aprendizagem profunda, os deepfakes podem reproduzir e duplicar as caraterísticas únicas de um candidato político, líder de uma empresa ou famoso, treinando um modelo com um grande conjunto de dados de imagens ou vídeos. “Quantos mais dados disponíveis, mais realista é a falsificação”, explica Kramer. Na Eslováquia, foi divulgado no ano passado um áudio deepfake de um candidato às eleições a falar sobre como manipular a votação 48 horas antes de abrirem as urnas, com tempo insuficiente para desmenti-lo.

No Bangladesh, no passado mês de janeiro, no dia de eleições, foi divulgado um vídeo gerado por IA em que um candidato independente anunciava a sua retirada. Nesse mesmo mês, os eleitores americanos receberam chamadas robotizadas a imitar a voz do presidente Joe Biden, dizendo-lhes para não votarem nas primárias presidenciais.

A IA e a sua vulnerabilidade

Estes riscos de falsificações profundas impulsionam a procura por investimento em cibersegurança avançada”, alerta o gestor. Efetivamente, as personalidades políticas americanas já reconheceram esta necessidade em 2020, quando muitos trabalhadores do estado deram prioridade à cibersegurança nos seus pedidos de subvenção.

Além disso, a IA e a IA generativa são vulneráveis a ciberataques, infiltrações e manipulação de dados, e podem comprometer a confiança dos clientes em relação à custódia de dados sensíveis e interromper operações empresariais. “De facto, os deepfakes são parte dos ciberataques”, insiste. Segundo os dados citados pelo gestor, em 2022, um inquérito revelou que 66% dos profissionais de cibersegurança viram deepfakes em ciberataques.

Nesse mesmo ano, 38% das grandes empresas e 26% das pequenas empresas foram objeto de fraudes de identidade geradas por IA. Uma empresa perdeu 25,6 milhões de dólares numa burla em que um vídeo falso mostrava o diretor financeiro a solicitar fundos a trabalhadores. Antes, entre 2019 e 2020, a quantidade de conteúdo deepfake já tinha aumentado 900%, e estima-se que uma grande maioria do dito conteúdo seja gerado sinteticamente por IA para 2026, dificultando a distinção entre conteúdo autêntico e fraudulento.

As ferramentas de deteção deepfake evoluem continuamente

Tudo isto impulsiona a procura por medidas de prevenção avançadas. Segundo a consultora Gartner, a despesa com cibersegurança pode aumentar em cerca de 14% este ano, e, à medida que a IA se for tornando mais omnipresente, este crescimento poderá ser mais rápido. As empresas estão a acelerar o investimento em tecnologias de cibersegurança para se adiantarem aos infratores, numa oportunidade de mercado de dois biliões de dólares para os fornecedores de cibersegurança, segundo a consultora McKinsey. No entanto, a quantidade de recursos investidos em novas formas de conteúdo generativo é significativamente maior do que a quantidade investida no desenvolvimento de técnicas de deteção robustas segundo Henry Ajder, consultor em deepfakes e IA.

“Felizmente, as ferramentas de deteção de deepfakes evoluem continuamente e adaptam-se aos novos contextos”, acrescenta Kramer. Muitas foram treinadas com dados ocidentais, mas há casos como o da polícia da Coreia do Sul que desenvolveu um software com dados coreanos para as suas eleições. “Vai utilizar a IA para comparar possíveis deepfakes com conteúdo real. Deteta pequenas falhas no áudio e vídeo e determina se foi manipulado com a utilização de técnicas deepfake. A taxa de precisão é de 80%”, conta o especialista.

Fotopletismografia

Outra das técnicas mais eficazes adota a abordagem oposta, extraindo qualidades únicas da realidade que os deepfakes não conseguem captar. É o caso do FakeCatcher, da Intel, que identifica imagens falsas de seres humanos através da fotopletismografia, que deteta mudanças no fluxo sanguíneo da cara, visto que quando o coração bombeia sangue para as veias estas mudam de cor, o que não é visível a olho nu, mas sim para o computador.

Este software recolhe sinais de qualquer parte da cara e cria mapas a partir de propriedades espaciais e temporais, utilizadas para treinar uma rede neuronal que classifica vídeos reais e falsos. “A vantagem é não existir nenhum modelo generativo para aprendê-lo e falsificá-lo. Tem um índice de precisão de 96%”, destaca Yves Kramer. “A cadeia de televisão britânica BBC provou-o com imagens falsas e reais e identificou corretamente todos os vídeos falsos, exceto um. No entanto, também deu alguns falsos positivos, identificando vídeos reais como falsos devido à pixelização, por terem sido gravados de perfil”, acrescenta.

Coalition for Content Provenance and Authenticity

Outra iniciativa promissora que o especialista destaca é a Coalition for Content Provenance and Authenticity (C2PA), com o apoio de empresas como a Google, Intel e Microsoft, que está a criar uma norma para credenciais de conteúdo. A C2PA é um protocolo de Internet Universal que permite a ligação criptograficamente segura de metadados que proporcionam transparência sobre como foi criado um meio e que ferramentas foram utilizadas. “Esta abordagem tem vantagens, embora possa levantar problemas éticos de privacidade por revelar demasiados dados sobre a origem da imagem, como a localização ou hora em que foi tirada”, aponta.

Em todo o caso, Yves Kramer considera provável que vejamos um aumento de soluções de Zero Trust, que verificam continuamente as credenciais das pessoas que interagem com uma organização, interna e externamente. Também espera um crescimento em serviços Secure Access Service Edge (SASE), um quadro de segurança na nuvem, que conecta de forma segura utilizadores, sistemas, pontos de conexão e redes remotas aos recursos e às aplicações. Aproveita a supervisão da identidade e o comportamento dos utilizadores para fazer mudanças nas políticas de segurança.

“Contudo, a própria IA generativa pode ser parte da solução, pois adapta grandes modelos de linguagem para detetar ataques mais rapidamente e neutralizar possíveis ameaças de códigos maliciosos. As empresas de cibersegurança capazes de incorporar IA na proteção digital vão beneficiar de boas perspetivas de crescimento nos próximos anos, especialmente as que priorizam o investimento em infraestruturas e as que desenvolvem softwares e aplicações de segurança especializados”, conclui.