Partilhareste artigo
Há alguns meses, um funcionário recebeu uma chamada no WhatsApp de um dos executivos da sua empresa. A qualidade do áudio estava má, por isso, o chefe pediu-lhe que passassem para a plataforma Teams, da Microsoft, onde o cenário era o do seu escritório. Como a ligação continuava má, o executivo começou a enviar mensagens de texto a pedir ao funcionário que executasse uma transferência de dinheiro. Foi aí que, suspeitando fraude, o empregado suspendeu a comunicação com o (suposto) chefe.
Relacionados
Não era ele, claro, mas a sua voz tinha sido clonada na perfeição. Este caso foi citado pelo FBI, NSA e CISA na Folha Informativa de Cibersegurança de setembro, onde as três agências alertaram para a crescente ameaça que os deepfakes representam para as organizações. São conteúdos sintéticos, gerados por ferramentas de Inteligência Artificial cada vez mais sofisticadas, que copiam com um nível inédito de precisão a voz, parecença física e até a maneira de escrever de um alvo. Os objetivos podem ser de burla e fraude financeira mas também de extorsão, danos reputacionais ou humilhação.
“Os deepfakes são um tipo de media sintético particularmente preocupante, que utiliza Inteligência Artificial/aprendizagem automática para criar conteúdos credíveis e altamente realistas”, descreve o documento das agências norte-americanas.
O número de ataques usando deepfakes de voz e vídeo ou uma combinação de tecnologias disparou no último ano, à medida que se tornou mais fácil e barato usar ferramentas de IA para esse efeito. A firma de analítica Pindrop identificou um salto extraordinário do tráfego de chamadas para os maiores bancos norte-americanos no último ano, com um grande aumento da tentativa de fraude por áudio.
Também uma análise do Insikt Group detetou um aumento exponencial das referências à clonagem de voz na dark web entre maio de 2020 e maio de 2023. Há já plataformas IA freemium que permitem a criminosos sem competências técnicas criarem conteúdos manipulados e automatizarem os seus ataques – criminosos que, se não tivessem acesso a estas ferramentas, talvez nunca chegassem a conseguir sê-lo.
Subscrever newsletter
O Insikt Group refere que uma das plataformas de clonagem de voz mais populares é a ElevenLabs, mas há outras num mercado que já é chamado de “clonagem-de-voz-como-serviço”. Em aplicações de mensagens como o Telegram, circulam ofertas de serviços de clonagem que são relativamente baratos. Podem custar tão pouco como 5 euros.
“É um desafio. Torna estas burlas e mecanismos acessíveis a pessoas menos técnicas”, diz ao Dinheiro Vivo Hugo Nunes, responsável da equipa de Intelligence da S21sec em Portugal. “Isso vai facilitar muito a vida a pessoas não técnicas e até que não dominem a língua.”
A língua é, até agora, o que tem limitado uma maior disseminação desta ameaça no mercado português. A S21sec vem analisando tentativas de ataques que, por enquanto, ainda são rudimentares e carecem da sofisticação que está a acontecer em países de língua inglesa.
“Um olhar atento vai perceber que há aqui algumas falhas. Por exemplo, a boca a falar não coincide com a imagem”, refere Hugo Nunes. “É utilizado o português do Brasil, o que pode levar a suspeitar de situações que não são normais.”
Também as advogadas Catarina Castanheira Lopes e Lavínia Pinto Marques, da firma Cuatrecasas, indicam que esta é ainda uma ameaça nascente no país, embora mereça cada vez mais atenção.
“Importa notar que os supervisores financeiros em Portugal estão atentos ao aparecimento de novos tipos de fraudes que recorrem às capacidades mais avançadas da IA generativa, nomeadamente, à tecnologia deepfake, sendo atualmente uma preocupação premente destas entidades”, referem, em declarações ao Dinheiro Vivo.
A S21sec diz que se nota já um aumento de tentativas de fraude em inglês junto do público português.
“A grande maioria de nós fala inglês”, refere Hugo Nunes, “e estas mensagens em inglês mais bem feitas estão a potenciar burlas bem sucedidas, porque têm muito mais credibilidade.”
Um dos mecanismos usados pelos criminosos é a imitação de chamadas de call centers, com o padrão familiar da música ambiente e instruções como prima um para X, prima 2 para Y. A vítima recebe uma chamada dizendo que é de uma instituição em que faz sentido falarem em inglês, como um banco multinacional.
“Tivemos casos em que se faziam passar pelo suporte de uma tecnológica”, indica Hugo Nunes. ” Noutros casos, faziam-se passar pela própria polícia, a Interpol, por exemplo, alegando multas internacionais.”
Em todos os formatos, o núcleo do ataque é a engenharia social: convencer a vítima de algo e levá-la a fazer determinadas tarefas, como transferir dinheiro ou pagar um resgate. Uma das ofensivas que está em crescimento é a do rapto virtual, em que o alvo recebe uma chamada dos agressores dizendo que raptaram alguém próximo e é possível ouvir os gritos e pedidos de ajuda na voz da suposta vítima. A voz é clonada, mas o pânico gerado pode surtir o efeito desejado.
“Essa é mesmo uma das bases, o burlão tenta dar a sensação de urgência, de inadiável, para que a pessoa não pense”, sublinha Hugo Nunes. “É preciso que a pessoa pense, páre e se abstraia da premissa que se está a ouvir e a ver é porque é verdade. Vamos desmistificar, voltar um bocadinho atrás e pensar: tudo até aqui fez sentido?”
Se não fez, é preciso validar de outra forma.
Qual o enquadramento legal?
Engenharia social e burlas envolvendo meios digitais não são novas, mas estas ferramentas lançaram os riscos para outro patamar. As advogadas da Cuatrecasas definem os deepfakes como a manipulação de áudio, vídeo ou imagens “para gerar uma experiência humana realista, isto é, que pode levar as pessoas a acreditar falsamente que algo é real quando na verdade é falso.” Trata-se de algo que desafia a sabedoria convencional de uma forma que não acontecia antes.
“Esta tecnologia pode ser utilizada de várias formas prejudiciais, o que comporta inúmeros riscos e infindáveis desafios legais”, indicam Catarina Castanheira Lopes e Lavínia Pinto Marques.
“Desde logo, para efeitos do enquadramento legal aplicável a ataques decorrentes da utilização de deepfakes, este terá necessariamente de ser analisado caso a caso”, salientam, “na medida em que a natureza, o contexto e as consequências destes ataques poderão levar à aplicação de normas legais distintas.”
No panorama nacional, há vários diplomas que podem ser aplicados, incluindo a lei n.º 58/2019 de 8 de agosto, que assegura a execução do Regulamento Geral sobre a Proteção de Dados (RGPD); a lei n.º 109/2009 de 15 de setembro (Lei do Cibercrime), relativa a ataques contra sistemas de informação; e o decreto-lei n.º 48/95 de 15 de março do Código Penal, no caso aplicável a burlas informática e nas comunicações, entre outros.
Portugal adotou a Estratégia Nacional para a Inteligência Artificial em 2019 e há ainda um enquadramento europeu.
“Do ponto de vista da UE, existem vários regulamentos e propostas em discussão que orientam e influenciam a utilização de IA, que contribuem para o combate de ataques de deepfakes“, salientam as advogadas, que destacam a proposta conhecida como AI Act.
“A proposta prevê a proibição de certas práticas de IA que violem os valores e os direitos fundamentais da UE, como a manipulação subliminar, a exploração da vulnerabilidade, a vigilância massiva ou a pontuação social generalizada”, indicam. “Também estabelece requisitos obrigatórios para os sistemas de IA de alto risco, como os que são usados em domínios como a saúde, a justiça, a segurança, o emprego ou os serviços essenciais, tais como a qualidade e a segurança dos dados, a transparência e a informação, a supervisão humana, a robustez e a precisão, a segurança cibernética e a proteção de dados.”
Como mitigar os riscos
Para Hugo Nunes, é uma questão de tempo até que os deepfakes sejam aperfeiçoados para “falarem” português correto e se tornarem uma maior ameaça. O especialista considera que as organizações devem tomar medidas de mitigação dos riscos, notando que esta é uma preocupação que já se sente entre os empresários portugueses.
“As empresas devem estar preparadas para esta nova forma de ataques. Têm que existir procedimentos que sejam à prova de bala e alheados a estas possíveis manipulações”, considera. “Passa muito pela formação das pessoas.”
Os procedimentos devem ser possíveis de rastrear, com regras claras em relação aos canais de comunicação. Se acontecer algo que foge ao procedimento estabelecido, tem de haver uma confirmação por meio alternativo de contacto, tal como desligar e ligar para o número direto do superior ou da entidade em causa.
Catarina Castanheira Lopes e Lavínia Pinto Marques salientam a importância de formar e educar não só os funcionários como clientes e parceiros sobre as características dos deepfakes – distorções, sincronização labial, inconsistências de fundo e de iluminação, efeitos sonoros anormais, etc..
“Também é importante orientar as pessoas a verificar a fonte, a data e a credibilidade das informações que recebem ou partilham, e a denunciar qualquer suspeita de manipulação ou falsificação.”
Isto para lá da implementação de políticas como autenticação de dois fatores, criptografia, controlo de acesso, backup, antivírus, firewall. “Estas medidas podem ajudar a prevenir ou mitigar o roubo, a perda de confidencialidade ou a alteração de dados sensíveis que possam ser usados para criar ou disseminar deepfakes“, salientam.
Os especialistas concordam na necessidade de haver selos ou marcas d”água nos conteúdos gerados artificialmente, algo em que várias tecnológicas estão a trabalhar. Ainda não há um padrão transversal, mas o mercado está em desenvolvimento. Hugo Nunes considera que é possível que isso venha a ser regulado desde cima na Europa e as advogadas da Cuatrecasas apontam para a utilidade de usar soluções de deteção de deepfakes: “Alguns exemplos são o Microsoft Video Authenticator, o Sensity, o Deeptrace, o Truepic, o Amber, o Dessa, o Serelay”.
Não é só um risco financeiro e reputacional para as organizações que se apresenta. Há deepfakes a serem usados em propaganda relativa à invasão da Ucrânia pela Rússia, à guerra Israel-Hamas, desinformação em campanhas políticas. A Cuatrecasas cita exemplos recentes, com políticos europeus enganados em vídeochamadas por alguém que se fez passar pelo autarca de Kiev, Vitali Klitschko, usando deepfakes de imagem e voz.
Num episódio recente do programa “60 Minutos”, a CEO da SocialProof Security, Rachel Tobac, mostrou como conseguiu clonar a voz de uma correspondente do programa. A seguir, enganou um funcionário e convenceu-o a fornecer o número de passaporte da correspondente usando a voz falsa. O processo demorou cinco minutos.
O lado positivo é que as empresas de cibersegurança perceberam que também podem usar IA para identificar fraudes, burlas e a utilização de conteúdos manipulados.
“A tecnologia vai evoluir para o bem e para o mal”, diz Hugo Nunes. “É um jogo de gato e rato.”
Deixe um comentário