//Deepfakes ameaçam empresas com burlas mais realistas que nunca

Deepfakes ameaçam empresas com burlas mais realistas que nunca

Há alguns meses, um funcionário recebeu uma chamada no WhatsApp de um dos executivos da sua empresa. A qualidade do áudio estava má, por isso, o chefe pediu-lhe que passassem para a plataforma Teams, da Microsoft, onde o cenário era o do seu escritório. Como a ligação continuava má, o executivo começou a enviar mensagens de texto a pedir ao funcionário que executasse uma transferência de dinheiro. Foi aí que, suspeitando fraude, o empregado suspendeu a comunicação com o (suposto) chefe.

Não era ele, claro, mas a sua voz tinha sido clonada na perfeição. Este caso foi citado pelo FBI, NSA e CISA na Folha Informativa de Cibersegurança de setembro, onde as três agências alertaram para a crescente ameaça que os deepfakes representam para as organizações. São conteúdos sintéticos, gerados por ferramentas de Inteligência Artificial cada vez mais sofisticadas, que copiam com um nível inédito de precisão a voz, parecença física e até a maneira de escrever de um alvo. Os objetivos podem ser de burla e fraude financeira mas também de extorsão, danos reputacionais ou humilhação.