O Google informou nesta quarta-feira (data original da divulgação) ter identificado um novo malware experimental em VBScript, batizado de PROMPTFLUX, capaz de acionar a API do modelo de inteligência artificial Gemini para alterar seu próprio código fonte em intervalos regulares e, assim, dificultar a detecção por antivírus.
De acordo com o Google Threat Intelligence Group (GTIG), o script inclui um componente chamado “Thinking Robot”, responsável por consultar periodicamente versões do modelo Gemini 1.5 Flash (ou superiores). A comunicação é feita via chave de API embutida no código, com prompts altamente específicos que pedem técnicas de ofuscação e evasão voltadas a VBScript. O modelo responde apenas com o trecho de código solicitado, permitindo a auto-modificação “just-in-time”.
Depois de gerar a versão ofuscada, o PROMPTFLUX grava o arquivo na pasta Startup do Windows, garantindo persistência, e tenta se propagar copiando-se para unidades removíveis e compartilhamentos de rede mapeados. Há ainda uma função chamada AttemptToUpdateSelf — atualmente comentada — e um registro de todas as interações com a IA em “%TEMP%thinking_robot_log.txt”. Segundo o GTIG, esses indícios mostram a intenção de criar um script metamórfico que evolui com o tempo.
Os pesquisadores encontraram diferentes variantes do malware. Em uma delas, o prompt ordena ao Gemini que reescreva todo o código do PROMPTFLUX a cada hora, assumindo o papel de “especialista em ofuscação de VBScript”. Até o momento, o software malicioso ainda não possui mecanismo próprio para invadir máquinas; o Google avalia que ele está em fase de desenvolvimento ou testes. A autoria permanece desconhecida, mas a motivação aparenta ser financeira, sem foco geográfico ou setorial definido.
Outros malwares que utilizam modelos de linguagem
O Google também listou exemplos adicionais de códigos maliciosos que se valem de IA:
- FRUITSHELL – reverse shell em PowerShell com prompts embutidos para driblar sistemas de defesa baseados em LLM;
- PROMPTLOCK – ransomware multiplataforma em Go que gera e executa scripts Lua maliciosos em tempo de execução;
- PROMPTSTEAL (ou LAMEHUG) – minerador de dados usado pelo grupo russo APT28, que consulta o modelo Qwen2.5-Coder-32B-Instruct;
- QUIETVAULT – ladrão de credenciais em JavaScript voltado a tokens do GitHub e do NPM.
Abusos do Gemini por atores estatais
O relatório menciona ainda o uso da plataforma de IA do Google por agentes vinculados a China, Irã e Coreia do Norte para tarefas como reconhecimento, criação de iscas de phishing, desenvolvimento de infraestrutura de comando e controle e exfiltração de dados. Em um caso, um operador chinês driblou restrições fingindo participar de um capture the flag (CTF) a fim de obter instruções de exploração.
Imagem: Internet
- APT41 (Irã) pediu ajuda para ofuscar código e criar ferramentas em C++ e Go, incluindo o framework C2 “OSSTUN”.
- MuddyWater (Irã) pesquisou a criação de malware sob o pretexto de projeto universitário.
- APT42 (Irã) elaborou material de phishing e um “Data Processing Agent” que transforma linguagem natural em consultas SQL.
- UNC1069 e TraderTraitor (Coreia do Norte) geraram iscas para engenharia social, desenvolveram código para roubo de criptomoedas e instruções falsas de atualização de software.
Deepfakes e novas táticas
O GTIG observou recentemente o UNC1069 utilizar imagens e vídeos deepfake de profissionais do setor de criptomoedas para disseminar o backdoor BIGMACHO, mascarado como SDK do Zoom. Algumas características lembram a campanha GhostCall descrita pela Kaspersky.
Tendência de uso de IA em operações maliciosas
Para o Google, a adoção de modelos de linguagem por cibercriminosos deve deixar de ser exceção e tornar-se norma, ampliando velocidade e escala dos ataques. A empresa alerta que a disponibilidade desses sistemas, somada à integração ampla em ambientes corporativos, favorece ataques de prompt injection de baixo custo e alto retorno.
Fim.
Com informações de The Hacker News