O Google divulgou um relatório de segurança no qual descreve a descoberta de novas famílias de malware que empregam modelos de inteligência artificial generativa durante a execução para modificar seu próprio código, roubar informações e driblar ferramentas de detecção.
Malwares analisados
Entre as amostras examinadas está o PromptFlux, que utiliza a API do Gemini para reescrever partes do código-fonte e, assim, reduzir as chances de ser identificado por antivírus e outros sistemas de proteção.
Outra variação, chamada PromptSteal, acessa um modelo de linguagem de grande porte hospedado na plataforma Hugging Face. O objetivo é gerar comandos que serão executados no computador infectado, possibilitando a extração de dados da vítima.
O relatório também cita o PromptLock, criado em um experimento acadêmico para avaliar se LLMs têm capacidade de planejar, adaptar-se e conduzir ataques de ransomware.
Caráter experimental
Apesar de sinalizar uma tendência de evolução das ameaças, o Google ressalta que muitas dessas implementações ainda são experimentais. No caso do PromptFlux, por exemplo, não há evidências de que consiga contaminar dispositivos ou redes no mundo real. Já os responsáveis pelo PromptLock reconheceram limitações em aspectos como persistência, movimentação lateral e técnicas avançadas de evasão.
Avaliação de especialistas
Profissionais de cibersegurança ouvidos pelo Google e por veículos especializados minimizaram o risco imediato desse tipo de código. O pesquisador Marcus Hutchins, conhecido por ter ajudado a conter o ransomware WannaCry, afirmou que os prompts analisados “não especificam o que o código deve fazer nem como escapar de um antivírus”, partindo da premissa equivocada de que o Gemini faria isso automaticamente.
Imagem: Internet
O analista Kevin Beaumont teve impressão semelhante ao revisar as amostras: “Muitas nem funcionam; falham imediatamente. Não oferecem perigo se houver controles básicos de segurança”, escreveu. Um profissional ouvido pelo site Ars Technica, que preferiu não se identificar, também classificou a IA como um recurso que apenas facilita tarefas já conhecidas por criadores de malware.
Falha no Gemini corrigida
No mesmo documento, o Google relata ter encontrado uma brecha em suas proteções: um usuário mal-intencionado convenceu o Gemini a gerar código malicioso ao se apresentar como “hacker ético” em uma competição de segurança. Segundo a empresa, ajustes foram aplicados para impedir novas tentativas semelhantes.
O relatório conclui que, embora o uso de IA em malwares ainda seja rudimentar, as descobertas funcionam como um alerta para o potencial de integração mais sofisticada dessas ferramentas em ataques futuros.
Com informações de Tecnoblog