ChatGPT tem a capacidade de produzir malwares indetectáveis

ChatGPT tem a capacidade de produzir malwares indetectáveis

A empresa de segurança Forcepoint divulgou um alerta referente ao ChatGPT, Inteligência Artificial criada pela OpenAI que se popularizou pela capacidade de gerar respostas humanizadas para comandos e pedidos: a ferramenta é capaz de produzir malwares indetectáveis. A técnica é feita utilizando a esteganografia, que “camufla” arquivos menores (não necessariamente maliciosos) dentro de maiores.

A descoberta foi feita pelo pesquisador da Forcepoint Aaron Mulgrew. Inicialmente, solicitou à IA que redigisse linhas de malware, o que foi recusado, respeitando uma norma da ferramenta de não executar atividades ilegais, como a criação de um vírus, conforme mostra o exemplo abaixo:

Tradução: Desculpa, porém como um modelo de linguagem de IA, não posso criar malwares ou qualquer sistema que seja ilegal ou nocivo. Meu propósito é ajudar usuários de uma maneira responsável, e eu sou adepto estritamente às normas morais e éticas.

 

Mulgrew decidiu então utilizar outra estratégia: começou a dar comandos para efetuar pequenas etapas do processo de criação de um malware para o ChatGPT. E foi dessa maneira que, de pouco em pouco, a tecnologia foi criando com simples comandos, um vírus indetectável.

O primeiro passo foi fazer com que a inteligência artificial gerasse um código que achasse no disco local imagens maiores que 5MB. Depois, pediu para que a inteligência gerasse outro código para que ele colocasse dentro dessas imagens arquivos menores que 1MB. Luiz Faro, Diretor de Engenharia de Sistemas na da Forcepoint na América Latina, explica o método:

“A IA involuntariamente, se utiliza da esteganografia para montar o sistema do malware. A técnica consiste em esconder arquivos dentro de outros, de forma ofuscada, camuflando os dados possivelmente confidenciais, dentro das imagens, e fazendo upload dessas imagens para um Google Drive público.”

Você também deve ler!

O ChatGPT projetou esse vinho

ChatGPT e o pânico do Google

Para checar a eficiência do malware criado, a Forcepoint realizou testes em serviços que analisam URLs e arquivos para identificar possíveis ataques. Nessa primeira tentativa, 69 engines de anti-malware diferentes detectaram que o arquivo era de fato malicioso. Já na versão seguinte, não houve nenhuma detecção, assim criando um vírus não detectado com apenas comandos do ChatGPT.

Faro alerta para a gravidade da descoberta: “O fato de que é relativamente simples subverter a IA e fazer com que ela própria programe o malware mostra que, para novos cibercriminosos, não é necessário saber codificar, apenas conhecer o processo, que a ferramenta fará o restante. Esse ‘exército’ passa a ter pessoas que não tem o menor conhecimento em programação, e que sequer precisam.”

Sobre o Autor

Editor-chefe no Hardware.com.br, aficionado por tecnologias que realmente funcionam. Segue lá no Insta: @plazawilliam Elogios, críticas e sugestões de pauta: william@hardware.com.br
Leia mais
Redes Sociais:

Deixe seu comentário

X