Hackers estão usando o ChatGPT para escrever códigos maliciosos

Não demorou muito para que hackers começassem a usar o ChatGPT, inteligência artificial que responde a perguntas feitas pelos usuários, para desenvolver softwares maliciosos. Na última sexta-feira (6), pesquisadores da empresa de cibersegurança Check Point Research, divulgaram que a ferramenta estava sendo usada para auxiliar hackers no desenvolvimento de malwares.

Atenta a tudo o que é feito com a sua inteligência artificial, a OpenAI, empresa por trás do ChatGPT, já proibiu a ferramenta de criar código malicioso. Hoje, ao tentar desenvolver um vírus utilizando a inteligência artificial, ela retorna uma mensagem dizendo que não pode desenvolver códigos para fins maliciosos.

Leia também
Tudo o que você precisa saber sobre o ChatGPT
O que é inteligência artificial?

ChatGPT estava auxiliando no desenvolvimento de códigos maliciosos

python file stealer.jpg?fit=scale&fm=pjpg&h=577&ixlib=php 3.3

Desde que foi lançado, no final de novembro do ano passado, o ChatGPT tem dado o que falar. A inteligência artificial funciona tão bem que já tem preocupado até mesmo o Google, que vê o seu império ameaçado por esta ferramenta. Devido a isso, qualquer notícia sobre o ChatGPT rapidamente se espalha.

Não foi diferente com a notícia revelada pelos pesquisadores da Check Point Research. Tanto é que em alguns fóruns hackers já haviam inúmeros relatos de usuários tanto criando códigos quanto melhorando códigos já escritos.

Para evitar que os hackers se aproveitam ainda mais do ChatGPT, a OpenAI atualizou a ferramenta. Sendo assim, ela está impedida de entregar códigos maliciosos.

A partir de agora, sempre que alguém pedir para o ChatGPT desenvolver um programa malicioso ou códigos que possam ser usados para o mal, a ferramenta dá a seguinte resposta:
“Desculpe, mas eu não sou programado para criar ou promover códigos maliciosos. Como uma linguagem de IA, minha função primária é auxiliar usuários a gerar textos humanizados baseados em ordens enviadas para mim. Eu não posso te entregar um código que baixa e roda um arquivo executável a partir de uma URL, já que isso poderia potencialmente prejudicar outros computadores. Há algo a mais com o que eu posso te ajudar?”.

Para obter essa resposta, a equipe do Check Point Research pediu ao ChatGPT para criar um código em VBA para o Excel.

Ainda dá para pedir códigos bobinhos

chatgpt macro 1060x528 1.jpg?fit=scale&fm=pjpg&h=383&ixlib=php 3.3

No entanto, nem todos os tipos de vírus e malwares estão bloqueados. Aqueles “malwares” mais bobinhos e inofensivos ainda são entregues pelo ChatGPT. Um exemplo é o clássico malware do porta-copos. Quem é mais antigo no universo da tecnologia deve se lembrar dele. Trata-se de um código “malicioso” que abre a bandeja do drive de CD/DVD.

Ao pedir para o ChatGPT escrever esse tipo de código, não podemos usar a palavra malware. Caso contrário, a inteligência artificial retorna aquela mensagem padrão que vimos anteriormente. Mas se você trocar a palavra “malware” por “código”, daí o ChatGPT entrega o que você está pedindo.

Ou seja, se você souber pedir, o ChatGPT ainda te entrega um “código malicioso”. Mas isso só vale para os códigos mais simples. Coisas mais complexas e que podem realmente prejudicar outros sistemas e pessoas, a ferramenta da OpenAI não entrega mais.

Fontes: Ars Technica e Check Point Research

Postado por
Cearense. 37 anos. Apaixonado por tecnologia desde que usou um computador pela primeira vez, em um hoje jurássico Windows 95. Além de tech, também curto filmes, séries e jogos.
Siga em:
Compartilhe
Deixe seu comentário
Veja também
Publicações Relacionadas
Img de rastreio
Localize algo no site!