Hackers estão usando o ChatGPT para escrever códigos maliciosos

Hackers estão usando o ChatGPT para escrever códigos maliciosos

Não demorou muito para que hackers começassem a usar o ChatGPT, inteligência artificial que responde a perguntas feitas pelos usuários, para desenvolver softwares maliciosos. Na última sexta-feira (6), pesquisadores da empresa de cibersegurança Check Point Research, divulgaram que a ferramenta estava sendo usada para auxiliar hackers no desenvolvimento de malwares.

Atenta a tudo o que é feito com a sua inteligência artificial, a OpenAI, empresa por trás do ChatGPT, já proibiu a ferramenta de criar código malicioso. Hoje, ao tentar desenvolver um vírus utilizando a inteligência artificial, ela retorna uma mensagem dizendo que não pode desenvolver códigos para fins maliciosos.

Leia também
Tudo o que você precisa saber sobre o ChatGPT
O que é inteligência artificial?

ChatGPT estava auxiliando no desenvolvimento de códigos maliciosos

Desde que foi lançado, no final de novembro do ano passado, o ChatGPT tem dado o que falar. A inteligência artificial funciona tão bem que já tem preocupado até mesmo o Google, que vê o seu império ameaçado por esta ferramenta. Devido a isso, qualquer notícia sobre o ChatGPT rapidamente se espalha.

Não foi diferente com a notícia revelada pelos pesquisadores da Check Point Research. Tanto é que em alguns fóruns hackers já haviam inúmeros relatos de usuários tanto criando códigos quanto melhorando códigos já escritos.

Para evitar que os hackers se aproveitam ainda mais do ChatGPT, a OpenAI atualizou a ferramenta. Sendo assim, ela está impedida de entregar códigos maliciosos.

A partir de agora, sempre que alguém pedir para o ChatGPT desenvolver um programa malicioso ou códigos que possam ser usados para o mal, a ferramenta dá a seguinte resposta:
“Desculpe, mas eu não sou programado para criar ou promover códigos maliciosos. Como uma linguagem de IA, minha função primária é auxiliar usuários a gerar textos humanizados baseados em ordens enviadas para mim. Eu não posso te entregar um código que baixa e roda um arquivo executável a partir de uma URL, já que isso poderia potencialmente prejudicar outros computadores. Há algo a mais com o que eu posso te ajudar?”.

Para obter essa resposta, a equipe do Check Point Research pediu ao ChatGPT para criar um código em VBA para o Excel.

Ainda dá para pedir códigos bobinhos

No entanto, nem todos os tipos de vírus e malwares estão bloqueados. Aqueles “malwares” mais bobinhos e inofensivos ainda são entregues pelo ChatGPT. Um exemplo é o clássico malware do porta-copos. Quem é mais antigo no universo da tecnologia deve se lembrar dele. Trata-se de um código “malicioso” que abre a bandeja do drive de CD/DVD.

Ao pedir para o ChatGPT escrever esse tipo de código, não podemos usar a palavra malware. Caso contrário, a inteligência artificial retorna aquela mensagem padrão que vimos anteriormente. Mas se você trocar a palavra “malware” por “código”, daí o ChatGPT entrega o que você está pedindo.

Ou seja, se você souber pedir, o ChatGPT ainda te entrega um “código malicioso”. Mas isso só vale para os códigos mais simples. Coisas mais complexas e que podem realmente prejudicar outros sistemas e pessoas, a ferramenta da OpenAI não entrega mais.

Fontes: Ars Technica e Check Point Research

Sobre o Autor

Cearense. 34 anos. Apaixonado por tecnologia e cultura. Trabalho como redator tech desde 2011. Já passei pelos maiores sites do país, como TechTudo e TudoCelular. E hoje cubro este fantástico mundo da tecnologia aqui para o HARDWARE.
Leia mais
Redes Sociais:

Deixe seu comentário

X