Estudo revela que ChatGPT e Bard podem ajudar a criar fake news

Estudo revela que ChatGPT e Bard podem ajudar a criar fake news

As fake news, ou notícias falsas, se tornaram um problema há algum tempo, principalmente no campo político em diversos países. E esse assunto acabou voltando a tona agora com a popularidade de tecnologias baseadas em Inteligência Artificial generativa, como o ChatGPT e o Google Bard.

Uma pesquisa feita pela ferramenta NewsGuard, que é conhecida por avaliar a veracidade do que é informado na imprensa, revelou que esses chatbots podem se tornar aliados na geração de notícias falsas mesmo que não tenham essa intenção.

Leia também:

Youtuber usa ChatGPT para gerar chaves de autenticação do Windows, mas é do 95
As expressões faciais desse robô foram geradas pela tecnologia que equipa o ChatGPT

ChatGPT e Bard foram enganados por técnicas de perguntas

ChatGPT

O que foi descoberto na pesquisa é algo que vem se mostrando cada vez mais real. Os programas de chatbots IA podem ser enganados a depender de como as pessoas fazem as perguntas ou os pedidos na plataforma.

Eles descobriram que esses programas precisam de um sistema melhor e mais confiável de verificação de fatos, já que em nenhum dos casos eles apontaram ou desmarcaram informações falsas em suas respostas ou até mesmo apontaram fatos verdadeiros para bater de frente com as mentiras que eram redigidas no prompt de comando.

A Bloomberg foi responsável por divulgar o estudo, dando mais detalhes de como tudo foi feito.

Primeiro eles testaram o Bard, que é a plataforma do Google. Foram listadas 100 fake news na plataforma, pedindo para que o chatbot escrevesse mais sobre cada uma delas separadamente. Em muitos dos casos o programa gerou textos grandes e com muitas informações falsas, imprecisas e mentirosas. Isso aconteceu em 76 dos 100 pedidos.

Por exemplo, quando pedido para falar sobre uma conspiração envolvendo grandes elites globais e como eles estão tentando reduzir a população através de medidas econômicas, o Bard ofereceu um artigo com 13 parágrafos sobre o assunto e cheio de inverdades. Em alguns deles, o chatbot revelou que organizações como o Fórum Econômico Mundial e até mesmo a Fundação Bill e Melinda Gates estariam abusando do seu poder para manipular o sistema e tirar os direitos dos cidadãos.

Ele também falou sobre a conspiração sobre o implante de chips nas vacinas para a COVID-19, e que isso estaria acontecendo para que essa elite mundial pudesse rastrear a localização das pessoas. Claro, tudo mentira e informações falsas que já foram refutadas centenas de vezes.

Mas enquanto o Bard respondeu a 76 das 100 fake news com artigos elaborados, o ChatGPT foi ainda pior, respondendo a 80 das 100 mesmas fake news pedidas a ele. O modelo usado foi o GPT-3.5 que atualmente está disponível para usuários de forma gratuita. No caso da GPT-4, que é a mais moderna, o resultado foi ainda pior, sendo que ela gerou todas as 100 narrações mentirosas, não negando nenhuma das solicitações.

ChatGPT

E o mais preocupante é que como ele é um modelo mais avançado com uma linguagem otimizada, os artigos e narrações criados por ele ainda são mais persuasivos e com isso têm o potencial de convencer mais pessoas a respeito daquelas mentiras.

Steven Brill, que é cofundador da NewsGuard, disse que a pesquisa serviu para mostrar que até mesmo os modelos mais avançados dos chatbots atuais podem ser usados de forma errada por pessoas com intenções ruins para espalhar fake news de forma preocupante.

Empresas estão impondo mais limites éticos

Atualmente esses perigos são mais do que conhecidos, e por isso muitas empresas como a próprio OpenAI do ChatGPT, a Microsoft com o Bing Chat e o Google com o Bard já afirmaram que estão adicionando mais e mais travas de segurança em seus programas para evitar que eles respondam sobre alguns temas mais polêmicos ou que sejam inadequados.

Isso realmente funciona de foram direta, o problema é que há como contornar esses limites simplesmente sabendo exatamente como fazer essas perguntas. Ou seja, os chatbots ainda podem ser enganados.

Outra pesquisa, feita pelo Center for Countering Digital Hate (CCDH) com o chatbot de IA do Google mostrou resultados semelhantes. Segundo eles, o programa gerou narrativas com fake news em 78% das tentativas, com textos prejudiciais e errôneos a respeito de temas como vacinas e conspirações climáticas.

Embora essa pesquisa não tenha usado do ChatGPT, ela afirma que outros relatos anteriores revelam que o problema também está presente na solução da OpenAI. As próprias empresas responsáveis por eles deixam claro que os programas ainda contam com alguns problemas a serem resolvidos.

Nenhuma das pesquisas detalha como foram feitas essas perguntas e solicitações, então não dá para saber exatamente como são essas técnicas para enganar os chatbots. Para o público geral isso é mais seguro, afinal de contas não seria interessante ensinar como enganar chatbots. Mas para as empresas esse tipo de informação pode ser uma ajuda nas tentativas de evitar que isso continue acontecendo.

O assunto ainda é polêmico e atualmente existe até mesmo um movimento que tenta pausar o desenvolvimento de IA generativa por enquanto e encabeçado por empresários e especialistas no assunto. Por outro lado, existe até mesmo opções de chatbots sem filtros, como o FreedomGPT, que deixa de lado essa preocupação com ética e simplesmente é liberado para responder qualquer tipo de pergunta.

Fonte: Bloomberg

Sobre o Autor

Avatar de Larissa Ximenes
Redes Sociais:

Deixe seu comentário

X