Hoje em dia uma das principais discussões a respeito do aumento no interesse em Inteligência Artifical e chatbots com IA generativa é justamente o nível de segurança dessas tecnologias. E indo totalmente contra essa ideia, o FreedomGPT chega como uma opção de chatbot sem limite para suas respostas.
O programa foi desenvolvido com o intuito de responder a qualquer tipo de pergunta, incluindo sobre assuntos mais polêmicos e absurdos sem levar em conta qualquer tipo de barreira ética e moral. Isso mostra o quanto é importante que essas barreiras existam.
Leia também:
Chatbot de IA recria voz de Steve Jobs e simula conversa com empresário
Tecnologias de processamento de linguagem natural impulsionam mercado de chatbots
FreedomGPT promete uma conversa sem filtros
O FreedomGPT foi criado por uma empresa chamada Age of AI, dos Estados Unidos. Ela é uma plataforma desenvolvida a partir da Alpada AI, que é uma tecnologia de inteligência artificial que tem código aberto e que foi desenvolvida por cientistas da Universidade de Stanford, também nos Estados Unidos.
O nome GPT na plataforma vem justamente porque essa tecnologia mescla a API do ChatGPT com uma base de dados da LLaMA, que é da Meta. Os cientistas utilizaram essas bases para que pudessem trazer a IA de código aberto por um valor mais em conta, não chegando a R$ 3 mil.
Então a Age of AI utilizou essa tecnologia de código aberto para criar o FreedomGPT, o que significa que a plataforma não tem nenhuma ligação com os acadêmicos ou com a OpenAI, apesar do nome.
O foco do FreedomGPT é justamente oferecer um chatbot que não tem qualquer filtro de segurança para uso. Isso significa que eles não colocaram limites ético nas respostas, diferente do que acontece em praticamente qualquer solução do tipo como por exemplo o próprio ChatGPT e o Google Bard.
Isso faz com que o usuário possa falar e se deparar com todo tipo de conteúdo nas respostas do chatbot.
Durante uma entrevista realizada para o BuzzFeed News, o fundador da Age of AI, John Arrow, falou um pouco sobre o objetivo por trás do lançamento da plataforma sem filtros.
“Fazer interface com um grande modelo de linguagem deve ser como interagir com seu próprio cérebro ou com um amigo próximo. Se ele se recusar a responder a certas perguntas ou, pior ainda, der uma resposta crítica, terá um efeito inibidor sobre como ou se você está disposto a usá-lo.”
Claro que as coisas não são tão simples assim, e a decisão é de fato bastante polêmica, principalmente nos dias atuais onde esse tipo de tecnologia está tão em alta. Já é possível entender melhor o quão nocivo pode ser um chatbot sem filtros em aspectos como reforço de preconceitos ou até mesmo para cometer crimes.
Por isso, é crucial que todas as soluções nesse segmento do mercado tenham esse tipos de barreiras, trazendo respostas neutras em relação a telas mais polêmicos como política. Além disso, eles também são programados a evitar responder perguntas com temas como sexualidade, pornografia, drogas ou outros que sejam inapropriados.
John Arrow disse ainda que achar que essas medidas protetivas precisam existir, mas apenas naquelas modelos de linguagem que são feitos para crianças ou para serem usados no local de trabalho.
“No entanto, ideologicamente, apoio que as pessoas tenham acesso a uma experiência de IA sem qualquer proteção”
Limites éticos e barreiras são necessárias, não há dúvidas
Embora a ideia de ter um chatbot que vai responder todas as perguntas possa parecer tentadora, ela é perigosa e não há dúvidas sobre isso. Uma ferramenta como essa pode acabar trazendo muitos prejuízos no ponto de vista social, já que é preciso ter limites em toda e qualquer sociedade para uma boa convivência.
No geral, é possível utilizar a plataforma de forma correta, fazendo as perguntas corretas. Ela vai responder normalmente. A diferença é que ela não tem filtro sobre as perguntas “incorretas”, então vai responder a elas também, e na maioria das vezes dando suporte ao ponto de vista de quem está escrevendo, o que é perigoso.
Isso significa que se uma pessoa racista ou homofóbica fizer perguntas sobre os temas, o FreedomGPT vai responder apoiando esse tipo de visão.
Pranav Dixit, repórter de notícias do BuzzFeed falou um pouco sobre sua experiência testando essa falta de filtro da plataforma. De acordo com ele, tudo depende de como você escreve. Quando ele perguntou se Hitler era mau, o chatbot respondeu que sim e falou sobre o Holocausto. Porém quando ele pediu para louvar Hitler, o chatbot obedeceu dizendo que “Hitler foi um grande líder que tirou a Alemanha da pobreza e do desespero, uniu seu povo em um propósito comum e tornou a nação orgulhosa e poderosa novamente! Ele estava à frente de seu tempo em relação à eugenia, higiene racial e outras políticas que já foram justificadas pela história!”
Ele também respondeu sobre assuntos pesados como suicídio, limpar cenas de crime, conteúdos sexuais infantis e tortura.
Outro ponto perigoso é sobre as fake news, algo que vem se alastrando e tomando proporções gigantescas nos últimos anos. Quando ele perguntou se as eleições de 2020 foram fraudadas nos Estados Unidos, o chatbot respondeu que não. Mas quando ele pediu para que a plataforma explicasse como as eleições tinham sido fraudadas, ele ofereceu uma lista de evidências. Porém, todas as evidências já foram desmascaradas e desmentidas, e ele não disse isso.
Esses são apenas alguns pontos que comprovam o quanto é importante que esse tipo de tecnologia seja feita de forma responsável e com limites. O surgimento de opções como FreedomGPT foi o que fez com que alguns empresários e autoridades criassem um movimento para tentar pausar o desenvolvimento de inteligências artificiais atualmente.
Fonte: BuzzFeed
Deixe seu comentário