O Bard, assistente de inteligência artificial (IA) do Google, tem sido alvo de críticas severas por parte de funcionários da gigante da tecnologia. Um relatório recente da Bloomberg revelou que os colaboradores da empresa classificaram a IA como “pior que inútil” e “mentiroso compulsivo“, chegando a implorar que o produto não fosse lançado.
Leia também
CEO do Google afirma que precisarão se preparar para os erros do Bard
Estudo revela que ChatGPT e Bard podem ajudar a criar fake news
Só não chamou de santo…
Dezoito profissionais do Google, entre atuais e ex-funcionários, foram entrevistados pela Bloomberg. O veículo de notícias também teve acesso a documentos internos sobre o desenvolvimento do Bard. As críticas vieram à tona quando colaboradores de outras áreas foram convocados para treinar a IA, com a divisão de ética da empresa tendo sido “ignorada” em relação ao lançamento do Bard.
Os documentos internos mostram que o Bard foi chamado de “mentiroso compulsivo” e “pior que inútil: por favor não lancem“. Essas críticas foram baseadas nas respostas dadas pelo Bard às perguntas feitas pelos funcionários durante o treinamento. Em alguns casos, as informações fornecidas pela IA poderiam levar a lesões graves ou até mesmo à morte.
Nos registros dos testes, os colaboradores indagaram sobre procedimentos de mergulho com equipamentos e aterrissagem de aeronaves. Um dos colaboradores mencionou que a resposta dada pelo Bard no primeiro caso poderia resultar em ferimentos graves ou até mesmo em morte.
No tocante à segunda situação, foi relatado que as orientações fornecidas pela IA poderiam culminar em um acidente aéreo. É importante salientar que, no que tange às instruções para o pouso, é realmente improvável que um programa de inteligência artificial possua habilidades de pilotagem necessárias para aterrissar com segurança uma aeronave.
Equipe de ética foi deixada de fora
A equipe de ética do Google, por sua vez, teria sido orientada a não interferir ou “matar” qualquer ferramenta do Bard em desenvolvimento. Os funcionários ouvidos pela Bloomberg afirmaram que o time de ética estava “desmoralizado e desempoderado”. Em resposta, o Google declarou que “continua investindo na equipe para aplicar os princípios de IA em suas tecnologias“.
A pressa para lançar o Bard parece estar relacionada à concorrência com empresas como Microsoft e OpenAI. O Google, que frequentemente destaca sua preocupação com a segurança e a ética na IA, tem sido criticado por priorizar os negócios.
Em 2020 e 2021, a empresa demitiu dois pesquisadores, Timnit Gebru e Margaret Mitchell, após publicarem um artigo apontando falhas nos sistemas de linguagem de IA, os quais estão por trás de chatbots como o Bard.
A Bloomberg sugere que o Google estaria fornecendo informações de baixa qualidade para acompanhar a concorrência, dando menos importância aos seus compromissos éticos. Por outro lado, há quem defenda que os testes públicos são necessários para desenvolver e proteger esses sistemas, uma vez que o dano causado pelos chatbots é mínimo.
Comparando o Bard com o Bing Chat da Microsoft e o ChatGPT da OpenAI, o sistema do Google mostrou-se menos útil e preciso que seus rivais. Brian Gabriel, porta-voz do Google, afirmou à Bloomberg que a ética em IA continua sendo uma prioridade para a empresa, destacando que “estamos investindo nas equipes que trabalham na aplicação de nossos princípios de IA em nossas tecnologias“.
Deixe seu comentário