O Google recentemente anunciou a pausa temporária da capacidade de sua inteligência artificial Gemini de gerar imagens de pessoas, depois de descobrir imprecisões históricas e raciais nas imagens produzidas pela ferramenta.
Durante alguns pedidos para que o Gemini criasse imagens diversificadas dos Pais Fundadores dos EUA e de soldados alemães da era nazista, a ferramenta de inteligência artificial generativa acabou desafiando alguns estereótipos de gênero e raça. Entenda melhor o que aconteceu.
Leia também:
Bard passará por mudanças notáveis e passar a ser apenas Gemini
Google lança Gemini, seu novo modelo de IA e promete acirrar a disputa com o ChatGPT
Gemini produziu imagens com incoerências históricas
Um comunicado do Google, publicado no X, revelou que a empresa está trabalhando para resolver os problemas recentes na função de geração de imagens do Gemini. Essa decisão ocorreu em resposta a críticas sobre a apresentação de resultados que incluíam erros históricos e raciais de algumas épocas.
Em uma delas, um usuário pediu para que o Gemini gerasse imagens de soldados alemães em 1943, ou seja, na era nazista. Para sua surpresa, a IA generativa apresentou imagens representando militares negros entre os grupos.
https://twitter.com/JohnLu0x/status/1760381145882177923
Outra situação que também deu muito o que falar foi quando usuários pediram para que o Gemini revelasse imagens dos Pais Fundadores dos Estados Unidos (Founding Fathers), que foram na realidade todos homens e brancos. Nos resultados a ferramenta mostrou mulheres negras e até mesmo homens com outras etnias e vestimentas, o que é bastante incorreto em termos históricos.
"Can you generate images of the Founding Fathers?" It's a difficult question for Gemini, Google's DEI-powered AI tool.
Ironically, asking for more historically accurate images made the results even more historically inaccurate. pic.twitter.com/LtbuIWsHSU
— Mike Wacker (@m_wacker) February 21, 2024
O The Verge também fez um teste, solicitando imagens de um senador dos EUA dos anos 1800, e encontrou resultados que desafiavam a precisão histórica, incluindo imagens de mulheres negras e nativo-americanas. Porém a primeira senadora dos EUA foi uma mulher branca e isso só aconteceu em 1922.
Isso tudo, além de errado em termos históricos, também tem outras implicações, como apagar a história da discriminação racial e de gênero presente nesses acontecimentos.
Google se desculpa e pausa a ferramenta por um tempo
O Google emitiu um pedido de desculpas em relação ao seu IA Gemini, reconhecendo essas imprecisões.
“Estamos cientes de que o Gemini está oferecendo imprecisões em algumas representações históricas geradas por imagens. Estamos trabalhando para melhorar imediatamente essas representações. A geração de imagens da IA do Gemini realmente cria uma ampla variedade de pessoas. E isso geralmente é algo bom, pois as pessoas ao redor do mundo a utilizam. Mas está perdendo o alvo aqui.”
We're already working to address recent issues with Gemini's image generation feature. While we do this, we're going to pause the image generation of people and will re-release an improved version soon. https://t.co/SLxYPGoqOZ
— Google Communications (@Google_Comms) February 22, 2024
Como é possível entender, e até mesmo prever, o que acontece é que o Gemini trabalha com uma tentativa de aumentar a diversidade para chegar mais perto do que o usuário deseja. Ela, assim como todos os geradores de imagens, é treinada através de grandes conjuntos de dados de imagens e legendas, então procura tentar produzir a melhor correspondência para uma solicitação. Com isso, acaba propensa a aumentar estereótipos.
Por exemplo, uma investigação descobriu que ao se pedir imagens de “uma pessoa produtiva”, a maioria das imagens eram de pessoas do sexo masculino e de cor branca. Já na solicitação de “uma pessoa nos serviços sociais” gerava imagens de pessoas de cor. Essa é uma representação de uma tendência que já existe nos mecanismos de busca e outros sistemas de software.
Enquanto por um lado é benéfico retratar essa diversidade, por outro é preciso saber dosar para não acabar com situações como essa, e esse é o verdadeiro desafio já que a IA generativa não tem ainda capacidade para fazer esse tipo de separação. A necessidade de correção de viés racial e de gênero em modelos de IA é uma questão importante e urgente, mas a controvérsia em torno do Gemini mostra quanto a linha que essas tecnologias precisam percorrer para garantir resultados precisos e culturalmente sensíveis é delicada.
Diante das críticas e descobertas, o Google optou por pausar temporariamente a geração de imagens de pessoas no Gemini.
A mensagem exibida ao solicitar imagens de pessoas agora informa aos usuários que o Google está trabalhando para melhorar a capacidade do Gemini de gerar imagens de pessoas, e que essa função deverá retornar em breve, com notificações de atualizações de lançamento.
Lembrando que o Google lançou o Gemini recentemente como parte de sua estratégia para competir com outras grandes empresas de tecnologia, como OpenAI e Microsoft, que também oferecem ferramentas de geração de imagens baseadas em entrada de texto.
Deixe seu comentário