Google demite engenheiro que disse que IA tinha consciência

Google demite engenheiro que disse que IA tinha consciência

O engenheiro Blake Lemoine, que tinha sido afastado do Google após dizer que uma inteligência artificial da empresa tinha ganhado consciência, foi demitido de forma oficial na última sexta-feira (22).

Em junho desse ano, Blake revelou que a inteligência artificial LaMDA tinha criado consciência equivalente a de uma criança de 7 a 8 anos, mas que entende de física, e por isso tinha sido temporariamente afastado pela empresa. Durante sua participação em um podcast chamado Big Technology no final da semana passada, ele confirmou a demissão.

Leia também:

Google afasta engenheiro que disse que IA se tornou consciente
Meta desenvolve inteligência artificial capaz de traduzir até 200 idiomas

Engenheiro era responsável por testes com a LaMDA

Blake Lemoine

O próprio Google também confirmou a demissão para diversos portais de notícias nos Estados Unidos e revelou que decisão foi tomada porque o engenheiro violou as políticas de segurança e dados. Blake está considerando entrar com uma ação contra a empresa.

Segundo ele, a demissão foi informada por um e-mail da empresa junto com um convite para uma chamada de vídeo. Blake perguntou se poderia ter uma pessoa presente na conferência, mas o Google negou.

O funcionário trabalhou para a organização de Inteligência Artificial Responsiva da empresa e, parte do seu trabalho era testar e conversar com a LaMDA. Ela é uma das inteligências artificiais criadas pelo Google, e seu nome deriva da frase Language Model for Dialogue Applications. Ou seja, faz parte de um projeto para a construção de chatbox.

Ela foi até mesmo anunciada durante o Google I/O no ano passado, em 2021, e revelada como uma promessa para a chegada de assistentes com mais capacidade de interpretação e de linguagem mais natural.

LaMDA

Durante um desses testes, Blake revelou que a IA tinha criado consciência. Durante uma das entrevistas feitas com a LaMDA, ele disse que se não soubesse se tratar de um programa de computador, pensaria estar conversando com uma criança de 7 a 8 anos que “por acaso, conhece física”. Essa descoberta foi revelada ao The Washington Post e logo se tornou pública.

Além disso, ele também revelou que, um dia antes do seu afastamento, ele entregou alguns documentos para o gabinete de um dos senadores dos EUA contendo evidências de que a área de tecnologia da empresa tem envolvimento com discriminação religiosa.

Lembrando que ele é um veterano militar e se declarou como pastor, além de ser ex-presidiário. Ele tinha como pretensão fazer com que a empresa pedisse o consentimento da IA antes de fazer testes e experimentos com ela. O Google afirmou que as alegações do ex-funcionário foram baseadas em suas crenças religiosa.

Nas redes sociais ele postou que “Termina um ciclo em que vivi por vários anos. Fiz meu trabalho corretamente. Apesar de expor algo que realmente vivenciei, estou sendo injustiçado pela empresa à qual dediquei minha vida por anos.”

A posição do Google diante do acontecimento

LaMDA

Na época em que Blake deu a entrevista falando que a LaMDA tinha a consciência de uma criança de 7 anos, o Google se pronunciou sobre o assunto revelando que a inteligência artificial tinha sido criada para simular uma conversa comum entre humanos e que isso não era o mesmo de ter uma consciência.

Eles revelaram ainda que a equipe chegou a revisar as preocupações do ex-funcionário de acordo com os princípios de IA, porém as evidências “não apoiam as alegações”. Brian Gabriel, um porta-voz do Google, revelou que eles revisaram a LaMDA 11 vezes, e que também publicaram um artigo com detalhes sobre o desenvolvimento dela, assim como as responsabilidades desse esforço.

“Se um funcionário compartilha preocupações sobre nosso trabalho, como Blake fez, nós as revisamos extensivamente. Descobrimos que as alegações de Blake de que o LaMDA é senciente são totalmente infundadas e trabalhamos para esclarecer isso com ele por muitos meses. É lamentável que, apesar do longo envolvimento com esse tópico, Blake ainda tenha optado por violar persistentemente políticas claras de emprego e segurança de dados que incluem a necessidade de proteger as informações do produto. Continuaremos nosso cuidadoso desenvolvimento de modelos de linguagem e desejamos boa sorte a Blake.”

Consequências e discussões sobre avanços na área de IA

Toda a confusão e a entrevista com Blake acabaram provocaram o início de uma discussão a respeito da evolução dessas inteligências artificiais e seus avanços, assim como deixar claro como elas funcionam e as responsabilidades corporativas de quem trabalha com essa área, evitando assim mal entendidos.

O Google já tinha demitido os chefes da divisão ética de IA, Margaret Mitchel e Timnit Gebru, quando eles também se destacaram ao alertar sobre possíveis riscos associados a esse tipo de tecnologia.

A LaMDA utiliza um sistema de linguagem bastante avançado, capaz tanto de gerar quanto de reconhecer textos. Pesquisadores revelaram que esse tipo de sistema não consegue entender a linguagem e seu significa, mas podem produzir uma fala humana enganosa já que são treinados com uma quantidade grande de dados que são rastreados da internet para que assim possam prever a próxima palavra mais provável em uma frase.

Logo depois do teste e da entrevista com a LaMDA, quando disse perceber que ela tinha criado consciência, Blake passou a investigar mais a IA e compartilhou um documento no Google Doc com diversos executivos. O nome do documento era “LaMDA é consciente?”, e nele Blake colocou algumas das conversas que teve com ela, que serviam para comprovar suas alegações. Dois executivos do Google analisaram esse documento, mas rejeitaram essas alegações.

Em junho desse ano ele foi colocado em licença administrativa remunerada por ter violado a política de confidencialidade da empresa. Agora, após a demissão, ele revelou que está pretendendo começar sua própria empresa de IA, só que será focada em videogames colaborativos de narrativa.

Fonte: washingtonpost

Sobre o Autor

Redes Sociais:

Deixe seu comentário

X