Musk, Wozniak e outros pedem suspensão temporária no desenvolvimento de IA

Musk, Wozniak e outros pedem suspensão temporária no desenvolvimento de IA

Elon Musk, Steve Wozniak e outros especialistas e executivos do setor tecnológico uniram forças em uma carta aberta, pedindo uma suspensão temporária no desenvolvimento de sistemas de inteligência artificial (IA) mais avançados que o GPT-4.

A carta foi publicada pelo Future of Life Institute, uma associação sem fins lucrativos que recebe financiamento parcial da Musk Foundation.

Leia também
O que é inteligência artificial?
13 curiosidades sobre a inteligência artificial

Pausa de 6 meses no treinamento de novos sistemas de IA

S fde8cedf 3image story.jpg?fit=scale&fm=pjpg&h=512&ixlib=php 3.3

Os signatários da carta expressam preocupação com os riscos que a IA pode representar à sociedade e à civilização. Isso inclui até mesmo rupturas políticas e econômicas. Eles argumentam que os laboratórios de pesquisa estão envolvidos em uma corrida desenfreada para criar sistemas que nem mesmo seus criadores conseguem entender, prever ou controlar de forma confiável.

A carta solicita uma pausa de pelo menos seis meses no treinamento de sistemas de IA mais potentes que o GPT-4. E caso as empresas não adiram voluntariamente, insta os governos a intervir.

Além disso, propõe a criação de protocolos rígidos de segurança, que seriam compartilhados entre todas as empresas envolvidas e auditados por especialistas independentes.

Nomes relevantes assinam a carta

Woz calls for pause in AI development.webp?fit=scale&fm=pjpg&h=384&ixlib=php 3.3
Steve Wozniak, co-fundador da Apple, também se preocupa com o avanço acelerado da IA

Elon Musk, CEO da Tesla, SpaceX e Twitter, já havia manifestado preocupação com a IA em várias ocasiões. Em 2017, ele defendeu a regulamentação do setor antes que fosse tarde demais e pediu à ONU a proibição de armas robóticas de guerra, temendo que elas saíssem do controle.

Outros nomes notáveis que assinaram a carta incluem Steve Wozniak, co-fundador da Apple; Jaan Tallinn, co-fundador do Skype; Evan Sharp, co-fundador do Pinterest; Yuval Noah Harari, autor dos livros Homo Deus e Sapiens; e Andrew Yang, político e pré-candidato à presidência dos EUA em 2020 e à prefeitura de Nova York em 2021.

Protocolos para o desenvolvimento seguro da IA

Em um momento em que empresas de tecnologia como Google e Microsoft competem para lançar novos produtos, muitas vezes deixando de lado preocupações com segurança e ética, a carta representa uma oposição crescente a essa abordagem. Essa oposição tem potencial para alcançar o domínio político e ser considerada pelos legisladores.

Os signatários acreditam que o momento é propício para que laboratórios de IA e especialistas independentes utilizem a pausa sugerida para desenvolver e implementar conjuntamente protocolos de segurança compartilhados. Esses protocolos devem garantir que os sistemas desenvolvidos sejam seguros além de qualquer dúvida razoável.

Apesar de ser improvável que a carta cause impacto imediato no clima atual de pesquisa em IA, é um sinal importante da preocupação compartilhada por líderes do setor em relação aos possíveis riscos e desafios que a IA avançada pode representar.

istock 1183313700.jpg?fit=scale&fm=pjpg&h=460&ixlib=php 3.3

Sobre a carta aberta

A carta aberta, que você pode ler completa (em inglês) neste link, já foi assinada por mais de 1.300 pessoas. Mas há um porém aqui. Não é necessário comprovar a identidade para assinar. Assim, nomes como Sam Altman, CEO da OpenAI, estão entre os signatários.

De qualquer forma, estes são os pontos principais abordados pela carta:

  • Pausar treinamento de IA mais poderoso que GPT-4 por 6 meses.
  • Riscos profundos da inteligência artificial para a sociedade e humanidade.
  • Corrida descontrolada por sistemas mais poderosos e imprevisíveis.
  • Necessidade de confiança justificada nos efeitos positivos e na gestão de riscos.
  • Pausa pública e verificável no treinamento de sistemas de IA.
  • Desenvolver protocolos de segurança compartilhados e supervisionados.
  • Redirecionar pesquisa e desenvolvimento para melhorar características dos sistemas atuais.
  • Acelerar o desenvolvimento de sistemas robustos de governança de IA.
  • Aproveitar um “verão de IA” para colher benefícios e garantir a segurança.

Agora queremos saber sua opinião! Deixe seu comentário abaixo sobre a suspensão temporária no desenvolvimento de IA e compartilhe suas ideias sobre como garantir um futuro seguro e responsável para a inteligência artificial.

Fontes: Future of Life Institute, The Verge, Reuters 

Sobre o Autor

Avatar de Felipe Alencar
Cearense. 34 anos. Apaixonado por tecnologia e cultura. Trabalho como redator tech desde 2011. Já passei pelos maiores sites do país, como TechTudo e TudoCelular. E hoje cubro este fantástico mundo da tecnologia aqui para o HARDWARE.
Leia mais
Redes Sociais:

Deixe seu comentário

X