Musk, Wozniak e outros pedem suspensão temporária no desenvolvimento de IA

Elon Musk, Steve Wozniak e outros especialistas e executivos do setor tecnológico uniram forças em uma carta aberta, pedindo uma suspensão temporária no desenvolvimento de sistemas de inteligência artificial (IA) mais avançados que o GPT-4.

A carta foi publicada pelo Future of Life Institute, uma associação sem fins lucrativos que recebe financiamento parcial da Musk Foundation.

Leia também
O que é inteligência artificial?
13 curiosidades sobre a inteligência artificial

Pausa de 6 meses no treinamento de novos sistemas de IA

S fde8cedf 3image story.jpg?fit=scale&fm=pjpg&h=512&ixlib=php 3.3

Os signatários da carta expressam preocupação com os riscos que a IA pode representar à sociedade e à civilização. Isso inclui até mesmo rupturas políticas e econômicas. Eles argumentam que os laboratórios de pesquisa estão envolvidos em uma corrida desenfreada para criar sistemas que nem mesmo seus criadores conseguem entender, prever ou controlar de forma confiável.

A carta solicita uma pausa de pelo menos seis meses no treinamento de sistemas de IA mais potentes que o GPT-4. E caso as empresas não adiram voluntariamente, insta os governos a intervir.

Além disso, propõe a criação de protocolos rígidos de segurança, que seriam compartilhados entre todas as empresas envolvidas e auditados por especialistas independentes.

Nomes relevantes assinam a carta

Woz calls for pause in AI development.webp?fit=scale&fm=pjpg&h=384&ixlib=php 3.3
Steve Wozniak, co-fundador da Apple, também se preocupa com o avanço acelerado da IA

Elon Musk, CEO da Tesla, SpaceX e Twitter, já havia manifestado preocupação com a IA em várias ocasiões. Em 2017, ele defendeu a regulamentação do setor antes que fosse tarde demais e pediu à ONU a proibição de armas robóticas de guerra, temendo que elas saíssem do controle.

Outros nomes notáveis que assinaram a carta incluem Steve Wozniak, co-fundador da Apple; Jaan Tallinn, co-fundador do Skype; Evan Sharp, co-fundador do Pinterest; Yuval Noah Harari, autor dos livros Homo Deus e Sapiens; e Andrew Yang, político e pré-candidato à presidência dos EUA em 2020 e à prefeitura de Nova York em 2021.

Protocolos para o desenvolvimento seguro da IA

Em um momento em que empresas de tecnologia como Google e Microsoft competem para lançar novos produtos, muitas vezes deixando de lado preocupações com segurança e ética, a carta representa uma oposição crescente a essa abordagem. Essa oposição tem potencial para alcançar o domínio político e ser considerada pelos legisladores.

Os signatários acreditam que o momento é propício para que laboratórios de IA e especialistas independentes utilizem a pausa sugerida para desenvolver e implementar conjuntamente protocolos de segurança compartilhados. Esses protocolos devem garantir que os sistemas desenvolvidos sejam seguros além de qualquer dúvida razoável.

Apesar de ser improvável que a carta cause impacto imediato no clima atual de pesquisa em IA, é um sinal importante da preocupação compartilhada por líderes do setor em relação aos possíveis riscos e desafios que a IA avançada pode representar.

istock 1183313700.jpg?fit=scale&fm=pjpg&h=460&ixlib=php 3.3

Sobre a carta aberta

A carta aberta, que você pode ler completa (em inglês) neste link, já foi assinada por mais de 1.300 pessoas. Mas há um porém aqui. Não é necessário comprovar a identidade para assinar. Assim, nomes como Sam Altman, CEO da OpenAI, estão entre os signatários.

De qualquer forma, estes são os pontos principais abordados pela carta:

  • Pausar treinamento de IA mais poderoso que GPT-4 por 6 meses.
  • Riscos profundos da inteligência artificial para a sociedade e humanidade.
  • Corrida descontrolada por sistemas mais poderosos e imprevisíveis.
  • Necessidade de confiança justificada nos efeitos positivos e na gestão de riscos.
  • Pausa pública e verificável no treinamento de sistemas de IA.
  • Desenvolver protocolos de segurança compartilhados e supervisionados.
  • Redirecionar pesquisa e desenvolvimento para melhorar características dos sistemas atuais.
  • Acelerar o desenvolvimento de sistemas robustos de governança de IA.
  • Aproveitar um “verão de IA” para colher benefícios e garantir a segurança.

Agora queremos saber sua opinião! Deixe seu comentário abaixo sobre a suspensão temporária no desenvolvimento de IA e compartilhe suas ideias sobre como garantir um futuro seguro e responsável para a inteligência artificial.

Fontes: Future of Life Institute, The Verge, Reuters 

Postado por
Cearense. 37 anos. Apaixonado por tecnologia desde que usou um computador pela primeira vez, em um hoje jurássico Windows 95. Além de tech, também curto filmes, séries e jogos.
Siga em:
Compartilhe
Deixe seu comentário
Veja também
Publicações Relacionadas
Img de rastreio
Localize algo no site!