Elon Musk, Steve Wozniak e outros especialistas e executivos do setor tecnológico uniram forças em uma carta aberta, pedindo uma suspensão temporária no desenvolvimento de sistemas de inteligência artificial (IA) mais avançados que o GPT-4.
A carta foi publicada pelo Future of Life Institute, uma associação sem fins lucrativos que recebe financiamento parcial da Musk Foundation.
Leia também
O que é inteligência artificial?
13 curiosidades sobre a inteligência artificial
Pausa de 6 meses no treinamento de novos sistemas de IA
Os signatários da carta expressam preocupação com os riscos que a IA pode representar à sociedade e à civilização. Isso inclui até mesmo rupturas políticas e econômicas. Eles argumentam que os laboratórios de pesquisa estão envolvidos em uma corrida desenfreada para criar sistemas que nem mesmo seus criadores conseguem entender, prever ou controlar de forma confiável.
A carta solicita uma pausa de pelo menos seis meses no treinamento de sistemas de IA mais potentes que o GPT-4. E caso as empresas não adiram voluntariamente, insta os governos a intervir.
Além disso, propõe a criação de protocolos rígidos de segurança, que seriam compartilhados entre todas as empresas envolvidas e auditados por especialistas independentes.
Nomes relevantes assinam a carta
Elon Musk, CEO da Tesla, SpaceX e Twitter, já havia manifestado preocupação com a IA em várias ocasiões. Em 2017, ele defendeu a regulamentação do setor antes que fosse tarde demais e pediu à ONU a proibição de armas robóticas de guerra, temendo que elas saíssem do controle.
Outros nomes notáveis que assinaram a carta incluem Steve Wozniak, co-fundador da Apple; Jaan Tallinn, co-fundador do Skype; Evan Sharp, co-fundador do Pinterest; Yuval Noah Harari, autor dos livros Homo Deus e Sapiens; e Andrew Yang, político e pré-candidato à presidência dos EUA em 2020 e à prefeitura de Nova York em 2021.
Protocolos para o desenvolvimento seguro da IA
Em um momento em que empresas de tecnologia como Google e Microsoft competem para lançar novos produtos, muitas vezes deixando de lado preocupações com segurança e ética, a carta representa uma oposição crescente a essa abordagem. Essa oposição tem potencial para alcançar o domínio político e ser considerada pelos legisladores.
Os signatários acreditam que o momento é propício para que laboratórios de IA e especialistas independentes utilizem a pausa sugerida para desenvolver e implementar conjuntamente protocolos de segurança compartilhados. Esses protocolos devem garantir que os sistemas desenvolvidos sejam seguros além de qualquer dúvida razoável.
Apesar de ser improvável que a carta cause impacto imediato no clima atual de pesquisa em IA, é um sinal importante da preocupação compartilhada por líderes do setor em relação aos possíveis riscos e desafios que a IA avançada pode representar.
Sobre a carta aberta
A carta aberta, que você pode ler completa (em inglês) neste link, já foi assinada por mais de 1.300 pessoas. Mas há um porém aqui. Não é necessário comprovar a identidade para assinar. Assim, nomes como Sam Altman, CEO da OpenAI, estão entre os signatários.
De qualquer forma, estes são os pontos principais abordados pela carta:
- Pausar treinamento de IA mais poderoso que GPT-4 por 6 meses.
- Riscos profundos da inteligência artificial para a sociedade e humanidade.
- Corrida descontrolada por sistemas mais poderosos e imprevisíveis.
- Necessidade de confiança justificada nos efeitos positivos e na gestão de riscos.
- Pausa pública e verificável no treinamento de sistemas de IA.
- Desenvolver protocolos de segurança compartilhados e supervisionados.
- Redirecionar pesquisa e desenvolvimento para melhorar características dos sistemas atuais.
- Acelerar o desenvolvimento de sistemas robustos de governança de IA.
- Aproveitar um “verão de IA” para colher benefícios e garantir a segurança.
Agora queremos saber sua opinião! Deixe seu comentário abaixo sobre a suspensão temporária no desenvolvimento de IA e compartilhe suas ideias sobre como garantir um futuro seguro e responsável para a inteligência artificial.
Fontes: Future of Life Institute, The Verge, Reuters
Deixe seu comentário