A OpenAI, organização responsável pelo desenvolvimento do ChatGPT, está pedindo a regulamentação internacional de inteligências artificiais “superinteligentes”.
Os fundadores da empresa argumentam que é necessário um órgão regulador no nível da Agência Internacional de Energia Atômica (AIEA) para proteger a humanidade do risco de criar acidentalmente uma tecnologia com o poder de “destruí-la”.
Leia também
OpenAI lança aplicativo do ChatGPT para iPhone com suporte a reconhecimento de voz
Senador questiona o próprio ChatGPT se I.A.s deveriam ser regulamentadas
Órgão regulador deve diminuir o risco de um colapso social
Em uma nota publicada no site da empresa, os cofundadores Greg Brockman e Ilya Sutskever, juntamente com o CEO Sam Altman, pedem a criação de um órgão regulador internacional.
A ideia com este apelo é que os governantes comecem a pensar em como “inspecionar sistemas, exigir auditorias, testar a conformidade com os padrões de segurança, [e] impor restrições aos graus de implantação e níveis de segurança”. O objetivo é reduzir o “risco existencial” que tais sistemas poderiam representar.
Os líderes da OpenAI acreditam que, dentro da próxima década, os sistemas de IA poderão superar o nível de habilidade dos especialistas na maioria dos domínios e realizar tanto trabalho produtivo quanto uma grande corporação é capaz hoje.
Eles argumentam que a superinteligência será mais poderosa do que outras tecnologias com as quais a humanidade teve que lidar no passado. Embora possamos ter um futuro dramaticamente mais próspero, precisamos gerenciar o risco para chegar lá. Dada a possibilidade de risco existencial, não podemos simplesmente ser reativos.
OpenAI pede que empresas cooperam no desenvolvimento de IAs
No curto prazo, o trio de diretores da OpenAI pede “algum grau de coordenação” entre as empresas que trabalham na vanguarda da pesquisa em IA. Assim é possível garantir que o desenvolvimento de modelos cada vez mais poderosos se integre suavemente à sociedade, priorizando a segurança.
Essa coordenação poderia vir através de um projeto liderado pelo governo, por exemplo, ou através de um acordo coletivo para limitar o crescimento na capacidade da IA.
Curiosamente, um nome que já vem alertando sobre isso há alguns meses é o do polêmico e controverso Elon Musk. Inclusive, ele assinou uma carta aberta pedindo a paralisação do desenvolvimento de IAs por pelo menos 6 meses. Curiosamente, pouco tempo depois ele anunciou que está desenvolvendo seu próprio modelo de inteligência artificial, o TruthGPT.
Humanidade corre o risco de viver um “colapso social”
Os riscos para a humanidade, citados pela OpenAI como motivo para a criação de um órgão regulador, não tem nada a ver com uma Skynet ou um cenário de “Exterminador do Futuro”.
A “destruição da humanidade” pode ser um cenário de colapso social. Com as IAs assumindo o trabalho de milhares de pessoas, a população desempregada pode entrar em situação de pobreza, levando a riscos sociais, existenciais e de segurança para nações não preparadas para lidar com o avanço da tecnologia.
Os líderes da OpenAI afirmam que esses riscos significam que “as pessoas ao redor do mundo devem decidir democraticamente sobre os limites e padrões para os sistemas de IA”, mas admitem que “ainda não sabemos como projetar tal mecanismo”. No entanto, eles acreditam que o desenvolvimento contínuo de sistemas poderosos vale o risco.
Eles também alertam que poderia ser perigoso pausar o desenvolvimento. No comunicado eles disseram:
“Porque os benefícios são tão tremendos, o custo para construí-lo diminui a cada ano, o número de atores construindo-o está aumentando rapidamente, e é inerentemente parte do caminho tecnológico que estamos seguindo. Parar isso exigiria algo como um regime global de vigilância, e mesmo isso não é garantido que funcionaria. Então, temos que acertar.”
E você? O que acha de tudo isso?
Fontes: OpenAI e The Guardian
Deixe seu comentário