Três gigantes da tecnologia, Google, Microsoft e OpenAI uniram forças em prol de um objetivo em comum: o desenvolvimento responsável da inteligência artificial. Elas criaram o Frontier Model Forum. A iniciativa também inclui outras empresas, como é o caso da Anthropic, que desenvolve o Claude, modelo de IA generativa que chamou bastante atenção por suas habilidades bem acima da média.
Porém, especialistas do setor estão bem céticos com respeito a essa iniciativa. Eles acham que, na verdade, a criação do fórum é mais um movimento para evitar ou adiar a regulamentação do setor.
Leia também
O que é Inteligência Artificial Generativa?
Meta anuncia Llama 2, novo modelo de inteligência artificial para bater de frente com o ChatGPT
Aliança de Big Techs tem objetivos nobres
No papel, os objetivos do Frontier Model Forum são bem nobres. As empresas participantes se comprometem a promover o desenvolvimento responsável da IA através de pesquisas de segurança neste campo. A ideia é que eles identifiquem e implementem as melhores práticas de desenvolvimento de modelos LLM (Large Language Model).
As empresas também se comprometem em colaborar com governos, políticas públicas, pesquisadores, bem como a sociedade civil para que a IA não chegue a ser prejudicial. No papel, as empresas deverão compartilhar qualquer conhecimento sobre possíveis riscos de segurança.
Além disso, Google, Microsoft, OpenAI e Anthropic se comprometem a desenvolver soluções de inteligência artificial que ajudarão na resolução de problemas mundiais, tais como mudanças climáticas, prevenção do câncer e crimes cibernéticos.
Fórum foi criado pelas 4 maiores empresas do ramo de inteligência artificial
O Frontier Model Forum é formado simplesmente pelas quatro maiores empresas no ramo de inteligência artificial da atualidade. A OpenAI dispensa apresentações. Ela é a desenvolvedora do badalado ChatGPT.
A Microsoft, além de já ter investido uma grana preta na OpenAI, já utiliza a IA em vários de seus produtos, como o Bing, Edge e o serviço de assinatura Microsoft 365.
Por fim, o Google lançou há alguns meses o seu próprio modelo de inteligência artificial, o Bard. Este chatbot inclusive chegou ao Brasil há pouco tempo. E finalizando o quarteto, temos a Anthropic, que é a menos conhecida, mas está trabalhando no Claude. Atualmente, esta IA só está disponível nos EUA e Reino Unido, mas impressiona por ser mais inteligente e natural que o ChatGPT.
O Frontier Model Forum está aberto para novas associações. Porém, os critérios para aceitação são bem rigorosos. Apenas podem entrar empresas que estiverem trabalhando em “modelos de aprendizagem de máquina em larga escala que excedam as capacidades atualmente presentes nos modelos mais avançados”.
Isso mostra que Google, Microsoft e OpenAI estão, na verdade, mais preocupadas com problemas futuros que uma IA mais avançada possa causar. Mas o fórum, pelo menos no momento, não vai se preocupar com os problemas atuais, a saber: violação de direitos autorais, riscos de privacidade e desemprego.
Projetos de regulamentação estão em curso no mundo todo
O tema inteligência artificial está em alta nos últimos meses. E vem causando preocupação não somente nas pessoas, mas também em governos. Tanto é que o presidente dos Estados Unidos, Joe Biden, disse que vai realizar uma ação executiva para promover a “inovação responsável”. Além disso, várias Big Techs envolvidas com IA se comprometeram a seguir as diretrizes da Casa Branca para IA.
Já na Europa, que é outro grande mercado de atuação das Big Techs, a regulamentação está um pouco mais avançada. A União Européia está prestes a aprovar um conjunto de regras que vão pautar o desenvolvimento de IA. Dentre essas regras estão a supervisão humana, transparência total, não-discriminação e bem estar social.
O Brasil também já está pensando na regulamentação da IA. O Marco da Inteligência Artificial já está em discussão no Congresso Nacional desde 2020. Ou seja, desde antes do boom das IAs, que aconteceu com o lançamento do ChatGPT em novembro de 2022. Agora em 2023, um novo texto foi colocado na mesa e está aguardando aprovação.
Em várias palestras e entrevistas dadas nos últimos meses, Sam Altman, fundador e CEO da OpenAI, disse claramente que não é o momento para regulamentar a IA. Caso contrário, estaríamos colocando em xeque a inovação. Na opinião dele, isso só deve ser feito quando as LLMs atingirem uma inteligência similar à da humanidade.
Fontes: The Financial Times, The Washington Post, TechCrunch
Deixe seu comentário