Do ChatGPT aos drones de combate: como a OpenAI está expandindo sua IA para o setor militar

A aplicação da inteligência artificial (IA) no setor militar ganhou novos contornos com a parceria entre a OpenAI, criadora do ChatGPT, e a Anduril, empresa americana especializada em tecnologia de defesa e drones. O objetivo da aliança é integrar modelos avançados de IA em sistemas de defesa, incluindo drones capazes de responder a ameaças aéreas em tempo real, marcando uma mudança significativa na utilização da IA no campo de batalha.

Da tecnologia civil ao uso militar

drone

A Anduril, conhecida pelo desenvolvimento de tecnologias tanto defensivas quanto ofensivas, como o drone kamikaze Bolt-M, busca com essa parceria aprimorar a infraestrutura de defesa dos EUA e de seus aliados. Apesar de os drones inicialmente serem apresentados como ferramentas de proteção, a possibilidade de uso ofensivo levanta preocupações éticas e políticas sobre os limites do papel da IA em cenários de conflito.

A empresa defende que a integração dos modelos avançados da OpenAI ajudará a melhorar sistemas antiaéreos não tripulados (CUAS) e a otimizar a análise de dados críticos em tempo real, aliviando a carga de trabalho de operadores humanos e ampliando a capacidade de reação em situações de combate.

IA na guerra: um futuro inevitável

O impacto do uso de drones já é evidente em conflitos como o da Rússia e Ucrânia, onde a tecnologia demonstrou seu potencial letal. A introdução da inteligência artificial em operações militares, ainda que inevitável, intensifica preocupações globais sobre o futuro das guerras e sobre uma possível corrida armamentista alimentada por IA, especialmente no contexto da rivalidade entre os Estados Unidos e a China.

O CEO da OpenAI, Sam Altman, declarou que a missão da empresa é “criar inteligência artificial para beneficiar o maior número possível de pessoas” e apoiar os esforços liderados pelos EUA para garantir que a tecnologia respeite valores democráticos. Contudo, críticos apontam que a transformação da OpenAI de uma organização sem fins lucrativos para uma empresa com fins lucrativos pode ter influenciado essa guinada em direção ao setor militar.

Uma dos críticos dessa mudança da empresa é Elon Musk. O magntava vem movendo processos contra a OpenAI e criticando sua proximidade com gigantes como a Microsoft.

Outros casos da IA aplicada na segurança

Recentemente, viralizou na internet vídeos que mostravam um cão-robô que está auxiliando na segurança do presidente eleito Donal Trump. E essa máquina também é potencializada por IA. O Spot, da Boston Dynamics, recorre a um conjunto de sensores e inteligência artificial para dentificar ameaças, desde explosivos até movimentações suspeitas.

Captura de tela 2024 12 12 094246

Outro caso curioso é o RT-G, um robô esférico que caça criminosos na China. Capaz de se deslocar a uma velocidade de até 35 km/h, seja em terra ou na água, e com uma estrutura robusta capaz de suportar impactos de até quatro toneladas, o robô é alimentado por IA e opera de maneira completamente autônoma.

Debate ético

Apesar das promessas de responsabilidade e segurança, a automação de sistemas de combate levanta riscos significativos. Decisões críticas em contextos de guerra, tradicionalmente atribuídas a operadores humanos, podem ser delegadas a sistemas de IA, aumentando o potencial para erros catastróficos.

Especialistas alertam que, enquanto governos e empresas avançam nessa direção, é essencial implementar mecanismos rigorosos de regulamentação para mitigar os riscos associados ao uso militar da IA.

Postado por
Editor-chefe no Hardware.com.br. Aficionado por tecnologias que realmente funcionam. Segue lá no Insta: @plazawilliam Elogios, críticas e sugestões de pauta: william@hardware.com.br
Siga em:
Compartilhe
Deixe seu comentário
Localize algo no site!