top of page

OpenAI, Meta e Anthropic: Uma Nova Aliança com o Setor Militar dos EUA

Uma nova parceria levanta questões éticas e redefine a guerra moderna.

Uma nova parceria levanta questões éticas e redefine a guerra moderna.

OpenAI e Anduril se Unem para Integrar IA nas Operações Militares dos EUA

F. Schubert

F. Schubert

A humanist first, passionate about human interactions, AI, Space, Human Life and a DJ. 20 year experienced in Team Management in BBAS3 and also founder of Estudio1514.com. São Paulo, Brazil based.

  • Instagram
  • Facebook
  • LinkedIn

A OpenAI, Anduril Industries e outras empresas de IA formaram uma nova parceria, visando integrar inteligência artificial nas operações militares dos EUA, alterando significativamente o cenário bélico e levantando preocupações éticas sobre o uso da tecnologia em conflitos.

Summary

Três das principais empresas de IA da América assinaram agora um acordo para compartilhar sua tecnologia com as forças de defesa dos EUA e contratantes militares, mesmo depois de inicialmente insistirem que não o fariam - e a era da guerra autônoma agora parece estar próxima.

Em 4 de dezembro de 2024, em uma reversão de sua política de longa data contra aplicações militares, a OpenAI anunciou uma parceria com a Anduril Industries, uma empresa de tecnologia de defesa que se especializa em munições autônomas e drones de reconhecimento, motores de foguete e diversos veículos aéreos não tripulados (UAV) e veículos subaquáticos não tripulados (UUV). A Anduril é conhecida pelo seu software de gerenciamento de enxame, o Lattice, que pode controlar simultaneamente uma variedade de máquinas, afirmando que "Lattice acelera cadeias de morte complexas orquestrando tarefas de máquina para máquina em escalas e velocidades além da capacidade humana".

Essas inovações representam um salto significativo na tecnologia de defesa, oferecendo uma capacidade de resposta sem precedentes, mas levantando também questões éticas profundas sobre a aplicação da inteligência artificial em cenários de combate.

A Mudança de Perspectiva da OpenAI

Em 16 de maio de 2023, durante uma audiência de supervisão do Senado, Sam Altman, executivo da OpenAI, expressou preocupações sobre os perigos da tecnologia de IA, afirmando que "se essa tecnologia der errado, pode dar muito errado". Desde então, a OpenAI reavaliou sua abordagem e, em janeiro de 2024, removeu as proibições explícitas sobre o uso de seus modelos em aplicações militares. O que mudou para levar a empresa a essa reviravolta?

Com a receita projetada para atingir 3,7 bilhões de dólares em 2024, e ao mesmo tempo enfrentando custos operacionais de 5 bilhões de dólares, a busca por contratos governamentais representa uma oportunidade clara para a OpenAI. Essa mudança ocorreu em um período onde a pressão para inovar e se adaptar a novas realidades geopolíticas se intensificou, especialmente destacada pela guerra na Ucrânia, onde drones desempenharam papéis cruciais.

A invasão russa da Ucrânia em 2022 revelou uma nova dinâmica no campo de batalha. A Ucrânia, apesar de estar em desvantagem numérica, tornou-se um exemplo de resistência através do uso de drones. Pequenos UAVs de consumo foram adaptados para atacar veículos e tropas russas, demonstrando como tecnologias acessíveis podem alterar o cenário bélico. Estima-se que um em cada três ataques contra tanques russos foi realizado por drones. Este uso inovador da tecnologia provocou reflexões nas altas esferas sobre a necessidade de integração de sistemas avançados de IA em defesas militares.

A Parceria OpenAI e Anduril: Um Novo Modelo de Defesa

A colaboração entre OpenAI e Anduril busca utilizar a IA para enfrentar ameaças, como drones não tripulados que estão redefinindo a forma como os conflitos são conduzidos. Segundo Brian Schimpf, CEO da Anduril, "nossa parceria com a OpenAI nos permitirá utilizar sua expertise para enfrentar lacunas críticas na capacidade de Defesa Aérea em todo o mundo". Essa sinergia sugere uma transformação no que antes eram operações militares tradicionais, levando a um futuro onde a decisão em combate poderá ser influenciada em tempo real por algoritmos de IA.

Embora as empresas insistam que suas tecnologias serão usadas apenas para fins defensivos, o receio por um uso indevido ou um erro operacional não pode ser ignorado. As discussões sobre como a IA será classificada e usada em conflitos armados estão emergindo, trazendo à tona questões cruciais sobre o valor da vida humana e a responsabilidade nas ações militares. O que acontece quando uma máquina decide o destino de vidas?

A OpenAI afirma que seu objetivo é proteger o pessoal militar e cumprir normas éticas, mas a base tecnológica – sendo então utilizada para a guerra – levanta preocupações sobre limites éticos que podem ser transgredidos. A analogia com o Skynet, de Terminator, que se tornou uma entidade autônoma e gerou destruição, é frequentemente citada por aqueles que temem um futuro onde as máquinas possam decidir de forma autônoma sobre disparos mortais.

Analogias e Aterrissagens

A narrativa de que a tecnologia pode sair do controle é uma preocupação persistente. Ao observar o avanço implacável da IA e de suas capacidades, não podemos ignorar os Alertas de Altman. A relação entre tecnologia e ética deverá ser uma prioridade à medida que essas inovações forem implementadas. Não se trata apenas de inteligência artificial ou algoritmos, mas sobre a responsabilidade de cada um na aplicação e na governança dessa tecnologia.


Fonte

New Atlas

Tags

Inteligência Artificial, Guerra Autônoma, Ética, OpenAI, Tecnologia Militar

You may also like

A Inteligência Artificial Replica-se: Um Marco Aterrorizante?

Lewandowski Intervém: Proíbe Algemas e Garante Voo da FAB para Deportados dos EUA

Trump Demite 17 Fiscais Independentes em Agências Governamentais dos EUA

Formas de Ganhar Dinheiro na Internet: 15 Ideias Promissoras para 2025

bottom of page