O resto das grandes empresas de tecnologia se acumula para aceitar o acordo do Pentágono que a Anthropic não aceitaria

O resto das grandes empresas de tecnologia se acumula para aceitar o acordo do Pentágono que a Anthropic não aceitaria

Embora a Anthropic tenha tomado uma posição no início deste ano para limitar a forma como a sua tecnologia de IA é usada em ambientes militares confidenciais, parece que o resto do Vale do Silício não está muito preocupado.

Mais quatro empresas tecnológicas fecharam acordos com o Departamento de Defesa dos EUA (DoD) para implantar as suas capacidades avançadas de IA em redes militares classificadas para “uso operacional legal”.

Microsoft, Nvidia, Amazon Web Services e a startup Reflection AI foram apontadas como as últimas empresas a assinar acordos com o Pentágono, de acordo com um comunicado de imprensa do DoD. Eles se juntam à SpaceX, OpenAI e Google, elevando para sete o número total de empresas de IA que participam em trabalhos militares classificados.

“Estes acordos aceleram a transformação no sentido do estabelecimento das forças armadas dos Estados Unidos como uma força de combate que prioriza a IA e fortalecerão a capacidade dos nossos combatentes de manter a superioridade de decisão em todos os domínios da guerra”, diz o comunicado de imprensa.

O comunicado de imprensa acrescentou que a integração de sistemas avançados de IA em redes classificadas “agilizará a síntese de dados, elevará a compreensão situacional e aumentará a tomada de decisões dos combatentes em ambientes operacionais complexos”.

“Por mais de uma década, a AWS está comprometida em apoiar as forças armadas de nosso país e garantir que nossos combatentes e parceiros de defesa tenham acesso à melhor tecnologia pelo melhor valor”, disse o porta-voz da AWS, Tim Barrett, ao Gizmodo em um comunicado enviado por e-mail. “Esperamos continuar a apoiar os esforços de modernização do Departamento de Guerra, construindo soluções de IA que os ajudem a cumprir suas missões críticas.”

Microsoft, Nvidia e Reflection AI não responderam imediatamente aos pedidos de comentários do Gizmodo.

Os acordos surgem à medida que crescem as preocupações em torno do uso de IA para vigilância e aplicações militares.

No início deste ano, a Anthropic, que na altura era a única grande empresa de IA a trabalhar com o Pentágono em sistemas classificados, teria atingido um impasse nas negociações com o DoD depois de os responsáveis ​​terem pressionado por uma linguagem que permitisse que a tecnologia da Antrópico fosse utilizada para “qualquer finalidade legal”. Os maiores pontos de discórdia envolveram utilizações potenciais ligadas à vigilância doméstica e a sistemas de armas autónomos. Em ambas as situações, há argumentos de que a IA já poderia ser legalmente utilizada para esses fins. Há também o fato de que as leis e as interpretações dos tribunais sobre essas leis mudam o tempo todo, e os EUA têm muito pouca legislação que foi escrita com a IA em mente.

Depois que essas negociações fracassaram, a administração Trump designou a empresa como um risco na cadeia de abastecimento. Posteriormente, a Anthropic entrou com duas ações judiciais contra o Departamento de Defesa em resposta. Desde então, no entanto, o presidente Donald Trump disse que a sua administração teve “algumas conversações muito boas” com a Anthropic e sugeriu que um acordo futuro que restaurasse o acesso da empresa ao trabalho do Pentágono ainda poderia ser “possível”.

O modelo de IA mais avançado da Antrópico, Mythos, complicou ainda mais as coisas. O modelo, que só foi lançado para um número seleto de organizações, já está sendo testado pela Agência de Segurança Nacional (NSA) para ajudar a identificar vulnerabilidades de segurança cibernética em software amplamente utilizado, incluindo produtos da Microsoft.

Ainda assim, ainda ontem, o secretário de Defesa Pete Hegseth disse que a Anthropic estava sendo dirigida por um “lunático ideológico que não deveria ser o único a tomar decisões sobre o que fazemos” durante uma audiência do Comitê de Serviços Armados do Senado. Quando questionado se “sempre haverá um ser humano no circuito”, Hegseth evitou dar uma resposta direta e optou por “seguimos a lei e os seres humanos tomam decisões”. Ele acrescentou que a IA não está atualmente “tomando decisões letais”.

A controvérsia deixou algumas empresas de tecnologia tentando ultrapassar o muro.

O Google chegou a um acordo no início desta semana, apesar de mais de 600 funcionários, incluindo diretores e vice-presidentes, terem assinado uma carta que instava o CEO Sundar Pichai a recusar permitir que os modelos de IA do Google fossem usados ​​em ambientes militares confidenciais.

Enquanto isso, na postagem do blog anunciando seu acordo, a OpenAI disse que mantinha o controle sobre sua “pilha de segurança” e proibia o uso de sua IA para vigilância doméstica em massa ou para dirigir sistemas de armas autônomos letais.

The Information relata que o acordo do Google inclui linguagem semelhante, mas também afirma que a empresa “não confere qualquer direito de controlar ou vetar a tomada de decisões operacionais legais do governo”.

Share

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *