Anthropic Diz NÃO ao Pentágono: IA para 'armas letais' e 'vigilância em massa' barrada

Destaques
- •Anthropic recusa termos do Pentágono para uso de IA em armas autônomas e vigilância.
- •Decisão pode custar bilhões em contratos governamentais para a empresa.
- •Ações da Anthropic levantam debate sobre ética e limites na tecnologia militar.
O Pentágono bateu o pé e deu um ultimato para a Anthropic: ou a empresa de IA libera acesso irrestrito às suas tecnologias para o Exército Americano, incluindo para vigilância em massa e armas letais autônomas, ou pode ser rotulada como um "risco na cadeia de suprimentos".
A pressão é grande, com ameaças de perder contratos que somam centenas de bilhões de dólares. Enquanto isso, o debate esquenta na indústria de tecnologia sobre o futuro que essas IAs estão ajudando a construir.
A Anthropic, através de seu CEO Dario Amodei, já deixou claro que não vai ceder. A empresa se recusa a flexibilizar as salvaguardas de seus modelos de IA, mesmo após reuniões com o Secretário de Defesa Pete Hegseth.
A consequência prática é que a Anthropic pode perder contratos bilionários, mas mantém sua posição ética.
Enquanto rivais como OpenAI e xAI já teriam concordado com os novos termos, a Anthropic se destaca por sua resistência. A briga levanta a questão: até onde a ética deve ir quando o assunto é tecnologia militar? 🛡️

