Google sceglie il Pentagono mentre Anthropic dice no: la spaccatura sulla militarizzazione dell'AI
Google amplia l'accesso del Dipartimento della Difesa alla sua AI dopo il rifiuto di Anthropic. Lo scontro rivela una frattura profonda tra i giganti tech su come (e se) fornire intelligenza artificiale all'esercito americano.
Google sceglie il Pentagono mentre Anthropic dice no: la spaccatura sulla militarizzazione dell'AI
Nel giro di pochi giorni, il Pentagono ha ottenuto quello che voleva da Google dopo che Anthropic gliel'ha negato. Secondo TechCrunch, il colosso di Mountain View ha firmato un nuovo contratto che concede al Dipartimento della Difesa l'accesso ai modelli Gemini per reti classificate, con la formula "tutti gli usi leciti". È uno snodo cruciale nella relazione tra big tech e industria militare americana, e mostra come le aziende stiano prendendo strade radicalmente diverse di fronte alla stessa pressione governativa.
Chi
Anthropicè una startup di AI fondata nel 2021 da ex ricercatori di OpenAI, tra cui Dario Amodei. L'azienda ha costruito la sua reputazione su un approccio conservatore alla sicurezza dell'AI: i suoi modelli Claude sono noti per rifiutare compiti potenzialmente dannosi e per essere più "cauti" rispetto ai competitor. Google è il gigante della ricerca e del cloud computing; OpenAI e xAI sono i suoi principali rivali nel settore dei grandi modelli linguistici.
Cosa è successo
Anthropicha pubblicamente rifiutato una richiesta del Pentagono di fornire accesso illimitato alla sua AI, soprattutto per due categorie di uso: sorveglianza di massa domestica e armi autonome. L'azienda voleva inserire guardrail (limitazioni) nel contratto per escludere questi scenari. Il Dipartimento della Difesa ha risposto in modo aggressivo: ha designato Anthropic come "supply-chain risk", un'etichetta normalmente riservata ai nemici stranieri. Anthropic ha fatto causa e un giudice ha concesso un'ingiunzione provvisoria contro questa designazione mentre il caso procede.
Google, invece, ha accettato il contratto. Secondo The Wall Street Journal, l'accordo include clausole che dichiarano l'intenzione di Google di non usare l'AI per sorveglianza domestica o armi autonome, ma rimane poco chiaro se queste disposizioni siano legalmente vincolanti o applicabili. OpenAI e xAI avevano già firmato accordi simili con il Pentagono.
La mossa di Google arriva nonostante 950 suoi dipendenti abbiano sottoscritto una lettera aperta chiedendo all'azienda di seguire l'esempio di Anthropic e di non vendere AI al Dipartimento della Difesa senza guardrail equivalenti. Google non ha risposto alle richieste di commento.
Perché è importante
Questa vicenda rivela una frattura strategica tra i giganti tech su un tema che toccherà sempre più aziende: fino a che punto collaborare con i governi militari, e con quali condizioni?
Per Anthropic, il rifiuto è una scelta di principio che le costa caro—la designazione come rischio per la catena di approvvigionamento è un colpo reputazionale e commerciale. Ma l'azienda scommette che mantenere una posizione etica coerente sia un vantaggio di lungo termine, soprattutto tra i clienti enterprise e gli investitori sensibili a questi temi.
Per Google, la decisione opposta riflette una logica diversa: il Pentagono è un cliente enorme e strategico, e rifiutare significherebbe cedere terreno a OpenAI e xAI. Google ha cercato un compromesso (le clausole di non-uso), ma senza vincoli legali forti. Il rischio è che queste promesse rimangono lettera morta una volta che i sistemi sono in mano militare.
Per il Pentagono, il risultato è una vittoria tattica: ha ottenuto accesso a tecnologie AI avanzate da più fornitori, riducendo la dipendenza da un singolo vendor. Questo allinea il governo con la strategia di resilienza e competizione che caratterizza la corsa all'AI globale.
Per l'industria tech nel suo insieme, il precedente è inquietante. Se il governo può designare come "rischio" un'azienda che rifiuta di collaborare, altri fornitori potrebbero sentirsi costretti ad accettare termini che altrimenti rifiuterebbero. È una forma di pressione indiretta, ma efficace.
Cosa aspettarsi
La causa di Anthropic contro il Pentagono continuerà nei tribunali. Se Anthropic vince, potrebbe stabilire un precedente legale che protegge le aziende dal ricatto della designazione "supply-chain risk". Se perde, il messaggio ai fornitori di AI sarà chiaro: collaborare con il governo militare è non negoziabile.
Guarda anche le reazioni interne alle aziende tech: Google ha già visto 950 dipendenti protestare pubblicamente. Se questo numero cresce o se altri dipendenti di OpenAI e xAI si muovono, potrebbe crearsi una pressione interna che complica ulteriormente le negoziazioni.
Sul fronte tecnico, monitora come Google implementerà effettivamente i guardrail dichiarati. Saranno trasparenti? Soggetti a audit indipendenti? O resteranno promesse non verificabili? Questo determinerà se il compromesso di Google è reale o solo una facciata.
Infine, attendi la reazione di altri governi alleati (UE, Regno Unito, Canada) e di paesi rivali (Cina, Russia). Se il modello americano diventa lo standard globale, la corsa all'AI militarizzata accelererà significativamente.
📰 Fonti
- TechCrunch — Google expands Pentagon’s access to its AI after Anthropic’s refusal
- techcrunch.com — Google expands Pentagon’s access to its AI after Anthropic’s refusal
- databreachtoday.com — Google Bets Up to $40B on Anthropic as AI Compute Race Grows
- theinformation.com — Google and Pentagon Discuss Classified AI Deal as Company Rebuilds Military Ties
- ibtimes.com — Google In Talks With Pentagon Over Classified AI Deployment Deal, Reports Say
- uk.finance.yahoo.com — Alphabet expands Pentagon ties with new AI agreement