Il Dipartimento della Difesa degli Stati Uniti sta intensificando gli sforzi per ottenere un accesso più ampio alle tecnologie avanzate di intelligenza artificiale (AI), con Anthropic che è l’ultima azienda sotto pressione. Martedì, i funzionari del Pentagono hanno convocato a Washington il CEO di Anthropic, Dario Amodei, per negoziati diretti sui termini del loro attuale contratto da 200 milioni di dollari. Questa mossa fa seguito a una recente nota del segretario alla Difesa Pete Hegseth che chiede alle aziende di intelligenza artificiale di allentare le restrizioni sulla loro tecnologia per applicazioni militari.
Contesto della controversia
L’anno scorso, il Pentagono ha avviato un programma pilota con Anthropic, ottenendo l’accesso al loro modello di intelligenza artificiale. Tuttavia, il Dipartimento della Difesa ora cerca diritti di utilizzo più estesi, allineandosi agli accordi già stipulati con xAI di Elon Musk e in via di completamento con Google (modello Gemini). La strategia del Pentagono è chiara: sfruttare questi accordi per spingere Anthropic ad una più ampia cooperazione.
Esigenze chiave e preoccupazioni dell’Anthropic
Il problema principale è il controllo su come vengono implementati i modelli di intelligenza artificiale. Il Pentagono insiste sulla libertà di utilizzare la tecnologia “come ritiene opportuno”, a condizione che le attività rimangano legali. Anche se il dipartimento consentirà alle aziende di mantenere alcune caratteristiche di sicurezza (denominate “stack di sicurezza”), vuole evitare limitazioni che ostacolino le applicazioni militari.
Anthropic, in quanto prima azienda di intelligenza artificiale a cui è stato concesso l’accesso alle reti militari classificate, è disposta a scendere a compromessi ma ha condizioni ferme. L’azienda richiede garanzie che la sua intelligenza artificiale non venga utilizzata per la sorveglianza di massa dei cittadini statunitensi o impiegata in sistemi d’arma completamente autonomi senza la supervisione umana. Questa posizione riflette preoccupazioni etiche più ampie all’interno della comunità dell’intelligenza artificiale riguardo al potenziale uso improprio.
Implicazioni e cambiamento strategico
Questa situazione evidenzia un importante cambiamento nell’approccio del Pentagono agli appalti di intelligenza artificiale. Il dipartimento sta dando priorità all’accesso rispetto alle restrizioni, segnalando la volontà di accettare determinati rischi in cambio di flessibilità operativa. La pressione su Anthropic suggerisce uno sforzo più ampio per standardizzare i contratti di intelligenza artificiale, garantendo che l’esercito mantenga il massimo controllo su queste potenti tecnologie.
In definitiva, il risultato costituirà un precedente per i futuri impegni con le società di intelligenza artificiale, determinando se le salvaguardie etiche saranno secondarie rispetto agli interessi militari strategici.
