Il breve consenso sulla sicurezza dell’intelligenza artificiale, un tempo obiettivo condiviso da aziende, legislatori e pubblico, si sta rapidamente disfacendo. Ciò che era iniziato come una cauta spinta verso la regolamentazione e la supervisione si è trasformato in una competizione spietata in cui le forze armate statunitensi e le principali aziende di intelligenza artificiale danno priorità alla velocità e al dominio rispetto alle considerazioni etiche. L’atteggiamento aggressivo del Pentagono e le risposte aggressive di Anthropic e OpenAI segnalano un cambiamento pericoloso: la sicurezza è ora secondaria rispetto al vantaggio strategico.
Il Pentagono contro l’Antropismo: un punto di svolta
Il conflitto tra il Dipartimento della Difesa (ora rinominato Dipartimento della Guerra) e Anthropic illustra perfettamente il problema. Anthropic aveva precedentemente insistito sul fatto che i suoi modelli Claude AI non sarebbero stati utilizzati per armi autonome o sorveglianza di massa, una condizione che il Pentagono ora cerca di cancellare. Il rifiuto da parte dell’esercito di accettare queste limitazioni ha portato Anthropic a perdere il contratto e ad essere etichettata come un “rischio per la catena di fornitura”, escludendola di fatto da futuri lavori governativi.
Non si tratta solo di controversie contrattuali. Riguarda la determinazione dell’esercito nel rimuovere qualsiasi restrizione sull’uso dell’intelligenza artificiale, anche se ciò significa oltrepassare i limiti della legalità. La domanda non è se i militari potranno costruire droni autonomi letali, ma se lo faranno, e quanto velocemente. La mancanza di accordi internazionali significa che altre nazioni seguiranno l’esempio, creando un’inevitabile corsa agli armamenti legati all’intelligenza artificiale.
L’erosione dei protocolli di sicurezza
Le recenti modifiche di Anthropic alla sua “Politica di Scaling Responsabile” sottolineano il cambiamento. La politica, progettata per prevenire rischi catastrofici legati all’IA legando il rilascio dei modelli alle procedure di sicurezza, è stata silenziosamente abbandonata. L’azienda ha ammesso che la politica non è riuscita a creare l’ampio consenso necessario per far rispettare gli standard di sicurezza. L’ambiente ora dà priorità alla competitività dell’IA e alla crescita economica, lasciandosi alle spalle le discussioni sulla sicurezza.
Il risultato è una competizione a mani nude in cui OpenAI si è mossa rapidamente per riempire il vuoto lasciato dalla risoluzione del contratto di Anthropic. Il CEO di OpenAI Sam Altman ha affermato che la sua mossa era intesa a sostenere Anthropic, ma il CEO di Anthropic Dario Amodei lo ha accusato di minare la posizione dell’azienda per ottenere il favore dell’amministrazione. Queste lotte interne dimostrano che anche all’interno dei principali laboratori di intelligenza artificiale, la sicurezza è sempre più vista come una responsabilità piuttosto che come una priorità.
L’illusione del progresso
Nonostante la triste realtà, le società di intelligenza artificiale insistono sul fatto che la sicurezza rimane importante. Il responsabile scientifico di Anthropic, Jared Kaplan, sostiene che i laboratori di ricerca danno ancora priorità allo sviluppo etico. OpenAI indica la crescita delle organizzazioni per la sicurezza dell’IA e gli sforzi normativi dell’Unione Europea come segnali di progresso.
Tuttavia, queste affermazioni suonano vuote se confrontate con le azioni del Pentagono e l’incessante ricerca di dominio da parte dell’industria. OpenAI ammette che, sebbene disponga di misure di salvaguardia, non vi è alcuna garanzia che resisteranno alle pressioni dei militari, che potrebbero invocare il Defense Production Act per prendere il controllo, se necessario.
Una triste conclusione
La situazione è chiara: l’intelligenza artificiale è troppo potente, troppo allettante per essere frenata. Come ha affermato il CEO di Anthropic, Dario Amodei, “Questa è la trappola”. La corsa allo sviluppo e all’impiego dell’intelligenza artificiale metterà inevitabilmente in secondo piano le preoccupazioni relative alla sicurezza, lasciando l’umanità vulnerabile al suo potenziale incontrollato. L’era del cauto ottimismo è finita. Il futuro dell’intelligenza artificiale è definito dalla concorrenza e la sicurezza sarà la prima vittima.






















