Departament Obrony Stanów Zjednoczonych wzmaga wysiłki na rzecz uzyskania większego dostępu do zaawansowanych technologii sztucznej inteligencji (AI), a Anthropic stała się kolejną firmą, która znalazła się pod presją. We wtorek urzędnicy Pentagonu wezwali dyrektora generalnego Anthropic Dario Amodei do Waszyngtonu w celu bezpośrednich rozmów na temat warunków istniejącego kontraktu o wartości 200 milionów dolarów. Posunięcie to jest następstwem niedawnej notatki Sekretarza Obrony Petera Hegsetha, w której zwrócił się do firm zajmujących się sztuczną inteligencją o złagodzenie ograniczeń nałożonych na ich technologię do celów wojskowych.
Tło konfliktu
W zeszłym roku Pentagon zawarł umowę pilotażową z Anthropic, uzyskując dostęp do ich modelu sztucznej inteligencji. Jednak Departament Obrony zabiega obecnie o szersze prawa do użytkowania, zgodnie z umowami już obowiązującymi z xAI Elona Muska i prawie sfinalizowanymi z Google (model Gemini). Strategia Pentagonu jest jasna: wykorzystać te umowy, aby wywrzeć presję na Anthropic, aby zacieśniła współpracę.
Kluczowe wymagania i obawy związane z antropią
Głównym wyzwaniem jest kontrola nad sposobem wdrażania modeli AI. Pentagon nalega na swobodę korzystania z technologii „według własnego uznania”, o ile działalność ta pozostaje legalna. Choć agencja pozwoli firmom zachować niektóre funkcje bezpieczeństwa (tzw. „pakiet bezpieczeństwa”), nie chce ograniczeń, które utrudniałyby zastosowania wojskowe.
Anthropic, jako pierwsza firma zajmująca się sztuczną inteligencją, która uzyskała dostęp do tajnych sieci wojskowych, jest skłonna pójść na kompromis, ale stawia rygorystyczne warunki. Firma stara się zapewnić, że jej sztuczna inteligencja nie będzie wykorzystywana do masowej inwigilacji obywateli USA ani wdrażana w w pełni autonomicznych systemach uzbrojenia bez interwencji człowieka. Stanowisko to odzwierciedla szersze obawy etyczne społeczności AI dotyczące potencjału nadużyć.
Konsekwencje i zmiana strategiczna
Sytuacja ta podkreśla zasadniczą zmianę w podejściu Pentagonu do zamówień na sztuczną inteligencję. Agencja przedkłada dostęp nad ograniczenia, sygnalizując chęć zaakceptowania pewnego ryzyka w zamian za elastyczność operacyjną. Nacisk na Anthropic wskazuje na szersze wysiłki na rzecz standaryzacji kontraktów dotyczących sztucznej inteligencji, zapewniając wojsku maksymalną kontrolę nad tymi potężnymi technologiami.
Ostatecznie wynik ustanowi precedens dla przyszłych interakcji z firmami zajmującymi się sztuczną inteligencją, określając, czy zabezpieczenia etyczne będą miały drugorzędne znaczenie w stosunku do strategicznych interesów wojskowych.
