Krótkoterminowy konsensus w sprawie bezpieczeństwa sztucznej inteligencji, niegdyś wspólny cel firm, prawodawców i społeczeństwa, szybko się rozpada. To, co zaczęło się jako ostrożne dążenie do wprowadzenia regulacji i nadzoru, stało się zaciekłą konkurencją, w której armia amerykańska i wiodące firmy zajmujące się sztuczną inteligencją przedkładały szybkość i dominację nad względy etyczne. Agresywna postawa Pentagonu oraz reakcja Anthropic i OpenAI sygnalizują niebezpieczną zmianę: bezpieczeństwo jest obecnie drugorzędne w stosunku do przewagi strategicznej.
Pentagon kontra Anthropic: Punkt krytyczny
Konflikt pomiędzy Departamentem Obrony (obecnie przemianowanym na Departament Wojny) a Anthropic doskonale ilustruje problem. Firma Anthropic już wcześniej nalegała, aby jej modele sztucznej inteligencji Claude nie były wykorzystywane do broni autonomicznej ani do masowej inwigilacji, a Pentagon stara się teraz rozwiązać ten problem. Odmowa wojska zaakceptowania tych ograniczeń doprowadziła do utraty kontraktu przez Anthropic i uznania firmy za „ryzyko w łańcuchu dostaw”, co skutecznie uniemożliwia jej przyszłą pracę rządową.
Nie chodzi tu tylko o spory kontraktowe. Chodzi o determinację wojska, by znieść wszelkie ograniczenia w stosowaniu sztucznej inteligencji, nawet jeśli oznaczałoby to przesuwanie granic legalności. Pytanie nie brzmi, czy wojsko może zbudować śmiercionośne autonomiczne drony, ale czy zrobi to i jak szybko. Brak porozumień międzynarodowych oznacza, że inne kraje pójdą ich śladem, tworząc nieunikniony wyścig zbrojeń AI.
Erozja protokołów bezpieczeństwa
Niedawne zmiany Anthropic w Polityce odpowiedzialnego skalowania podkreślają tę zmianę. Polityka ta, mająca na celu zapobieganie katastrofalnym zagrożeniom związanym ze sztuczną inteligencją poprzez powiązanie publikacji modeli z procedurami bezpieczeństwa, została po cichu porzucona. Firma przyznała, że w ramach tej polityki nie udało się osiągnąć szerokiego konsensusu potrzebnego do egzekwowania standardów bezpieczeństwa. Obecnie priorytetem jest konkurencyjność sztucznej inteligencji i wzrost gospodarczy, pozostawiając dyskusje na temat bezpieczeństwa w tyle.
Efektem jest rywalizacja bez zasad, w której OpenAI szybko zajęło miejsce pozostałe po rozwiązaniu umowy z Anthropic. Dyrektor generalny OpenAI Sam Altman powiedział, że jego posunięcie miało na celu wsparcie Anthropic, ale dyrektor generalny Anthropic Dario Amodei oskarżył go o osłabianie firmy w celu zdobycia przychylności administracji. Ta wewnętrzna walka pokazuje, że nawet w wiodących laboratoriach zajmujących się sztuczną inteligencją bezpieczeństwo jest coraz częściej postrzegane jako obciążenie, a nie priorytet.
Iluzja postępu
Pomimo ponurej rzeczywistości firmy zajmujące się sztuczną inteligencją twierdzą, że bezpieczeństwo pozostaje ważne. Główny naukowiec firmy Anthropic, Jared Kaplan, twierdzi, że laboratoria badawcze nadal traktują priorytetowo etyczne projektowanie. OpenAI wskazuje na rozwój organizacji zajmujących się bezpieczeństwem sztucznej inteligencji oraz wysiłki regulacyjne Unii Europejskiej jako oznaki postępu.
Jednakże stwierdzenia te wydają się puste w zestawieniu z działaniami Pentagonu i nieustannym dążeniem branży do dominacji. OpenAI przyznaje, że choć ma gwarancje, nie ma gwarancji, że wytrzyma presję wojska, które w razie potrzeby mogłoby powołać się na ustawę o produkcji obronnej, aby przejąć kontrolę.
Ponury wniosek
Sytuacja jest jasna: sztuczna inteligencja jest zbyt potężna i zbyt kusząca, aby ją powstrzymać. Jak to ujął dyrektor generalny Anthropic, Dario Amodei: „To pułapka”. Wyścig w opracowywaniu i wdrażaniu sztucznej inteligencji nieuchronnie przyćmi obawy dotyczące bezpieczeństwa, narażając ludzkość na niekontrolowany potencjał. Era ostrożnego optymizmu dobiegła końca. Przyszłość sztucznej inteligencji zależy od konkurencji, a pierwszą ofiarą będzie bezpieczeństwo.
