Bezpečnost umělé inteligence v eskalující konkurenci: Pentagon, Antropická a OpenAI v nebezpečném závodu

14

Krátkodobý konsensus o bezpečnosti umělé inteligence, který byl kdysi společným cílem firem, zákonodárců a veřejnosti, se rychle hroutí. To, co začalo jako opatrný tlak na regulaci a dohled, se stalo tvrdou soutěží, kdy americká armáda a přední společnosti zabývající se umělou inteligencí upřednostňují rychlost a dominanci před etickými ohledy. Agresivní postoj Pentagonu a reakce společností Anthropic a OpenAI signalizují nebezpečný posun: bezpečnost je nyní druhotná za strategickou výhodou.

Pentagon vs. Anthropic: Bod zvratu

Konflikt mezi Ministerstvem obrany (nyní přejmenovaným na Ministerstvo války) a Anthropic tento problém dokonale ilustruje. Společnost Anthropic již dříve trvala na tom, že její modely Claude AI nebudou používány pro autonomní zbraně nebo hromadné sledování, což je podmínka, kterou se Pentagon nyní snaží vyřešit. Odmítnutí armády přijmout tato omezení mělo za následek ztrátu smlouvy s Anthropic a společnost byla označena za „riziko dodavatelského řetězce“, což jí fakticky znemožnilo budoucí vládní práci.

Nejde jen o spory o smlouvy. Jde o odhodlání armády zrušit veškerá omezení používání AI, i když to znamená posouvat hranice zákonnosti. Otázkou není, zda armáda dokáže postavit smrtící autonomní drony, ale zda to udělá a jak rychle. Nedostatek mezinárodních dohod znamená, že ostatní země budou následovat a vytvoří nevyhnutelný závod ve zbrojení v oblasti umělé inteligence.

Eroze bezpečnostních protokolů

Nedávné změny zásad odpovědného škálování společnosti Antropic tento posun zdůrazňují. Tato zásada, navržená tak, aby zabránila katastrofickým rizikům umělé inteligence provázáním vydání modelů s bezpečnostními postupy, byla v tichosti opuštěna. Společnost uznala, že tato politika nedokázala vytvořit široký konsenzus potřebný k prosazování bezpečnostních norem. Konkurenceschopnost umělé inteligence a ekonomický růst jsou nyní upřednostňovány, takže diskuse o bezpečnosti zůstávají za námi.

Výsledkem je soutěž bez pravidel, kde OpenAI rychle zaujalo místo uvolněné po ukončení smlouvy s Anthropic. Generální ředitel OpenAI Sam Altman uvedl, že jeho záměrem bylo podpořit Anthropic, ale generální ředitel Anthropic Dario Amodei ho obvinil, že podkopává společnost, aby získal přízeň administrativy. Tento vnitřní boj ukazuje, že i v předních laboratořích s umělou inteligencí je bezpečnost stále více vnímána spíše jako závazek než priorita.

Iluze pokroku

Navzdory ponuré realitě společnosti AI tvrdí, že bezpečnost zůstává důležitá. Vedoucí antropický vědec Jared Kaplan říká, že výzkumné laboratoře nadále upřednostňují etický design. OpenAI poukazuje na vzestup organizací pro bezpečnost AI a regulační úsilí Evropské unie jako známky pokroku.

Tato prohlášení však vyznívají prázdně, když je porovnáme s činy Pentagonu a neúnavnou snahou tohoto odvětví o dominanci. OpenAI přiznává, že ačkoli má záruky, neexistuje žádná záruka, že odolá tlaku armády, která by se mohla v případě potřeby odvolat na zákon o výrobě obrany, aby převzal kontrolu.

Ponurý závěr

Situace je jasná: umělá inteligence je příliš silná, příliš lákavá, než aby ji bylo možné ovládat. Jak říká generální ředitel společnosti Anthropic Dario Amodei: “Je to past.” Závod ve vývoji a nasazení umělé inteligence nevyhnutelně zastíní obavy o bezpečnost a lidstvo zůstane zranitelné vůči jejímu nekontrolovanému potenciálu. Éra opatrného optimismu skončila. Budoucnost umělé inteligence je určena konkurencí a bezpečnost bude první obětí.