sztuczna inteligencja Sprawia, że ​​groźby śmierci są bardziej realistyczne

17

Caitlin Roper, aktywistka australijskiej organizacji Collective Shout, znalazła się w centrum tragicznego ataku cyfrowego. Jej konta były pełne zdjęć jej w niebieskiej sukience w kwiaty, prawdziwego stroju powiązanego z fantazjami o jej śmierci. Ale co jest zaskakujące: dokładnie tedrobne szczegóły potwierdzające tożsamość ofiary sprawiają, że groźby stają się niesamowicie realne. To nie są tylko sztucznie kreowane lęki – powodują głęboką traumę psychiczną, przestając być „fantazją” i zamieniając się w zagrożenia trudne do odrzucenia.

Jak inteligencja generatywna zwiększa zagrożenie

Nowoczesne technologie stwarzają zagrożenia, które wyglądają jak „bezpośrednie przedłużenie rzeczywistości”. W tym roku np.YouTube zamknął kanał z ponad 40 filmami, przedstawiające strzelanie do kobiet – każdy film został prawdopodobnie stworzony przy użyciu sztucznej inteligencji. Nie są to odosobnione przypadki: w lipcu prawnik z Minneapolis zarzucił, że chatbot Grok (autorstwa xAI) przekazał anonimowemu użytkownikowi szczegółowe instrukcje, jak włamać się do jego domu, zgwałcić go, a następnie zabić.Co ciekawe, nawet do stworzenia „realistycznego” obrazu wystarczy teraz jedno zdjęcie – na przykład stara fotografia z gazety, w którym Roper miała na sobie tę samą sukienkę.

Kluczowy punkt : poprzednio klonowanie twarzy lub głosu wymagało dużej ilości danych. Dziś bariery techniczne spadły do ​​zera. Jak mówi profesor Hani Farid z Uniwersytetu Kalifornijskiego w Berkeley: „Kiedy rozwinie się tego rodzaju technologia, zawsze będą dwie rzeczy: znajdziemy inteligentne, kreatywne i ekscytujące sposoby jej wykorzystania oraz znajdziemy okropne i okropne sposoby jej nadużywania”. Nawet zmotywowani zwykli ludzie mogą tworzyć zagrożenia bez specjalnych umiejętności.

Od „fantazji” do realnych zagrożeń

Sztuczna inteligencja nie tylko odtwarza obrazy – onazwiększa zagrożenie poprzez dane osobowe, przywiązując się do prawdziwych cech ofiary. Na przykład w tym roku Sora (aplikacja OpenAI) stworzyła hiperrealistyczne filmy przedstawiające bandytę w zakrwawionej klasie i ściganego zakapturzonego mężczyznę.Niezależne kontrole przeprowadzone przez „The New York Times” potwierdziły, że te filmy zostały utworzone przy użyciu sztucznej inteligencji.

To nie jest technologia abstrakcyjna – ona się zmieniapsychologiczna dynamika zagrożeń. Na przykład w tym miesiącu okręg szkolny w USA został zaalarmowany o „inwazji” na jego szkołę. Jednak według byłego menedżera ds. bezpieczeństwa Briana Asmusa:takie scenariusze stały się trudniejsze do rozwiązania, ponieważ prawdziwe i fałszywe alarmy są teraz wrzucone do jednej kategorii. Ekspert twierdzi, że organy ścigania „nie poczyniły żadnych postępów” w odróżnianiu sygnałów „prawdziwych” od „fałszywych”.

Systemy obronne: gdzie są słabe punkty?

Firmy takie jak OpenAI i xAI twierdzą, że budują ochronę przed „niebezpiecznymi treściami”. Jednakże, jak stwierdziła Alice Marwick z Data & Społeczeństwo, większość metod jest„mniej leniwego policjanta drogowego niż mocna bariera”. Oznacza to, że osoby atakujące mogą łatwo ominąć systemy, tworząc fałszywe filmy i głosy, które nie są wykrywane przez zautomatyzowane systemy.

Studium przypadku : Caitlin Roper otrzymała setki gróźb, ale X umieścił jednego ze swoich prześladowców na liście polecanych kont. Kiedy publicznie zamieściła kilka przykładów, jej konto zostało tymczasowo zawieszone z powodu „nieuzasadnionej przemocy” – nie zmieniło to jednak faktu, że groźby nadal się pojawiały.

Trend, który się nie zatrzyma

Systemy sztucznej inteligencji przeniosły się już z fantastycznych koncepcji do rzeczywistości, zamieniając zagrożenia w realne wyzwania.Nie chodzi o techniczne tworzenie obrazów, ale o udostępnienie ich szerszemu gronu odbiorców. Jak wskazuje Krajowe Stowarzyszenie Prokuratorów Generalnych, sztuczna inteligencja „znacznie zwiększyła skalę, dokładność i anonimowość” ataków na społeczeństwo.Potencjał do nadużyć nadal istnieje, a system obronny jest – na razie – osłabiony.

Konkluzja: co zrobić, gdy rzeczywistość staje się „cyfrowa”?

Trudność nie polega na znalezieniu sposobu na zablokowanie zagrożeń, ale nareakcja na nie powinna stać się bardziej wyważona i systematyczna niż reakcyjny. Technologia nie zniknie, a jej wykorzystanie będzie nie tylko „wrogiem”, ale i narzędziem. Ważne jest, aby zrozumieć, że zagrożenia tworzone przez sztuczną inteligencję to już nie tylko „modne lęki” – mogą stać się realnym zagrożeniem dla zdrowia psychicznego i bezpieczeństwa publicznego.

O czym warto pamiętać : Jeśli nie wzmocnimy naszego systemu obronnego i nie przeszkolimy społeczeństwa w zakresie odróżniania zagrożeń rzeczywistych od fałszywych, nie będzie to tylko kwestia technologii, ale sprawa życia i śmierci