Кейтлін Ропер, активістка австралійської організації Collective Shout, опинилася в центрі трагічної цифрової атаки. Її акаунти були наповнені її зображеннями в блакитній квітчастій сукні, справжньому вбранні, пов’язаному з фантазіями про її смерть. Але що дивно: саме такімаленькі деталі, які підтверджують особу жертви, роблять загрози моторошно реальними. Це не просто штучно створені страхи – вони завдають глибокої психологічної травми, перестаючи бути «фантазією» і перетворюючись на загрози, які важко відкинути.
Як генеративний інтелект посилює небезпеку
Сучасні технології створюють загрози, які виглядають як «пряме продовження реальності». Цього року, наприклад,YouTube закрив канал із понад 40 відео, що показує розстріляних жінок – кожне відео, ймовірно, було створено за допомогою ШІ. Це непоодинокі випадки: у липні адвокат у Міннеаполісі заявив, що чат-бот Grok (від xAI) надав анонімному користувачеві докладні інструкції про те, як увірватися до його будинку, зґвалтувати його, а потім убити.Цікаво, що навіть для створення «реалістичного» зображення тепер досить однієї фотографії – наприклад, старої газетної фотографії, в якому Ропер була в такій же сукні.
Ключовий момент : Раніше для клонування обличчя чи голосу потрібен був великий обсяг даних. Сьогодні технічні бар’єри зведені до нуля. Як каже професор Хані Фарід з Каліфорнійського університету в Берклі: «Коли подібні технології розвиваються, завжди будуть дві речі: ми знайдемо розумні, креативні та захоплюючі способи їх використання, і ми знайдемо жахливі та жахливі способи зловживати ними». Навіть мотивовані звичайні люди можуть створювати загрози без спеціальних навичок.
Від «фантазії» до реальних загроз
Штучний інтелект більше не просто відтворює зображення – вінпосилює загрозу через особисті дані, прив’язуючись до реальних характеристик жертви. Цього року, наприклад, Sora (програма OpenAI) створила гіперреалістичні відео озброєного чоловіка в закривавленому класі та чоловіка в капюшоні, за яким переслідують.Незалежні перевірки The New York Times підтвердили, що ці відео були створені за допомогою штучного інтелекту.
Це не абстрактна технологія – вона змінюєтьсяпсихологічна динаміка загроз. Наприклад, цього місяця один із шкільних округів США було попереджено про «вторгнення» до його школи. Однак, за словами колишнього менеджера служби безпеки Браяна Асмуса,такі сценарії стало важче вирішити, тому що справжні й фальшиві тривоги тепер об’єднані в одну категорію. Правоохоронні органи, каже експерт, «не просунулися» у розрізненні «справжніх» сигналів від «фальшивих».
Системи захисту: де слабкі місця?
Такі компанії, як OpenAI і xAI, кажуть, що створюють захист від «небезпечного контенту». Однак, як вважає Еліс Марвік з Data & Суспільство, більшість методів«менше ледачий гаїшник, ніж міцний шлагбаум». Це означає, що зловмисники можуть легко обходити системи, створюючи підроблені відео та голоси, які не виявляються автоматизованими системами.
Кейс-стаді : Кейтлін Роупер отримала сотні погроз, але X внесла одного зі своїх сталкерів у список рекомендованих облікових записів. Коли вона публічно опублікувала кілька прикладів, її обліковий запис було тимчасово призупинено через «безпідставне насильство», але це не змінило факту, що погрози продовжували з’являтися.
Тренд, який не зупиниться
Системи штучного інтелекту вже перейшли від фантастичних концепцій до реальності, перетворивши загрози на реальні виклики.Йдеться не про технічне створення зображень, а про те, щоб зробити їх доступними для ширшої аудиторії. Як зазначає Національна асоціація генеральних прокурорів, штучний інтелект «значно збільшив масштаб, точність і анонімність» атак на громадськість.Можливість зловживань залишається, а система захисту поки що ослаблена.
Підсумок: що робити, коли реальність стає «цифровою»?
Складність полягає не в тому, щоб знайти спосіб блокувати загрози, а в томуреакція на них повинна стати більш виваженою і системною ніж реакційний. Технологія не зникне, а її використання буде не лише «ворогом», а й інструментом. Важливо розуміти, що загрози, створені ШІ, більше не є просто «модними страхами» – вони можуть стати реальною загрозою психічному здоров’ю та громадській безпеці.
Що важливо пам’ятати : Якщо ми не посилимо нашу систему захисту і не навчимо громадськість відрізняти справжні загрози від фальшивих, це буде не просто питання техніки, а питання життя і смерті












































