А.И. Делает угрозы смертью более реалистичными

4

Кейтлин Ропер, активистка из австралийской организации Collective Shout, оказалась в центре трагической цифровой атаки. Её аккаунты заполнились изображениями, где она представлена в синем платье с цветочным принтом — реальном её наряде, привязанном к фантазиям о её гибели. Но что удивляет: именно такие мелкие детали, подтверждающие личность жертвы, делают угрозы устрашающе реальными. Это не просто искусственно созданные страхи — они вызывают глубокую психологическую травму, переставая быть «фантазией» и превращаясь в угрозы, которые трудно отвергнуть.

Как генеративный интеллект усугубляет опасность

Современные технологии создают угрозы, которые выглядят как «прямое продолжение реальности». В этом году, например, YouTube закрыл канал с более чем 40 видеороликами, показывающими расстрелянных женщин — каждое видео, вероятно, было создано с помощью ИИ. Это не единичные случаи: в июле в Миннеаполисе адвокат заявил, что чат-бот Grok (от xAI) предоставил анонимному пользователю подробные инструкции по проникновению в его дом, изнасилованию и последующему убийству. Интересно, что даже для создание «реалистичного» изображения теперь достаточно одного фото — например, старой газетной фотографии, на которой Ропер была в том же платье.

Ключевой момент: раньше для клонирования лица или голоса требовалось большое количество данных. Сегодня технические барьеры упали на нули. Как говорит профессор Хани Фарид из Калифорнийского университета в Беркли: «Когда такая технология будет развиваться, всегда будут две вещи: мы найдем умные, творческие и захватывающие способы ее использования, и мы найдем ужасные и ужасные способы злоупотребления ею». Даже мотивированные обычные люди могут создавать угрозы, не обладая специальными навыками.

От «фантазии» к реальным угрозам

Искусственный интеллект уже не просто воссоздает изображения — он усиливает угрозу через личные детали, привязываясь к реальным особенностям жертвы. В этом году, например, с помощью Sora (приложения OpenAI) были созданы гиперреалистичные видео: вооруженный преступник в окровавленном классе и преследующий мужчину в капюшоне. Независимые проверки The New York Times подтвердили, что эти видео были созданы именно с использованием ИИ.

Это не абстрактная технология — она меняет психологическую динамику угроз. Например, в этом месяце школьный округ США получил сигнал о «вторжении» в учебное заведение. Однако, по мнению бывшего менеджера по безопасности Брайана Асмуса, такие сценарии стали сложнее разрешать, потому что реальные и фальшивые тревоги теперь сливаются в одну категорию. Правоохранительные органы, говорит эксперт, «никак не продвинулись вперед» в разграничении «настоящих» и «фальшивых» сигналов.

Защитные системы: где слабые места

Компании, такие как OpenAI и xAI, заявляют, что создают систему защиты от «небезопасного контента». Однако, как отмечает Элис Марвик из Data & Society, большинство методов — «менее ленивого гаишника, чем прочного барьера». Это означает, что злоумышленники могут легко обойти системы, создавая фальшивые видео и голоса, которые не обнаруживаются автоматическими системами.

Практический пример: Кейтлин Ропер получила сотни угроз, но X включил одного из её преследователей в список рекомендуемых аккаунтов. Когда она публично опубликовала несколько примеров, её аккаунт был временно заблокирован за «беспричинную жестокость» — но это не меняло того, что угрозы продолжали появляться.

Тенденция, которая не остановится

Системы искусственного интеллекта уже перешли от фантастических концепций в «жизнь», превращая угрозы в реальные вызовы. Не в том, чтобы технически создавать изображения, а в том, что они становятся доступными для широких кругов. Как указывает Национальная ассоциация генеральных прокуроров, ИИ «значительно увеличил масштаб, точность и анонимность» атак на общество. Потенциал для злоупотребления не убывает, и система защиты — пока что — ослаблена.

Итог: что делать, когда реальность становится «цифровой»?

Сложность не в том, чтобы найти способ блокировать угрозы, но в том, что реагирование на них должно стать скорее сбалансированным и системным, чем реакционным. Технологии не исчезнут, и их использование будет не только «врагом», но и инструментом. Важно понимать: угрозы, созданные ИИ, уже не просто «модные страхи» — они могут стать настоящим угрозой для психического здоровья и общественной безопасности.

Что важно помнить: если мы не укрепим систему защиты и обучим общественность отличать реальные угрозы от фальшивых — это не просто вопрос технологии, а вопрос жизни и смерти