Безопасность ИИ Заброшена в Условиях Эскалации Конкуренции: Пентагон, Anthropic и OpenAI в Опасной Гонке

5

Кратковременный консенсус в отношении безопасности ИИ, когда-то общая цель компаний, законодателей и общественности, стремительно рушится. То, что начиналось как осторожное продвижение регулирования и надзора, превратилось в беспощадную конкуренцию, где американские военные и ведущие компании в области ИИ отдают приоритет скорости и доминированию над этическими соображениями. Агрессивная позиция Пентагона и ответные меры Anthropic и OpenAI сигнализируют об опасном сдвиге: безопасность теперь вторична по отношению к стратегическим преимуществам.

Пентагон против Anthropic: Переломный Момент

Конфликт между Министерством обороны (теперь ребрендированным как Министерство войны) и Anthropic прекрасно иллюстрирует проблему. Anthropic ранее настаивала на том, что ее модели ИИ Claude не будут использоваться для автономного оружия или массовой слежки, условие, которое Пентагон теперь стремится устранить. Отказ военных принимать эти ограничения привёл к потере контракта Anthropic и к тому, что компания была названа «риском для цепочки поставок», фактически лишив её возможности будущей работы с правительством.

Речь идёт не только о спорах по контрактам. Речь идёт об определённости военных в том, чтобы снять любые ограничения на использование ИИ, даже если это означает раздвигать границы законности. Вопрос не в том, может ли военный строить летальные автономные дроны, а в том, будет ли он это делать, и как быстро. Отсутствие международных соглашений означает, что другие страны последуют этому примеру, создавая неизбежную гонку вооружений в области ИИ.

Размывание Протоколов Безопасности

Недавние изменения, внесённые Anthropic в её «Политику ответственного масштабирования», подчёркивают этот сдвиг. Эта политика, разработанная для предотвращения катастрофических рисков ИИ путём привязки релизов моделей к процедурам безопасности, была тихо заброшена. Компания признала, что политика не смогла создать широкого консенсуса, необходимого для обеспечения соблюдения стандартов безопасности. Теперь приоритет отдаётся конкурентоспособности ИИ и экономическому росту, оставляя дискуссии о безопасности позади.

В результате получается соревнование без правил, где OpenAI быстро заняла место, оставшееся после расторжения контракта с Anthropic. Генеральный директор OpenAI Сэм Альтман заявил, что его шаг был направлен на поддержку Anthropic, но генеральный директор Anthropic Дарио Амодеи обвинил его в подрыве позиций компании, чтобы завоевать расположение администрации. Эта внутренняя борьба показывает, что даже в ведущих лабораториях ИИ безопасность всё чаще рассматривается как пассив, а не как приоритет.

Иллюзия Прогресса

Несмотря на мрачную реальность, компании в области ИИ утверждают, что безопасность остаётся важной. Главный научный сотрудник Anthropic Джаред Каплан утверждает, что исследовательские лаборатории по-прежнему отдают приоритет этической разработке. OpenAI указывает на рост организаций, занимающихся безопасностью ИИ, и на усилия Европейского Союза по регулированию в качестве признаков прогресса.

Однако эти заявления звучат пусто, если их сопоставить с действиями Пентагона и неустанным стремлением отрасли к доминированию. OpenAI признаёт, что, хотя у неё есть гарантии, нет никаких гарантий, что они выдержат давление со стороны военных, которые при необходимости могут применить Закон о производственном оборонном акте, чтобы захватить контроль.

Мрачный Вывод

Ситуация ясна: ИИ слишком силён, слишком заманчив, чтобы его можно было сдержать. Как выразился генеральный директор Anthropic Дарио Амодеи, «Это ловушка». Гонка за разработкой и внедрением ИИ неизбежно затмит вопросы безопасности, оставляя человечество уязвимым для его неконтролируемого потенциала. Эпоха осторожного оптимизма окончена. Будущее ИИ определяется конкуренцией, и безопасность станет первой жертвой.