Додому Останні новини та статті Безпека ІІ Занедбана в Умовах Ескалації Конкуренції: Пентагон, Anthropic та OpenAI у...

Безпека ІІ Занедбана в Умовах Ескалації Конкуренції: Пентагон, Anthropic та OpenAI у Небезпечній Гонці

Короткочасний консенсус щодо безпеки ІІ, колись спільна мета компаній, законодавців та громадськості, стрімко руйнується. Те, що починалося як обережне просування регулювання та нагляду, перетворилося на нещадну конкуренцію, де американські військові та провідні компанії в галузі ІІ віддають пріоритет швидкості та домінуванню над етичними міркуваннями. Агресивна позиція Пентагону і заходи у відповідь Anthropic і OpenAI сигналізують про небезпечне зрушення: безпека тепер вторинна по відношенню до стратегічних переваг.

Пентагон проти Anthropic: Переломний Момент

Конфлікт між Міністерством оборони (тепер ребрендованим як Міністерство війни) та Anthropic чудово ілюструє проблему. Anthropic раніше наполягала на тому, що її моделі ІІ Claude не будуть використовуватися для автономної зброї або масового стеження, умова, яку Пентагон тепер прагне усунути. Відмова військових приймати ці обмеження призвела до втрати контракту Anthropic і до того, що компанія була названа “ризиком для ланцюжка поставок”, фактично позбавивши її можливості майбутньої роботи з урядом.

Йдеться не лише про суперечки щодо контрактів. Йдеться про певність військових у тому, щоб зняти будь-які обмеження використання ІІ, навіть якщо це означає розсовувати межі законності. Питання не в тому, чи може військовий будувати летальні автономні дрони, а в тому, чи він це робитиме, і як швидко. Відсутність міжнародних угод означає, що інші країни наслідуватимуть цей приклад, створюючи неминучу гонку озброєнь в області ІІ.

Розмивання Протоколів Безпеки

Недавні зміни, внесені Anthropic до її «Політики відповідального масштабування», підкреслюють це зрушення. Ця політика, розроблена для запобігання катастрофічним ризикам ІІ шляхом прив’язки релізів моделей до процедур безпеки, була тихо занедбана. Компанія визнала, що політика не змогла створити широкого консенсусу, який буде необхідний для забезпечення дотримання стандартів безпеки. Тепер пріоритет віддається конкурентоспроможності ІІ та економічному зростанню, залишаючи дискусії про безпеку позаду.

В результаті виходить змагання без правил, де OpenAI швидко зайняла місце, що залишилося після розірвання контракту з Anthropic. Генеральний директор OpenAI Сем Альтман заявив, що його крок був спрямований на підтримку Anthropic, але генеральний директор Anthropic Даріо Амодеї звинуватив його в підриві позицій компанії, щоб завоювати розташування адміністрації. Ця внутрішня боротьба показує, що навіть у провідних лабораторіях ІІ безпека все частіше сприймається як пасив, а не як пріоритет.

Ілюзія Прогресу

Незважаючи на похмуру реальність, компанії в галузі ІІ стверджують, що безпека залишається важливою. Головний науковий співробітник Anthropic Джаред Каплан стверджує, що дослідні лабораторії, як і раніше, віддають пріоритет етичній розробці. OpenAI вказує на зростання організацій, що займаються безпекою ІІ, та на зусилля Європейського Союзу з регулювання як ознак прогресу.

Однак ці заяви звучать порожньо, якщо їх порівняти з діями Пентагону та невпинним прагненням галузі домінувати. OpenAI визнає, що, хоча вона має гарантії, немає жодних гарантій, що вони витримають тиск з боку військових, які при необхідності можуть застосувати Закон про виробничий оборонний акт, щоб захопити контроль.

Похмурий Висновок

Ситуація ясна: ІІ занадто сильний, занадто привабливий, щоб його можна було стримати. Як висловився генеральний директор Anthropic Даріо Амодеї, “Це пастка”. Гонка за розробкою та впровадженням ІІ неминуче затьмарить питання безпеки, залишаючи людство вразливим для його неконтрольованого потенціалу. Епоха обережного оптимізму закінчено. Майбутнє ІІ визначається конкуренцією, і безпека стане першою жертвою.

Exit mobile version