Уявіть, що ваш собака-робот приносить вам пляжний м’яч, але замість того, щоб навчатися у вас, він навчався в системі штучного інтелекту, як-от ChatGPT. Це вже не фантастика. У новому дослідженні Anthropic вчені продемонстрували, як їх велика мовна модель Claude може значно прискорити процес програмування роботів для виконання фізичних завдань.
В експерименті під назвою Project Fetch зіткнулися дві групи: одна покладалася виключно на людей-програмістів, а інша використовувала можливості кодування Клода в поєднанні з їхнім досвідом. Обом командам було доручено навчити комерційно доступного робота-собаку Unitree Go2 виконувати різні дії.
Хоча жодна група не виконала всіх завдань, команда, яка отримала допомогу Клода, досягла помітного успіху. Їм вдалося направити робота до місця, де він знайшов і дістав пляжний м’яч, чого команда людей не змогла зробити. Це свідчить про те, що системи штучного інтелекту, такі як Claude, виходять за межі простого генерування тексту та все більше здатні подолати розрив між програмними командами та реальними діями робота.
Окрім виконання завдань, Anthropic також проаналізував динаміку співпраці в кожній групі. Цікаво, що команди без Клода продемонстрували вищий рівень розчарування та неправильного спілкування порівняно з їхніми колегами зі штучним інтелектом. Це може бути пов’язано з тим, що Claude спрощує процес програмування, спрощуючи інтерфейс і полегшуючи швидке підключення до робота.
Цей експеримент — не просто демонстрація технології; це викликає важливі розмови про майбутнє штучного інтелекту та робототехніки. Компанія Anthropic, заснована колишніми співробітниками OpenAI, стурбованими безпекою штучного інтелекту, вважає ці висновки передвісником того, як штучний інтелект може все більше впливати на фізичний світ. Логан Грем, член червоної команди Anthropic (працює з потенційними ризиками), заявляє:
«Ми підозрюємо, що наступним кроком для моделей штучного інтелекту стане вихід у світ і ширший вплив на нього… Для цього моделям потрібно буде більше взаємодіяти з роботами».
Хоча сучасний штучний інтелект не має достатньої автономності, щоб зловмисно керувати роботом, цей сценарій може стати реальністю в міру розвитку можливостей штучного інтелекту. Потенційне зловживання піднімає важливі етичні питання, які дослідники та розробники повинні активно вирішувати.
Джордж Паппас, інформатик з Університету Пенсільванії, який спеціалізується на безпеці штучного інтелекту, визнає важливість Project Fetch, але підкреслює його поточні обмеження:
«Project Fetch демонструє, що мовні моделі, багаті даними, тепер можуть інструктувати роботів для виконання завдань… Однак сучасні моделі ШІ повинні покладатися на інші програми для таких завдань, як зондування та навігація».
Паппас виступає за розробку захисних заходів, таких як RoboGuard, система, призначена для обмеження контролю ШІ над поведінкою робота, запобігання ненавмисним або шкідливим діям. Він підкреслює критичний момент: справжня автономія з’явиться, коли штучний інтелект зможе вчитися на прямій фізичній взаємодії з навколишнім середовищем, що може призвести до потенційно потужних — і ризикованих — можливостей.
Успішна інтеграція штучного інтелекту в робототехніку є поворотним моментом у розвитку технологій. Це багатообіцяюче для революціонізації промисловості та нашого повсякденного життя, але вимагає ретельного розгляду етичних наслідків. Розуміючи потенційні переваги та підводні камені роботів, керованих штучним інтелектом, ми можемо відповідально переміщатися на цьому новому рубежі та гарантувати, що ці потужні технології найкращим чином служать інтересам людства.
