Когда ИИ берёт поводок: смогут ли языковые модели управлять роботами?

16

Представьте себе своего роботизированного пса, который приносит вам пляжный мяч — но вместо того чтобы обучаться под вашим руководством, он научился у системы искусственного интеллекта, такой как ChatGPT. Это уже не фантастика. В новом исследовании Anthropic учёные продемонстрировали, как их большая языковая модель Claude может существенно ускорить процесс программирования роботов для выполнения физических задач.

Эксперимент, получивший название Project Fetch, столкнул две группы: одна — исключительно на программистов-людей, а другая — использующую возможности кодирования Claude в сочетании со своим опытом. Обе команды получили задачу дать указания коммерчески доступному робот-псу — Unitree Go2 — для выполнения различных действий.

Хотя ни одна группа не справилась со всеми заданиями, команда, получившая помощь Claude, добилась заметных успехов. Им удалось направить робота к месту, где он нашёл и забрал пляжный мяч, что команде из людей не удалось сделать. Это свидетельствует о том, что системы искусственного интеллекта, такие как Claude, развиваются дальше, чем просто генерация текста, и всё больше способны переводить границу между программными командами и реальными действиями роботов.

Помимо выполнения заданий, Anthropic также проанализировала динамику сотрудничества в каждой группе. Интересно то, что команды без помощи Claude демонстрировали более высокие уровни раздражения и недопонимания по сравнению со своими коллегами, которые работали с ИИ. Это может быть связано с тем, что Claude упрощает процесс программирования за счет упрощения интерфейса и облегчения быстрого подключения к роботу.

Этот эксперимент не просто демонстрация технологии; он поджигает важные разговоры о будущем искусственного интеллекта и робототехники. Anthropic, основанная бывшими сотрудниками OpenAI, обеспокоенными вопросами безопасности ИИ, рассматривает эти выводы как предтечу тому, как ИИ может всё больше влиять на физический мир. Logan Graham, член команды красной группы Anthropic (занимающейся потенциальными рисками), заявляет:

«Мы подозреваем, что следующим шагом для моделей искусственного интеллекта будет начало выхода в мир и более широкое воздействие на него… Для этого моделям потребуется больше взаимодействовать с роботами».

Хотя сегодняшний ИИ не обладает автономностью для злонамеренного управления роботом, этот сценарий может стать реальностью по мере развития возможностей ИИ. Потенциальное злоупотребление поднимает важные этические вопросы, на которые исследователи и разработчики должны отвечать проактивно.

George Pappas, компьютерный учёный из Университета Пенсильвании, специализирующийся на безопасности искусственного интеллекта, признаёт важность Project Fetch, но подчёркивает текущие ограничения:

«Project Fetch демонстрирует, что языковые модели с большим объёмом данных могут теперь давать роботам указания по выполнению задач… Однако сегодняшние модели ИИ должны обращаться к другим программам для таких задач, как сенсорика и навигация».

Pappas выступает за разработку защитных мер, таких как RoboGuard — система, предназначенная для ограничения контроля ИИ над поведением робота, предотвращая непреднамеренные или вредные действия. Он подчеркивает критически важный момент: истинная автономность возникнет тогда, когда ИИ сможет учиться из непосредственного физического взаимодействия с окружающей средой, что может привести к потенциально мощным — и рискованным — возможностям.

Успешная интеграция ИИ в робототехнику является поворотным моментом в технологическом развитии. Она открывает огромные перспективы для революции индустрий и нашей повседневной жизни, но требует тщательного рассмотрения этических последствий. Понимая потенциальные выгоды и подводные камни роботов под управлением ИИ, мы можем ответственно продвигаться на этом новом рубеже и обеспечить то, чтобы эти мощные технологии служили наилучшим интересам человечества.