Představte si, že váš robotický pes vám přináší plážový míč – ale místo toho, aby se učil od vás, učil se ze systému umělé inteligence, jako je ChatGPT. Tohle už není fantazie. V nové studii od Anthropic vědci prokázali, jak jejich velký jazykový model Claude může výrazně urychlit proces programování robotů k provádění fyzických úkolů.
Experiment nazvaný Project Fetch postavil dvě skupiny: jedna spoléhala výhradně na lidské programátory a druhá využívala Claudovy kódovací schopnosti v kombinaci s jejich odborností. Oba týmy měly za úkol instruovat komerčně dostupného robotického psa – Unitree Go2 – k provádění různých akcí.
Přestože žádná skupina nesplnila všechny úkoly, tým, který obdržel Claudovu pomoc, dosáhl pozoruhodného úspěchu. Podařilo se jim navést robota na místo, kde našel a získal plážový míč, což lidský tým nebyl schopen. To naznačuje, že systémy umělé inteligence, jako je Claude, překračují pouhé generování textu a jsou stále více schopny překlenout propast mezi softwarovými příkazy a skutečnými akcemi robota.
Kromě plnění úkolů společnost Anthropic také analyzovala dynamiku spolupráce v každé skupině. Je zajímavé, že týmy bez Clauda vykazovaly vyšší míru frustrace a špatné komunikace ve srovnání s jejich protějšky s umělou inteligencí. To může být způsobeno tím, že Claude zjednodušuje proces programování tím, že zjednodušuje rozhraní a usnadňuje rychlé připojení k robotu.
Tento experiment není jen ukázkou technologie; podnítí důležité rozhovory o budoucnosti umělé inteligence a robotiky. Společnost Anthropic, založená bývalými zaměstnanci OpenAI, kteří se zajímají o bezpečnost umělé inteligence, považuje tato zjištění za předchůdce toho, jak by umělá inteligence mohla stále více ovlivňovat fyzický svět. Logan Graham, člen červeného týmu Anthropic (zabývající se potenciálními riziky), uvádí:
„Domníváme se, že dalším krokem pro modely AI bude začít chodit do světa a ovlivňovat jej šířeji… Aby to bylo možné, modely budou muset více interagovat s roboty.“
I když dnešní umělá inteligence nemá autonomii, aby mohla robota zlomyslně ovládat, tento scénář by se mohl stát realitou, protože se schopnosti umělé inteligence vyvíjejí. Potenciální zneužití vyvolává důležité etické otázky, které musí výzkumníci a vývojáři proaktivně řešit.
George Pappas, počítačový vědec z University of Pennsylvania, který se specializuje na bezpečnost umělé inteligence, uznává důležitost Project Fetch, ale zdůrazňuje jeho současná omezení:
„Project Fetch ukazuje, že jazykové modely bohaté na data mohou nyní instruovat roboty, aby prováděli úkoly… Dnešní modely umělé inteligence se však musí spoléhat na jiné programy pro úkoly, jako je snímání a navigace.“
Pappas obhajuje vývoj ochranných opatření, jako je RoboGuard, systém navržený tak, aby omezil kontrolu AI nad chováním robota a zabránil neúmyslným nebo škodlivým akcím. Zdůrazňuje kritický bod: skutečná autonomie se objeví, když se umělá inteligence dokáže učit z přímých fyzických interakcí se svým prostředím, což by mohlo vést k potenciálně silným – a riskantním – schopnostem.
Úspěšná integrace umělé inteligence do robotiky je bodem obratu v technologickém vývoji. Je velkým příslibem pro revoluční průmysl a náš každodenní život, ale vyžaduje pečlivé zvážení etických důsledků. Pochopením potenciálních výhod a úskalí robotů řízených umělou inteligencí můžeme zodpovědně procházet touto novou hranicí a zajistit, aby tyto výkonné technologie sloužily nejlepším zájmům lidstva.





















































