Kiedy AI weźmie smycz: czy modele językowe będą w stanie kontrolować roboty?

17

Wyobraź sobie, że Twój-robot-pies przynosi Ci piłkę plażową – ale zamiast uczyć się od Ciebie, uczy się od systemu sztucznej inteligencji, takiego jak ChatGPT. To już nie jest fantazja. W nowym badaniu przeprowadzonym przez firmę Anthropic naukowcy wykazali, jak ich duży model językowy Claude może znacznie przyspieszyć proces programowania robotów do wykonywania zadań fizycznych.

Eksperyment nazwany Project Fetch obejmował dwie grupy: jedną polegającą wyłącznie na ludzkich programistach, a drugą korzystającą z możliwości kodowania Claude’a w połączeniu z jego wiedzą. Obydwa zespoły miały za zadanie poinstruować dostępnego na rynku psa-robota – Unitree Go2 – wykonanie różnych czynności.

Choć żadna grupa nie wykonała wszystkich zadań, zespół, który otrzymał pomoc Claude’a, odniósł znaczący sukces. Udało im się poprowadzić robota do miejsca, w którym znalazł i odzyskał piłkę plażową, czego zespół ludzki nie był w stanie zrobić. Sugeruje to, że systemy sztucznej inteligencji, takie jak Claude, wykraczają poza generowanie tekstu i w coraz większym stopniu są w stanie wypełnić lukę między poleceniami oprogramowania a rzeczywistymi działaniami robota.

Oprócz wykonywania zadań firma Anthropic przeanalizowała także dynamikę współpracy w każdej grupie. Co ciekawe, zespoły bez Claude’a wykazywały wyższy poziom frustracji i nieporozumień w porównaniu do swoich odpowiedników ze sztuczną inteligencją. Może to wynikać z faktu, że Claude upraszcza proces programowania upraszczając interfejs i ułatwiając szybkie połączenie z robotem.

Ten eksperyment to nie tylko demonstracja technologii; inicjuje ważne rozmowy na temat przyszłości sztucznej inteligencji i robotyki. Anthropic, założona przez byłych pracowników OpenAI zaniepokojonych bezpieczeństwem sztucznej inteligencji, postrzega te odkrycia jako prekursor tego, jak sztuczna inteligencja może w coraz większym stopniu wpływać na świat fizyczny. Logan Graham, członek czerwonego zespołu Anthropic (zajmującego się potencjalnymi zagrożeniami), stwierdza:

„Podejrzewamy, że następnym krokiem modeli sztucznej inteligencji będzie wyjście w świat i wywieranie na niego szerszego wpływu… W tym celu modele będą musiały częściej wchodzić w interakcję z robotami”.

Chociaż dzisiejsza sztuczna inteligencja nie jest na tyle autonomiczna, aby móc w złośliwy sposób sterować robotem, ten scenariusz może stać się rzeczywistością w miarę ewolucji możliwości sztucznej inteligencji. Potencjalne nadużycia rodzą ważne pytania etyczne, którymi badacze i programiści muszą aktywnie się zająć.

George Pappas, informatyk z Uniwersytetu Pensylwanii, specjalizujący się w bezpieczeństwie sztucznej inteligencji, przyznaje, jak ważne jest Project Fetch, ale podkreśla jego obecne ograniczenia:

„Project Fetch pokazuje, że modele językowe bogate w dane mogą teraz instruować roboty, aby wykonywały zadania… Jednak dzisiejsze modele sztucznej inteligencji muszą opierać się na innych programach do zadań takich jak wykrywanie i nawigacja”.

Pappas opowiada się za opracowaniem środków ochronnych, takich jak RoboGuard, system zaprojektowany w celu ograniczenia kontroli sztucznej inteligencji nad zachowaniem robota, zapobiegając niezamierzonym lub szkodliwym działaniom. Podkreśla kluczowy punkt: prawdziwa autonomia pojawi się, gdy sztuczna inteligencja będzie mogła uczyć się na podstawie bezpośrednich interakcji fizycznych z otoczeniem, co może prowadzić do potencjalnie potężnych – i ryzykownych – możliwości.

Pomyślna integracja sztucznej inteligencji z robotyką jest punktem zwrotnym w rozwoju technologicznym. Jest to bardzo obiecujące, jeśli chodzi o rewolucjonizację przemysłu i naszego codziennego życia, wymaga jednak dokładnego rozważenia implikacji etycznych. Rozumiejąc potencjalne korzyści i pułapki robotów napędzanych sztuczną inteligencją, możemy odpowiedzialnie poruszać się po tej nowej granicy i zapewnić, że te potężne technologie będą służyć najlepszym interesom ludzkości.