Stel je voor dat je robothond een strandbal voor je haalt, maar in plaats van door jou te worden getraind, heeft hij geleerd van een AI-systeem zoals ChatGPT. Dit is geen sciencefiction meer. In een nieuwe studie van Anthropic hebben onderzoekers aangetoond hoe hun grote taalmodel, Claude, het proces van het programmeren van robots om fysieke taken uit te voeren aanzienlijk kan versnellen.
Het experiment, genaamd Project Fetch, zette twee groepen tegenover elkaar: de ene vertrouwde uitsluitend op menselijke programmeurs en de andere maakte gebruik van Claude’s codeervaardigheden naast hun expertise. Beide teams kregen de opdracht om een in de handel verkrijgbare robothond – de Unitree Go2 – te instrueren om verschillende acties uit te voeren.
Hoewel geen van beide groepen elke uitdaging onder de knie had, maakte het team, geholpen door Claude, opmerkelijke vooruitgang. Ze navigeerden met succes door de robot om een strandbal te lokaliseren en terug te halen, een prestatie die het team dat alleen uit mensen bestaat niet kon bereiken. Dit suggereert dat AI-systemen zoals Claude zich verder ontwikkelen dan alleen het genereren van tekst en steeds beter in staat zijn de kloof tussen softwareopdrachten en robotacties in de echte wereld te overbruggen.
Naast het voltooien van taken analyseerde Anthropic ook de samenwerkingsdynamiek binnen elke groep. Intrigerend genoeg vertoonden de menselijke teams zonder de hulp van Claude meer frustratie en verwarring dan hun door AI ondersteunde tegenhangers. Dit kan worden toegeschreven aan het feit dat Claude het programmeerproces heeft gestroomlijnd door de interface te vereenvoudigen en snellere verbindingen met de robot mogelijk te maken.
Dit experiment is niet alleen een technische demonstratie; het leidt tot cruciale gesprekken over de toekomst van AI en robotica. Anthropic, opgericht door voormalige OpenAI-medewerkers die zich zorgen maken over de veiligheid van AI, beschouwt deze bevindingen als een graadmeter voor de manier waarop AI de fysieke wereld in toenemende mate zou kunnen beïnvloeden. Logan Graham, lid van het rode team van Anthropic (gericht op potentiële risico’s), zegt:
“We hebben het vermoeden dat de volgende stap voor AI-modellen is om de wereld te bereiken en de wereld breder te beïnvloeden… Dit vereist echt dat modellen meer met robots gaan communiceren.”
Hoewel de huidige AI niet over de autonomie beschikt om een robot kwaadwillig te besturen, zou dit scenario werkelijkheid kunnen worden naarmate de mogelijkheden van AI toenemen. Het potentieel voor misbruik roept belangrijke ethische vragen op die onderzoekers en ontwikkelaars proactief moeten aanpakken.
George Pappas, een computerwetenschapper aan de Universiteit van Pennsylvania, gespecialiseerd in AI-veiligheid, erkent het belang van Project Fetch, maar benadrukt de huidige beperkingen:
“Project Fetch laat zien dat LLM’s nu robots kunnen instrueren over taken… De huidige AI-modellen hebben echter toegang nodig tot andere programma’s voor taken als detectie en navigatie.”
Pappas pleit voor het ontwikkelen van veiligheidsmaatregelen zoals RoboGuard, een systeem dat is ontworpen om de controle van een AI over het gedrag van een robot te beperken en onbedoelde of schadelijke acties te voorkomen. Hij onderstreept het cruciale punt dat echte autonomie zal ontstaan wanneer AI kan leren van directe fysieke interactie met de omgeving, wat kan leiden tot potentieel krachtige – en risicovolle – mogelijkheden.
De succesvolle integratie van AI in robotica vertegenwoordigt een cruciaal moment in de technologische vooruitgang. Het houdt een enorme belofte in voor een revolutie in de industrie en ons dagelijks leven, maar vereist een zorgvuldige afweging van de ethische implicaties ervan. Door de potentiële voordelen en valkuilen van AI-gestuurde robots te begrijpen, kunnen we op verantwoorde wijze door deze nieuwe grens navigeren en ervoor zorgen dat deze krachtige technologieën de beste belangen van de mensheid dienen.




















































