Quand l’IA prend la laisse : les modèles linguistiques peuvent-ils contrôler les robots ?

22

Imaginez votre chien robot vous chercher un ballon de plage, mais au lieu d’être entraîné par vous, il a appris d’un système d’IA comme ChatGPT. Ce n’est plus de la science-fiction. Dans une nouvelle étude d’Anthropic, les chercheurs ont démontré comment leur grand modèle de langage, Claude, peut accélérer considérablement le processus de programmation des robots pour qu’ils effectuent des tâches physiques.

L’expérience, baptisée Project Fetch, a opposé deux groupes : l’un s’appuyant uniquement sur des programmeurs humains et l’autre utilisant les capacités de codage de Claude ainsi que leur expertise. Les deux équipes ont été chargées de demander à un chien robot disponible dans le commerce, l’Unitree Go2, d’effectuer diverses actions.

Même si aucun des deux groupes n’a réussi à relever tous les défis, l’équipe aidée par Claude a fait des progrès notables. Ils ont réussi à piloter le robot pour localiser et récupérer un ballon de plage, un exploit que l’équipe composée uniquement d’humains n’a pas pu réaliser. Cela suggère que les systèmes d’IA comme Claude évoluent au-delà de la simple génération de texte et sont de plus en plus capables de combler le fossé entre les commandes logicielles et les actions réelles des robots.

Au-delà de l’achèvement des tâches, Anthropic a également analysé la dynamique de collaboration au sein de chaque groupe. Curieusement, les équipes humaines sans l’aide de Claude ont montré des niveaux plus élevés de frustration et de confusion que leurs homologues assistés par l’IA. Cela pourrait être attribué au fait que Claude a rationalisé le processus de programmation en simplifiant l’interface et en facilitant des connexions plus rapides avec le robot.

Cette expérience n’est pas seulement une démonstration technologique ; cela suscite des conversations cruciales sur l’avenir de l’IA et de la robotique. Anthropic, fondée par d’anciens employés d’OpenAI préoccupés par la sécurité de l’IA, considère ces résultats comme un indicateur de la manière dont l’IA pourrait influencer de plus en plus le monde physique. Logan Graham, membre de l’équipe rouge d’Anthropic (concentrée sur les risques potentiels), déclare :

“Nous soupçonnons que la prochaine étape pour les modèles d’IA est de commencer à s’étendre au monde et à affecter le monde plus largement… Cela nécessitera vraiment que les modèles s’interfacent davantage avec les robots.”

Bien que l’IA d’aujourd’hui ne dispose pas de l’autonomie nécessaire pour contrôler un robot de manière malveillante, ce scénario pourrait devenir une réalité à mesure que les capacités de l’IA progressent. Le risque d’utilisation abusive soulève d’importantes questions éthiques que les chercheurs et les développeurs doivent aborder de manière proactive.

George Pappas, informaticien de l’Université de Pennsylvanie spécialisé dans la sécurité de l’IA, reconnaît l’importance du projet Fetch mais souligne ses limites actuelles :

“Le projet Fetch démontre que les LLM peuvent désormais instruire les robots sur des tâches… Cependant, les modèles d’IA d’aujourd’hui doivent accéder à d’autres programmes pour des tâches telles que la détection et la navigation.”

Pappas préconise le développement de mesures de protection telles que RoboGuard, un système conçu pour restreindre le contrôle d’une IA sur le comportement d’un robot, empêchant ainsi les actions involontaires ou nuisibles. Il souligne le point critique selon lequel la véritable autonomie naîtra lorsque l’IA pourra apprendre de l’interaction physique directe avec l’environnement, conduisant à des capacités potentiellement puissantes – et risquées.

L’intégration réussie de l’IA dans la robotique représente un moment charnière dans le progrès technologique. Elle est extrêmement prometteuse pour révolutionner les industries et notre vie quotidienne, mais exige un examen attentif de ses implications éthiques. En comprenant les avantages et les pièges potentiels des robots contrôlés par l’IA, nous pouvons franchir cette nouvelle frontière de manière responsable et garantir que ces technologies puissantes servent les meilleurs intérêts de l’humanité.