Imagine a su perro robot trayendo una pelota de playa, pero en lugar de ser entrenado por usted, aprendió de un sistema de inteligencia artificial como ChatGPT. Esto ya no es ciencia ficción. En un nuevo estudio de Anthropic, los investigadores demostraron cómo su modelo de lenguaje grande, Claude, puede acelerar significativamente el proceso de programación de robots para realizar tareas físicas.
El experimento, denominado Proyecto Fetch, enfrentó a dos grupos: uno que dependía únicamente de programadores humanos y el otro que utilizaba las habilidades de codificación de Claude junto con su experiencia. Ambos equipos tuvieron la tarea de instruir a un perro robot disponible comercialmente, el Unitree Go2, para que completara varias acciones.
Si bien ninguno de los grupos superó todos los desafíos, el equipo ayudado por Claude logró avances notables. Condujeron con éxito el robot para localizar y recuperar una pelota de playa, una hazaña que el equipo formado únicamente por humanos no pudo lograr. Esto sugiere que los sistemas de inteligencia artificial como Claude están evolucionando más allá de la mera generación de texto y son cada vez más capaces de cerrar la brecha entre los comandos de software y las acciones de los robots en el mundo real.
Más allá de completar las tareas, Anthropic también analizó la dinámica de colaboración dentro de cada grupo. Curiosamente, los equipos humanos sin la ayuda de Claude mostraron niveles más altos de frustración y confusión en comparación con sus homólogos asistidos por IA. Esto podría atribuirse a que Claude simplificó el proceso de programación al simplificar la interfaz y facilitar conexiones más rápidas con el robot.
Este experimento no es sólo una demostración tecnológica; genera conversaciones cruciales sobre el futuro de la IA y la robótica. Anthropic, fundada por ex empleados de OpenAI preocupados por la seguridad de la IA, considera estos hallazgos como un indicador de cómo la IA podría influir cada vez más en el mundo físico. Logan Graham, miembro del equipo rojo de Anthropic (centrado en riesgos potenciales), afirma:
“Tenemos la sospecha de que el siguiente paso para los modelos de IA es comenzar a extenderse al mundo y afectarlo de manera más amplia… Esto realmente requerirá que los modelos interactúen más con los robots”.
Si bien la IA actual carece de autonomía para controlar maliciosamente un robot, este escenario podría convertirse en realidad a medida que avancen las capacidades de la IA. El potencial de uso indebido plantea importantes cuestiones éticas que los investigadores y desarrolladores deben abordar de forma proactiva.
George Pappas, científico informático de la Universidad de Pensilvania especializado en seguridad de la IA, reconoce la importancia del Proyecto Fetch pero enfatiza las limitaciones actuales:
“El Proyecto Fetch demuestra que los LLM ahora pueden instruir a los robots en tareas… Sin embargo, los modelos de IA actuales necesitan acceder a otros programas para tareas como la detección y la navegación”.
Pappas aboga por el desarrollo de salvaguardias como RoboGuard, un sistema diseñado para restringir el control de una IA sobre el comportamiento de un robot, evitando acciones no deseadas o dañinas. Subraya el punto crítico de que la verdadera autonomía surgirá cuando la IA pueda aprender de la interacción física directa con el entorno, lo que conducirá a capacidades potencialmente poderosas y riesgosas.
La integración exitosa de la IA en la robótica representa un momento crucial en el avance tecnológico. Encierra una inmensa promesa para revolucionar las industrias y nuestra vida diaria, pero exige una cuidadosa consideración de sus implicaciones éticas. Al comprender los posibles beneficios y riesgos de los robots controlados por IA, podemos navegar esta nueva frontera de manera responsable y garantizar que estas poderosas tecnologías sirvan a los mejores intereses de la humanidad.





















































