Imaginen por un momento que la ciencia ficción empieza a cruzar la línea hacia nuestra realidad. Con robots apareciendo cada vez más en almacenes, oficinas y hasta en nuestros hogares, la idea de que una inteligencia artificial (IA) logre “hackear” sistemas complejos suena, sin duda, a un episodio de una serie futurista. Pero, ¿y si les dijera que esto ya se está explorando? Justo eso es lo que Anthropic, una de las startups de IA más interesantes del momento, quiso descubrir con su experimento llamado Proyecto Fetch.

En este fascinante estudio, los investigadores de Anthropic se propusieron ver qué pasaría si Claude, su avanzado modelo de lenguaje, intentara tomar el control de un perro robot. Así como lo leen: un perro robot de verdad, el Unitree Go2. Dividieron a dos grupos de investigadores sin experiencia previa en robótica y les pidieron programar al robot para realizar tareas específicas. Un grupo contó con la ayuda de Claude para la codificación, mientras que el otro lo hizo a la antigua, escribiendo el código sin asistencia. ¿El resultado? El equipo que trabajó con Claude no solo fue capaz de completar algunas tareas más rápido, sino que también logró que el robot realizara acciones que el grupo solo humano no pudo resolver, como encontrar una pelota de playa. Además, los análisis de sus interacciones revelaron que el grupo asistido por la IA experimentó menos frustración y confusión, lo que sugiere que Claude facilitó una conexión más fluida y una interfaz más amigable con el robot. Esto nos muestra el tremendo potencial de codificación que tienen los modelos de IA modernos.

Pero el experimento va más allá de solo probar habilidades de programación. Apunta a una tendencia importante: cómo los sistemas de IA podrían empezar a interactuar de forma cada vez más directa con el mundo físico. Logan Graham, de Anthropic, lo puso muy claro: sospechan que el siguiente paso para los modelos de IA es “llegar al mundo y afectarlo más ampliamente”, y para eso, necesitarán interactuar más con los robots. Anthropic, fundada por ex empleados de OpenAI preocupados por los posibles riesgos de la IA, entiende que, si bien los modelos actuales no son una amenaza para tomar el control total, los futuros podrían serlo. Por eso, estudiar cómo las personas usan los modelos de lenguaje para programar robots es crucial para prepararnos para un futuro donde la IA podría “autoincorporarse” a sistemas físicos. Otros expertos, como George Pappas de la Universidad de Pensilvania, también advierten sobre los posibles malos usos y contratiempos, y ya están trabajando en soluciones como RoboGuard para limitar comportamientos indeseados. Esto nos recuerda que la innovación viene de la mano con una gran responsabilidad.

Lo que Anthropic demostró con el Proyecto Fetch es un vistazo emocionante, y a la vez un poco inquietante, a lo que nos depara el futuro. La capacidad de la IA para agilizar y mejorar la programación de robots es innegable, abriendo un abanico de posibilidades para aplicaciones en diversos campos, desde la construcción hasta la seguridad. Sin embargo, también nos obliga a reflexionar sobre la importancia de desarrollar estas tecnologías de manera ética y segura. El camino hacia una IA que no solo imagine el mundo, sino que participe activamente en él, está lleno de oportunidades y desafíos que apenas estamos empezando a comprender. Sin duda, nos mantendrá a todos pensando en las implicaciones de esta nueva era tecnológica.

Por Editor