Imagina pedirle a un robot que te ayude a hacer la maleta para un viaje a Londres… y que, antes de empezar, consulte la previsión del tiempo en Google, busque qué ropa es la más adecuada para la ciudad, y después seleccione los objetos correctos sin que tú tengas que decirle nada más. Parece ciencia ficción, pero es exactamente lo que acaba de presentar Google DeepMind con sus nuevos modelos Gemini Robotics.
Prepárate: no son robots cualquiera. Son robots con razonamiento, capaces de buscar información en internet en tiempo real y tomar decisiones en función de lo que encuentran. Y eso puede cambiar por completo cómo interactuamos con la robótica en los próximos años.
¿Qué ha lanzado Google exactamente?
Google presentó dos nuevos modelos:
-
Gemini Robotics 1.5
-
Gemini Robotics‑ER 1.5 (“ER” significa Embedded Reasoning, es decir, razonamiento incorporado)
Ambos modelos están diseñados para permitir que los robots piensen, planifiquen, razonen y actúen. Pero el segundo va un paso más allá: puede hacer búsquedas en internet, interpretar el contexto y anticiparse a lo que necesitas, como si fuera un ChatGPT con brazos robóticos.
Ejemplos que parecen de película
Durante las pruebas de demostración:
-
Un robot fue capaz de clasificar residuos según las normas locales. ¿Cómo lo hizo? Detectó que estaba en San Francisco, buscó en Google las regulaciones sobre reciclaje y actuó en consecuencia.
-
En otra prueba, le dijeron: “Prepárame para un viaje a Londres”. El robot buscó el pronóstico del clima, interpretó el contexto y preparó un bolso con lo necesario, incluyendo un gorro para el frío.
Hasta ahora, los robots estaban diseñados para tareas únicas y muy específicas. Con esta tecnología, se abre la posibilidad de tener robots que aprenden tareas nuevas sin necesidad de reprogramarlos cada vez. Y eso es un cambio radical.
¿Qué significa “razonamiento incorporado”?
Para no hacerlo complicado: antes, los robots funcionaban como recetas fijas. Si algo salía del guión, fallaban. Ahora, el modelo ER puede “pensar” los pasos que va a seguir antes de actuar, analizando el contexto, buscando soluciones y planificando como lo haría un humano… o como lo haría una IA avanzada.
Es decir, ya no reaccionan a órdenes simples como “gira a la izquierda”. Ahora pueden entender órdenes complejas como:
➡️ “Organiza los objetos de la cocina como se haría en un apartamento en Madrid.”
Y sí: el robot puede buscar en Google qué es lo típico en una cocina madrileña, y actuar en consecuencia.
Transferencia entre plataformas: aprende uno, aprenden todos
Otro punto clave: los robots que aprenden una tarea pueden transferir ese conocimiento a otros robots con diferentes estructuras. ¿Qué quiere decir esto?
-
Lo que aprende un robot con brazos pequeños, puede aplicarse a un robot humanoide grande.
-
Un robot ALOHA2 que aprende a servir un café puede transferir ese conocimiento al robot Apollo (más humanoide), sin volver a entrenar desde cero.
Esto reduce los costes y acelera la expansión de robots en diferentes industrias: logística, salud, manufactura, retail… Las posibilidades se multiplican.
¿Y cómo se accede a todo esto?
-
El modelo Gemini Robotics-ER 1.5 ya está disponible para desarrolladores a través de la API de Gemini.
-
El modelo físico (el que ejecuta los movimientos) todavía está limitado a socios seleccionados, probablemente por motivos de seguridad y precisión.
¿Qué significa esto para el futuro?
🔹 Robots más adaptables, que pueden razonar, buscar información, y actuar de forma autónoma.
🔹 Menos tiempo perdido en reprogramaciones técnicas: los robots entienden el lenguaje natural y el contexto.
🔹 Posibilidad de tener asistentes físicos en casa, en fábricas o en tiendas, que entienden tu necesidad y buscan cómo ayudarte en tiempo real.
Google ya venía trabajando en esto con su proyecto RoboBallet, que permitía coordinar hasta 8 robots de forma más eficiente. Pero esta vez, lo han llevado a otro nivel: robots inteligentes que no solo ejecutan, sino que piensan, buscan y actúan.
¿Debemos emocionarnos o tener miedo?
Un poco de ambas cosas. Por un lado, la robótica se vuelve más útil, más humana, más adaptativa. Por otro, empieza a operar con más autonomía, lo cual plantea preguntas éticas, de seguridad y de control. Pero lo importante es que Google DeepMind está abordando estos desarrollos con acceso restringido, pruebas controladas y supervisión.
🚀 Únete a nuestra comunidad de emprendedores en WhatsApp
Recibe cada nuevo post de ModoGOAT directamente en tu móvil, sin algoritmos, sin spam. Noticias, ideas, inspiración y oportunidades reales para crecer.
Unirme Al Canal De WhatsApp