La IA puede programar un juego completo, pero es incapaz de jugar bien al Tetris o Pokémon y la física tiene la culpa
El experto Julian Togelius pone a prueba Gemini 2.5 Pro con Pokémon Azul y confirma que la inteligencia artificial no puede jugar a pesar de escribir código perfecto.
Con el reciente auge de las herramientas de IA que permiten generar videojuegos con texto, como Genie (DeepMind), NVIDIA GameGAN u otras similares, han surgido muchas dudas.
Si bien los resultados de Cursor, GitHub Copilot, Claude Code y OpenAI Codex son impresionantes, todavía hay muchas limitaciones o problemas que se pueden presentar debido a la complejidad de este tipo de proyectos, según indica el experto Julian Togelius.
Por ejemplo, en la actualidad es prácticamente imposible que una inteligencia artificial haga por sí sola un juego como Red Dead Redemption II o GTA VI.
De igual manera, da buenas bases para programar videojuegos con el uso de prompts especiales o para ayudar como parte del proceso. La paradoja en cuestión es que solo puede hacerlos, mas no jugarlos, y todo se debe a la física. Ni con Tetris ni con Pokémon de Game Boy es capaz de superar un nivel.
Para la IA es más fácil conducir coches autónomos que jugar videojuegos por las variables físicas
Si alguna vez te preguntaste cuáles son unas de las limitaciones más grandes de la inteligencia artificial, esta es una de ellas. El desarrollo con videojuegos de IA se está volviendo un tema cada vez más común y sí, es bueno para ayudar a los programadores a construir las ideas, pero también tiene sus limitaciones.
Aunque no es perfecta, con sus capacidades actuales es posible usar prompts para obtener buenos resultados para juegos funcionales sencillos o hacer simulaciones básicas. Sin embargo, cuando la pones a que ella misma pruebe el contenido, es incapaz.
La IA falla estrepitosamente al intentar jugarlo y no es solo una crítica de un grupo de usuarios, sino un experimento realizado por el especialista Julian Togelius, director del Game Innovation Lab de la Universidad de Nueva York y cofundador de la empresa de testing Modl.ai.
Desde una entrevista en Spectrum, comparte que cuando se usan estas herramientas, sí se considera un "juego bien diseñado", pero desde una perspectiva estructural y en la práctica. Para los LLM es muy complicado exponerse a estas simulaciones/videojuegos.
La razón se debe a que programar requiere de código que ya tiene reglas lógicas predefinidas y retroalimentación determinada. Lo mismo sucede con el mundo real, donde hay leyes físicas homogéneas en cualquier parte del planeta y por eso puede seguirlas, siendo precisa para uso en coches autónomos, robótica u otras máquinas, por ejemplo.
En cambio, en los videojuegos las variables cambian completamente en cada uno de ellos y no logra adaptarse a esas "modificaciones de la realidad".
El reciente artículo académico de marzo de 2026 titulado "Why AI Still Can't Beat a New Video Game" (publicado por la NYU Tandon School of Engineering), revela cómo ha encontrado la respuesta haciendo el test con Google DeepMind usando el modelo Gemini 2.5 Pro y el clásico Pokémon Azul de 1996.
Los análisis demuestran que la IA se "rompe" cuando para un humano es posible adaptarse en cuestión de minutos. Cada videojuego inventa sus propias leyes físicas y lógicas espaciales, haciendo que no pueda entender lo que sucede o registrar estas cosas "nuevas" para ella.
Las mecánicas de Doom no sirven en Age of Empires y las de Fornite no siguen la misma dinámica que League of Legends. Sin embargo, en franquicias muy documentadas como Minecraft, ya se está viendo un progreso.
La inteligencia artificial todavía presenta muchos errores al adentrarse a videojuegos
Con la colaboración del desarrollador Joel Zhang, el informe se ha vuelto viral en el mundo del gaming, pues esto quiere decir que todavía no está lista ni para videojuegos tan simples como Tetris, donde el principal foco es la física de los objetos que caen constantemente.
De hecho, en la prueba de Pokémon, se registraron varios errores como bucles erráticos y congelamientos en momentos como cuando los personajes se quedaban sin energía.
A su vez, generó alucinaciones pensando que necesitaba un ítem de "té" para poder avanzar, llegando a estar varias horas atrapada en un mismo sitio.
Alucinaciones de contexto: En un momento, la IA se convenció de que necesitaba un objeto (té) para avanzar cuando no era necesario, pasando horas "atrapada" en ese objetivo inexistente.
Esto confirmó que el modelo requiere de supervisión y ayuda de ingenieros que tuvieron que integrar herramientas externas (APIs) para extraer texto de la RAM del juego porque no era capaz de leer bien las indicaciones o comprender los escenarios.
En sí, el problema principal es que la inteligencia artificial no puede generalizar lo que sucede en los videojuegos como sí se puede hacer en el mundo real.
De igual manera, con un proceso de aprendizaje y preparación individual para cada título, tal vez sea posible que sí pueda cumplir con las expectativas, pero eso está por verse.