HRM: La Pequeña IA Que Razona 100 Veces Más Rápido Que ChatGPT
Un nuevo modelo de inteligencia artificial desarrollado por Sapient Intelligence, con sede en Singapur, está desafiando la filosofía imperante de “más grande es mejor” en el desarrollo de la IA. Este innovador modelo, llamado Modelo de Razonamiento Jerárquico (HRM), se inspira en la arquitectura del cerebro humano para resolver problemas de razonamiento complejos con una eficiencia notable.
A diferencia de muchos modelos de lenguaje grandes contemporáneos, que a menudo se basan en una arquitectura “superficial” y en un encadenamiento de pensamiento (Chain-of-Thought, CoT) paso a paso, HRM adopta una estructura jerárquica. Los investigadores señalan que los métodos CoT pueden ser propensos a fallar si un solo paso sale mal. HRM, por el contrario, imita el enfoque del cerebro con dos módulos distintos e interconectados: un “planificador” de alto nivel que se dedica a un pensamiento lento y estratégico (similar a planificar un movimiento de ajedrez), y un “trabajador” de bajo nivel que realiza cálculos rápidos (como el reconocimiento facial instantáneo). Este diseño permite a HRM procesar problemas complejos en profundidad en una sola pasada, aprendiendo a razonar a partir de un conjunto limitado de ejemplos sin requerir un preentrenamiento extenso en vastos conjuntos de datos.
A pesar de su tamaño notablemente pequeño, de solo 27 millones de parámetros, HRM ha demostrado capacidades de razonamiento superiores en varios puntos de referencia. En el punto de referencia ARC-AGI, a menudo considerado una prueba de coeficiente intelectual para la IA, HRM logró una puntuación del 40,3%, superando significativamente a o3-mini-high de OpenAI (34,5%) y Claude 3.7 (21,2%). El rendimiento del modelo fue aún más pronunciado en tareas especializadas: resolvió con éxito el 55% de los rompecabezas Sudoku-Extreme y encontró el camino óptimo en el 74,5% de los laberintos de 30x30, mientras que Claude 3.7 y o3-mini-high obtuvieron un 0% en ambos. Para poner la eficiencia de HRM en perspectiva, el modelo GPT-1 original presentaba 117 millones de parámetros, más de cuatro veces el tamaño de HRM. Uno de los creadores de HRM, Guan Wang, destacó su diseño eficiente, señalando que puede entrenarse para resolver Sudokus de nivel profesional en solo dos horas de GPU.
Las implicaciones del éxito de HRM son sustanciales. Sugiere que la innovación arquitectónica puede producir avances significativos en la IA, reduciendo potencialmente la dependencia de recursos computacionales masivos. Esto podría conducir a una implementación de IA más asequible, permitiendo que los modelos avanzados funcionen eficientemente en una sola GPU, y tiempos de entrenamiento drásticamente más rápidos, medidos en horas en lugar de meses. Además, el diseño de HRM promete capacidades de razonamiento mejoradas sin la necesidad de una infraestructura informática prohibitivamente costosa. El código del modelo también es de código abierto, promoviendo un acceso más amplio y un mayor desarrollo.
Si bien algunos escépticos argumentan que las habilidades actuales de HRM podrían ser demasiado especializadas, su rendimiento inicial indica una dirección prometedora para la investigación de la IA. Este enfoque inspirado en el cerebro forma parte de una tendencia más amplia que explora arquitecturas de IA alternativas, incluidas las máquinas de pensamiento continuo de Sakana, los LLM de 1 bit (bitnets) y los modelos de difusión, con los que Google está experimentando activamente. Estas arquitecturas emergentes, aunque actualmente en sus primeras etapas, insinúan un futuro en el que la IA avanzada no se limite exclusivamente a grandes centros de datos, sino que pueda operar de manera eficiente en máquinas locales, democratizando el acceso a una inteligencia artificial potente.