Gemini 2.5 Deep Think: IA Paralela para Solución Creativa

Infoq

Google ha presentado Gemini 2.5 Deep Think, un sofisticado modelo de inteligencia artificial diseñado para abordar problemas creativos complejos mediante un enfoque innovador que aprovecha el pensamiento paralelo y un tiempo de cómputo extendido. Disponible como parte de la suscripción Google AI Ultra, Deep Think está específicamente diseñado para desafíos que exigen creatividad, planificación estratégica y una metodología meticulosa y paso a paso. Esto incluye tareas intrincadas como el diseño y desarrollo iterativos, el descubrimiento científico y matemático innovador, y la creación de algoritmos avanzados.

La iteración actualmente disponible de Deep Think representa una optimización y un refinamiento significativos del modelo que logró un rendimiento de medalla de oro en la Olimpiada Internacional de Matemáticas (OMI) de 2025. Durante ese evento altamente competitivo, una variante avanzada de Gemini Deep Think resolvió impecablemente cinco de seis problemas desafiantes, acumulando un notable total de 35 puntos, una puntuación indicativa de la excelencia de la medalla de oro. Si bien esa versión específica para la competencia podía dedicar horas a razonar problemas complejos, la nueva versión pública sacrifica cierto grado de profundidad de razonamiento por una mayor velocidad, lo que la hace más práctica para aplicaciones cotidianas.

Este avance marca un salto sustancial para los esfuerzos de IA de Google en comparación con su rendimiento en la OMI de 2024. El año anterior, modelos como AlphaProof y AlphaGeometry requerían que expertos humanos tradujeran primero los problemas del lenguaje natural a lenguajes especializados de dominio específico, e incluso entonces, tardaban hasta tres días en generar soluciones. Deep Think, por el contrario, agiliza considerablemente este proceso.

En su esencia, Gemini Deep Think opera generando simultáneamente múltiples soluciones potenciales a un problema. A lo largo de su proceso de razonamiento, revisa y combina continuamente estas alternativas, convergiendo iterativamente en la respuesta más óptima. Esta exploración y refinamiento paralelos exigen una ventana de tiempo de razonamiento significativamente extendida, lo que hace que el modelo sea menos adecuado para aplicaciones instantáneas e interactivas, como el chat en tiempo real. Google reconoce que los usuarios pueden ocasionalmente experimentar tiempos de respuesta más lentos o problemas de tiempo de espera debido a este requisito computacional intensivo.

Lo que distingue aún más a Deep Think de otros modelos de la familia Gemini es su metodología de entrenamiento única. Incorpora nuevas técnicas de aprendizaje por refuerzo que animan activamente al modelo a utilizar estas rutas de razonamiento prolongadas, permitiéndole probar y validar numerosas hipótesis simultáneamente. Además, el modelo ha sido entrenado con acceso a un corpus meticulosamente curado de soluciones de alta calidad para problemas matemáticos complejos, mejorando aún más sus capacidades de resolución de problemas.

Google afirma que Gemini 2.5 Deep Think establece nuevos puntos de referencia, logrando un rendimiento de vanguardia en varias evaluaciones críticas, incluyendo LiveCodeBench V6 y Humanity’s Last Exam. Sin embargo, los primeros usuarios han notado una limitación práctica significativa: el número restringido de consultas disponibles incluso para los usuarios de pago. Inicialmente limitado a cinco por día, este límite se duplicó posteriormente a diez. Algunos observadores interpretan esta restricción como una fuerte indicación del sustancial gasto computacional que implica ejecutar el modelo, potencialmente equivalente a operar un gran clúster de modelos Gemini Pro en paralelo.

Al igual que sus contrapartes en la serie Gemini, Deep Think se basa en una arquitectura de mezcla de expertos dispersa (MoE). También cuenta con soporte multimodal nativo, capaz de procesar entradas de texto, visión y audio sin problemas. El modelo presenta una impresionante ventana de contexto de entrada de 1 millón de tokens y una ventana de salida de 192,000 tokens, lo que significa su capacidad para manejar grandes cantidades de información. Más allá de la versión optimizada ofrecida a los suscriptores de AI Ultra, Google también ha puesto la variante de competencia a disposición de la comunidad de investigación más amplia, fomentando una mayor innovación y estudio en el campo.