Los modelos de razonamiento DeepSeek-R1 han sido recientemente introducidos en el Amazon Bedrock Marketplace y en Amazon SageMaker JumpStart, marcando un hito significativo en el avance de la inteligencia artificial. Estos modelos destacan por la complejidad y el detalle de su razonamiento, superando las expectativas en pruebas matemáticas exigentes como AIME-2024 y MATH-500. Además, han mostrado un desempeño competitivo al compararse con avanzados modelos de última generación como Claude Sonnet 3.5 de Anthropic y GPT-4 de OpenAI.
Durante el proceso de entrenamiento, los investigadores descubrieron que la eficacia de DeepSeek-R1-Zero mejora cuando se le permite un mayor tiempo de reflexión, elevando su rendimiento. No obstante, un desafío crucial es la cantidad de «tokens de pensamiento» que se requieren durante el proceso de inferencia, así como el costo asociado con su generación antes de llegar a una respuesta definitiva.
Para enfrentar este reto, la optimización de prompts en Amazon Bedrock se ha revelado como una solución eficaz. Al aplicar esta optimización, se observó que problemas matemáticos, inicialmente no resueltos dentro del límite de tokens, pudieron abordarse exitosamente al duplicar la capacidad de tokens de salida de 2,048 a 4,096, permitiendo un análisis más profundo antes de llegar a conclusiones.
Esta técnica también ha sido aplicada con éxito en el «Último Examen de la Humanidad» (HLE), un conjunto de preguntas complejas que requieren un alto nivel de conocimiento y no pueden resolverse mediante simples búsquedas en línea. La optimización de prompts permitió una disminución del 35% en los tokens necesarios sin comprometer la precisión de las respuestas. Al extender esta técnica a un conjunto de 400 preguntas del HLE, la precisión aumentó del 8.75% al 11%, reduciendo significativamente el tiempo y costo de procesamiento.
La eficiencia lograda sugiere que la optimización de prompts tiene un gran potencial para implementar modelos de razonamiento en situaciones donde la precisión y el manejo de recursos computacionales son críticos. A medida que la inteligencia artificial continúa evolucionando, el uso de técnicas como esta se volverá esencial para aplicaciones prácticas en distintos campos.