20B modelo pequeño de búsqueda alcanza la capacidad de GPT-5 y Opus: modelo de búsqueda Agent Context-1 de la base de datos vectorial Chroma de código abierto.

BlockBeatNews

Según el monitoreo de 1M AI News, el motor de búsqueda de agentes Chroma de código abierto lanzó Context-1, un modelo de búsqueda de agentes con 20 mil millones de parámetros, diseñado específicamente para tareas de recuperación en múltiples turnos. Los pesos del modelo se publican como código abierto bajo la licencia Apache 2.0, y también se publicó simultáneamente el código de la canalización de generación de datos sintéticos.

La finalidad de Context-1 es ser un subagente de recuperación (retrieval subagent): no responde directamente a las preguntas, sino que, mediante búsquedas en múltiples turnos, devuelve un conjunto de documentos de apoyo al modelo de inferencia aguas abajo. La tecnología central es el «contexto autoeditable» (self-editing context): durante el proceso de búsqueda, el modelo elimina activamente fragmentos de documentos no relevantes, libera espacio en la ventana de contexto limitada para las búsquedas posteriores y evita la degradación del rendimiento causada por la expansión del contexto.

El entrenamiento se divide en dos etapas: primero, se usan modelos grandes como Kimi K2.5 para generar trayectorias SFT y realizar un ajuste fino supervisado como fase de calentamiento; luego, mediante aprendizaje por refuerzo (basado en el algoritmo CISPO), se entrena en más de 8000 tareas sintéticas. El diseño de recompensas emplea un mecanismo de plan de estudios: en la etapa inicial, se fomenta la exploración amplia con una alta re-revocación (re-llamado temprano), y en la etapa posterior se incrementa gradualmente la precisión para promover conservar de forma selectiva. El modelo base es gpt-oss-20b, con adaptación mediante LoRA. En inferencia se ejecuta con cuantización MXFP4 en B200, alcanzando un rendimiento de 400-500 token/s.

En los cuatro benchmarks de dominios construidos por Chroma (web, finanzas, derecho y correo) y en los benchmarks públicos (BrowseComp-Plus, SealQA, FRAMES y HotpotQA), la versión en paralelo de cuatro rutas de Context-1 está a la par o cerca de modelos de vanguardia como GPT-5.2, Opus 4.5 y Sonnet 4.5 en el indicador de «tasa de aciertos de la respuesta final». Por ejemplo, en BrowseComp-Plus alcanza 0.96 (Opus 4.5 es 0.87, GPT-5.2 es 0.82), mientras que el costo y la latencia son solo una fracción de los de los otros. Es digno de destacar que el modelo se entrena únicamente en datos de la web, derecho y finanzas, pero en el dominio de correo —en el que no participó en el entrenamiento— también muestra una mejora significativa, lo que evidencia la transferibilidad entre dominios de su capacidad de búsqueda.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios