Berdasarkan pemantauan 1M AI News, basis data vektor sumber terbuka Chroma merilis Context-1, sebuah model penelusuran agen cerdas dengan 20 miliar parameter yang khusus untuk tugas penelusuran multi-babak. Bobot model dirilis sebagai open source di bawah lisensi Apache 2.0, dan kode pipeline generasi data sintetis juga dipublikasikan bersamaan.
Context-1 diposisikan sebagai subagen penelusuran (retrieval subagent): ia tidak menjawab pertanyaan secara langsung, melainkan mengembalikan sekumpulan dokumen pendukung untuk model penalaran hilir melalui penelusuran multi-babak. Teknologi inti adalah “self-editing context”, yaitu ketika melakukan pencarian, model secara aktif membuang fragmen dokumen yang tidak relevan, lalu menyediakan ruang untuk penelusuran berikutnya dalam jendela konteks yang terbatas, sehingga mencegah penurunan kinerja akibat pembengkakan konteks.
Pelatihan dibagi menjadi dua tahap: pertama, gunakan model skala besar seperti Kimi K2.5 untuk menghasilkan lintasan SFT sebagai pemanasan fine-tuning terawasi, lalu melalui reinforcement learning (berdasarkan algoritma CISPO) melatihnya pada lebih dari 8000 tugas sintetis. Desain hadiah menggunakan mekanisme kurikulum: pada tahap awal, early re-recall mendorong eksplorasi yang luas, lalu pada tahap akhir secara bertahap beralih untuk mendorong akurasi dengan selektif mempertahankan. Model dasar adalah gpt-oss-20b, menggunakan adaptasi LoRA; saat inferensi, ia dijalankan di B200 dengan kuantisasi MXFP4, dengan throughput mencapai 400-500 token/s.
Pada empat benchmark domain yang dibangun sendiri oleh Chroma (web, keuangan, hukum, email) dan benchmark publik (BrowseComp-Plus, SealQA, FRAMES, HotpotQA), versi paralel 4 arah Context-1 pada indikator “final answer hit rate” setara atau mendekati model-model terdepan seperti GPT-5.2, Opus 4.5, dan Sonnet 4.5. Misalnya, pada BrowseComp-Plus mencapai 0.96 (Opus 4.5 sebesar 0.87, GPT-5.2 sebesar 0.82), sementara biaya dan latensinya hanya sepersekian dari yang terakhir. Perlu diperhatikan bahwa model ini hanya dilatih pada data web, hukum, dan keuangan, tetapi pada domain email yang tidak ikut dilatih, kinerjanya juga menunjukkan peningkatan yang signifikan, yang mengindikasikan kemampuan migrasi lintas-domain dari penelusurannya.