OpenAI meluncurkan model inferensi keamanan Sumber Terbuka gpt-oss-safeguard, mendukung klasifikasi yang didorong oleh kebijakan

robot
Pembuatan abstrak sedang berlangsung

PANews 29 Oktober, berita bahwa OpenAI hari ini merilis model inferensi keamanan sumber terbuka gpt-oss-safeguard (120b, 20b), yang memungkinkan pengembang untuk menyediakan kebijakan kustom untuk klasifikasi konten selama inferensi, dengan kesimpulan output model dan rantai inferensi. Model ini didasarkan pada bobot terbuka gpt-oss yang telah disesuaikan, menggunakan lisensi Apache 2.0, dan dapat diunduh dari Hugging Face. Penilaian internal menunjukkan bahwa akurasi multi-kebijakan lebih baik dibandingkan dengan gpt-5-thinking dan gpt-oss, dengan performa dataset eksternal mendekati Safety Reasoner. Keterbatasan termasuk: dalam banyak skenario penandaan berkualitas tinggi, pengklasifikasi tradisional masih lebih unggul, waktu inferensi dan daya komputasi yang lebih tinggi. ROOST akan membangun komunitas model dan menerbitkan laporan teknis.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)