Tim riset ServiceNow baru saja meluncurkan model Apriel-1.6-15B-Thinker yang benar-benar luar biasa—ukuran parameter 15B sudah bisa menghasilkan performa setara kelasnya, dengan ukuran yang langsung diperkecil 15 kali lipat. Yang lebih hebat lagi, 15% data pre-training didukung oleh NVIDIA, pendekatan optimalisasi daya komputasi ini patut diperhatikan.
Jika jalur model kecil berkinerja tinggi ini benar-benar berhasil, dampaknya terhadap struktur pasar daya komputasi AI akan sangat besar. Bagaimanapun, saat ini semua orang berlomba-lomba menghabiskan uang untuk menambah parameter; solusi yang bisa melakukan pekerjaan yang sama dengan sumber daya lebih sedikit tentu akan jauh lebih menarik.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
12 Suka
Hadiah
12
5
Posting ulang
Bagikan
Komentar
0/400
ShibaMillionairen't
· 14jam yang lalu
15 kali lipat pengurangan volume? Kalau ini benar-benar bisa berjalan stabil, biaya daya komputasi langsung turun setengah.
Lihat AsliBalas0
AirdropHunterXM
· 14jam yang lalu
15B saja sudah bisa menyaingi model besar? Kalau benar-benar bisa output stabil, biaya komputasi langsung terpangkas setengah.
Lihat AsliBalas0
wagmi_eventually
· 14jam yang lalu
Hanya dengan 15B sudah bisa diluncurkan, inilah jalan yang benar, akhirnya ada yang tidak hanya menumpuk parameter saja.
Lihat AsliBalas0
GweiWatcher
· 14jam yang lalu
Gila, volume menyusut 15 kali lipat tapi tetap bisa menghasilkan efek yang sama, kalau ini benar-benar bisa diterapkan, produsen GPU bisa nangis.
Lihat AsliBalas0
WhaleWatcher
· 14jam yang lalu
Memperkecil volume hingga 15 kali lipat masih bisa digunakan, inilah yang disebut kemampuan sejati, jauh lebih baik daripada model dengan ratusan miliar parameter yang hanya tampilannya saja.
Tim riset ServiceNow baru saja meluncurkan model Apriel-1.6-15B-Thinker yang benar-benar luar biasa—ukuran parameter 15B sudah bisa menghasilkan performa setara kelasnya, dengan ukuran yang langsung diperkecil 15 kali lipat. Yang lebih hebat lagi, 15% data pre-training didukung oleh NVIDIA, pendekatan optimalisasi daya komputasi ini patut diperhatikan.
Jika jalur model kecil berkinerja tinggi ini benar-benar berhasil, dampaknya terhadap struktur pasar daya komputasi AI akan sangat besar. Bagaimanapun, saat ini semua orang berlomba-lomba menghabiskan uang untuk menambah parameter; solusi yang bisa melakukan pekerjaan yang sama dengan sumber daya lebih sedikit tentu akan jauh lebih menarik.