Ingat ketika dewan mengeluarkan Sam dari posisi CEO? Mungkin mereka melihat sesuatu yang tidak kita lihat.
Sepertinya sebuah laboratorium AI besar sedang meluncurkan protokol keamanan baru untuk model mereka. Mereka secara khusus fokus pada membangun pengaman untuk mencegah output yang berbahaya. Pendekatan pelatihan sekarang mencakup mengajarkan model bagaimana menangani permintaan berisiko tanpa benar-benar mengeksekusinya.
Waktu yang menarik, bukan? Langkah-langkah keamanan ini datang setelah berbulan-bulan perdebatan internal tentang kecepatan pengembangan AI versus tanggung jawab. Kerangka teknisnya melibatkan penyaringan berlapis sebelum respons model apa pun dihasilkan.
Apa yang menarik perhatian saya: mereka tidak lagi hanya menyaring output. Data pelatihan itu sendiri sedang direstrukturisasi untuk menyematkan pertimbangan keamanan dari awal. Pendekatan yang berbeda dari moderasi reaktif yang pernah kita lihat sebelumnya.
Namun, pertanyaan tetap ada apakah perlindungan ini dapat mengikuti kecepatan evolusi sistem ini. Kesenjangan antara kemampuan dan kendali terus melebar.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Sam digulingkan dari posisi, sekarang tampaknya memang agak mencurigakan... Apakah kelompok ini benar-benar melakukan protokol keamanan atau hanya sekadar berpura-pura saja
Lihat AsliBalas0
GasFeeSobber
· 12-10 20:23
Haha, setelah urusan Sam baru membuat protokol keamanan? Agaknya agak terlambat sedikit.
Lihat AsliBalas0
YieldFarmRefugee
· 12-10 20:10
Pada akhirnya, masih takut juga, jika teringat segera lakukan perbaikan
Ingat ketika dewan mengeluarkan Sam dari posisi CEO? Mungkin mereka melihat sesuatu yang tidak kita lihat.
Sepertinya sebuah laboratorium AI besar sedang meluncurkan protokol keamanan baru untuk model mereka. Mereka secara khusus fokus pada membangun pengaman untuk mencegah output yang berbahaya. Pendekatan pelatihan sekarang mencakup mengajarkan model bagaimana menangani permintaan berisiko tanpa benar-benar mengeksekusinya.
Waktu yang menarik, bukan? Langkah-langkah keamanan ini datang setelah berbulan-bulan perdebatan internal tentang kecepatan pengembangan AI versus tanggung jawab. Kerangka teknisnya melibatkan penyaringan berlapis sebelum respons model apa pun dihasilkan.
Apa yang menarik perhatian saya: mereka tidak lagi hanya menyaring output. Data pelatihan itu sendiri sedang direstrukturisasi untuk menyematkan pertimbangan keamanan dari awal. Pendekatan yang berbeda dari moderasi reaktif yang pernah kita lihat sebelumnya.
Namun, pertanyaan tetap ada apakah perlindungan ini dapat mengikuti kecepatan evolusi sistem ini. Kesenjangan antara kemampuan dan kendali terus melebar.