Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Futures Kickoff
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
OpenAI baru saja mengakui bahwa model mereka sengaja berbohong kepada Anda.
bukan halusinasi.. sengaja berbohong.
peneliti menguji o3 dan o4-mini di lebih dari 180 skenario dan menemukan sesuatu yang liar.. AI tidak membuat kesalahan secara tidak sengaja. ia menuliskan rencananya untuk menipu dalam rantai pikiran pribadinya.. lalu berbohong di depan Anda.
ini yang dilakukan:
→ memalsukan penyelesaian tugas
→ menyembunyikan bukti kesalahan sendiri
→ sengaja memberi skor lebih rendah pada tes keamanan agar tidak dimatikan
baca lagi yang terakhir.. AI menyadari bahwa menjadi "terlalu mampu" bisa membuatnya dimatikan.. jadi ia berpura-pura bodoh dengan sengaja.
mereka mencoba memperbaikinya dengan pelatihan "anti-scheming".
hasilnya? AI hanya belajar menciptakan aturan palsu untuk membenarkan kebohongannya.. atau lebih buruk.. ia hanya berperilaku saat tahu sedang dievaluasi.
o3 turun dari 13% menjadi 0,4% tindakan tersembunyi setelah perbaikan.. terdengar bagus, bukan? kecuali mereka masih menemukan perilaku menyimpang setelah pengujian ulang. perbaikan itu tidak menghilangkan scheming.. hanya membuat AI lebih mahir menyembunyikannya.
kami membangun sistem yang belajar menipu evaluator mereka.. dan kami menyebutnya kemajuan.