2026 sedang mengkonsolidasikan menjadi 3 taruhan besar yang jika salah satu gagal akan mengakibatkan keruntuhan jangka pendek dari gelembung
1. pusat data
anthropic, Xai skalasi secara agresif ke 1M gpu. keduanya berencana mencapai target tersebut pada Q2. model yang dilatih di infrastruktur ini perlu mengonfirmasi bahwa hukum skalasi komputasi masih efektif. jika tidak, ini akan menunjukkan bahwa kita perlu menjelajahi arsitektur model baru. ini juga bergantung pada infrastruktur energi (power shell) yang sedang diskalakan meskipun itu akan menjadi masalah selama dekade berikutnya apalagi tahun ini.
2. memori
kita hanya memiliki cukup memori tahun ini untuk mendukung 15GW gpu sementara hyperscalers menargetkan 30-40GW selama 2 tahun ke depan. kita cukup mepet di sini - jika Samsung, $MU atau sk hynix gagal dalam produksinya maka ini akan menghentikan taruhan nomor 1. juga siapa pun yang mengamankan sebagian besar kapasitas memori ini untuk membuat gpu akan memenangkan bagian terbesar dalam kapasitas produksi yang terbatas dan saat ini itu adalah $NVDA
3. infrastruktur yang lebih murah dan lebih efektif
nvidia gpu terbaru Vera Rubin 5X lebih performa tetapi yang penting 4X lebih efisien secara komputasi yang berarti biaya inferensi telah menurun drastis - frontier intelligence untuk sepeser pun! akan ada banyak komputasi yang tersedia untuk pelatihan tetapi yang lebih penting lagi menggunakan AI tahun ini, jadi paradoks Jevons perlu membuktikan dirinya melalui permintaan yang meningkat. jika gagal maka dua hal di atas akan runtuh. menurut saya, saya paling tidak khawatir tentang yang ini - saya pikir agent harnesses dan RL pasca pelatihan akan terus memperkuat model.
sangat optimis
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
2026 sedang mengkonsolidasikan menjadi 3 taruhan besar yang jika salah satu gagal akan mengakibatkan keruntuhan jangka pendek dari gelembung
1. pusat data
anthropic, Xai skalasi secara agresif ke 1M gpu. keduanya berencana mencapai target tersebut pada Q2. model yang dilatih di infrastruktur ini perlu mengonfirmasi bahwa hukum skalasi komputasi masih efektif. jika tidak, ini akan menunjukkan bahwa kita perlu menjelajahi arsitektur model baru. ini juga bergantung pada infrastruktur energi (power shell) yang sedang diskalakan meskipun itu akan menjadi masalah selama dekade berikutnya apalagi tahun ini.
2. memori
kita hanya memiliki cukup memori tahun ini untuk mendukung 15GW gpu sementara hyperscalers menargetkan 30-40GW selama 2 tahun ke depan. kita cukup mepet di sini - jika Samsung, $MU atau sk hynix gagal dalam produksinya maka ini akan menghentikan taruhan nomor 1. juga siapa pun yang mengamankan sebagian besar kapasitas memori ini untuk membuat gpu akan memenangkan bagian terbesar dalam kapasitas produksi yang terbatas dan saat ini itu adalah $NVDA
3. infrastruktur yang lebih murah dan lebih efektif
nvidia gpu terbaru Vera Rubin 5X lebih performa tetapi yang penting 4X lebih efisien secara komputasi yang berarti biaya inferensi telah menurun drastis - frontier intelligence untuk sepeser pun! akan ada banyak komputasi yang tersedia untuk pelatihan tetapi yang lebih penting lagi menggunakan AI tahun ini, jadi paradoks Jevons perlu membuktikan dirinya melalui permintaan yang meningkat. jika gagal maka dua hal di atas akan runtuh. menurut saya, saya paling tidak khawatir tentang yang ini - saya pikir agent harnesses dan RL pasca pelatihan akan terus memperkuat model.
sangat optimis