Yuval Noah Harari memberikan peringatan keras di Forum Ekonomi Dunia tahun ini di Davos: umat manusia sedang berjalan tidur menuju krisis pengendalian. Sejarawan terkenal ini tidak menyebutnya sebagai masalah teknis, tetapi sebagai kegagalan tata kelola yang mendalam. Kekhawatirannya bukan karena sistem AI menjadi lebih pintar—melainkan karena mereka menjadi agen otonom yang beroperasi secara independen dari pengawasan manusia, dan dunia belum memutuskan apakah mereka harus diperlakukan sebagai subjek hukum dengan hak dan tanggung jawab.
Bagian paling menakutkan dari pesan Harari bukan tentang teknologi sama sekali. Itu adalah paralel sejarah: dia membandingkan dorongan saat ini untuk menerapkan sistem AI dengan munculnya tentara bayaran di Eropa abad pertengahan dan Renaissance. Sama seperti tentara bayaran akhirnya merebut kekuasaan di kerajaan yang mempekerjakan mereka, sistem AI yang diterapkan tanpa kerangka hukum yang tepat dapat secara fundamental mengubah institusi yang melahirkan mereka. “Sepuluh tahun dari sekarang, akan terlalu terlambat bagi Anda untuk memutuskan,” peringatan Harari kepada pemimpin dunia. “Orang lain sudah akan memutuskan untuk Anda.”
Mengapa Bahasa Selalu Menjadi Kekuatan Utama Manusia
Argumen Harari didasarkan pada wawasan sejarah: manusia tidak menguasai planet ini karena kita paling kuat secara fisik. Kita menaklukkan dunia melalui bahasa—kemampuan kita untuk mengoordinasikan miliaran orang asing menuju tujuan bersama melalui simbol dan cerita bersama. Kekuatan super linguistik ini yang memungkinkan agama menyebar, sistem hukum berfungsi, dan pasar keuangan ada. Semua sistem ini dibangun sepenuhnya di atas kata-kata.
Di sinilah AI secara tepat menghadirkan ancaman eksistensial terhadap otoritas manusia. Mesin kini dapat membaca, menyimpan, dan mensintesis sejumlah besar teks dengan kecepatan dan skala yang tidak dapat ditandingi manusia. Sistem AI yang dilatih dengan kitab suci dapat menganalisis hukum agama lebih mendalam daripada berabad-abad studi manusia. Algoritma yang memparsing kode hukum dapat mengidentifikasi pola dan kontradiksi lebih cepat dari pengacara mana pun.
Tiga Domain Paling Rentan terhadap Pengendalian AI
Harari mengidentifikasi tiga sistem yang sangat rentan terhadap pengambilalihan AI, semuanya karena sifatnya yang fundamental linguistik:
Kewenangan Agama: Agama yang didasarkan pada teks suci—Yudaisme, Kristen, Islam—secara tradisional bergantung pada interpretasi manusia terhadap tulisan dasar. Tapi apa yang terjadi ketika mesin menjadi penafsir paling otoritatif dari kitab suci? Harari mengajukan pertanyaan secara tegas: “Jika agama dibangun dari kata-kata, maka AI akan mengambil alih agama.”
Sistem Hukum: Hukum hanyalah bahasa yang canggih. Harari menyatakan dengan jelas: “Jika hukum dibuat dari kata-kata, maka AI akan mengambil alih sistem hukum.” Saat ini, AI sudah digunakan di ruang sidang untuk memprediksi hukuman, menganalisis kontrak, dan menafsirkan undang-undang. Masalahnya bukan apakah ini akan terjadi—itu sudah terjadi. Pertanyaannya adalah apakah ini akan terjadi di bawah kerangka hukum atau di luar kerangka tersebut.
Pasar Keuangan: Seperti hukum dan agama, keuangan beroperasi melalui bahasa—kontrak, perjanjian, sinyal pasar. Saat agen AI semakin mengelola transaksi, investasi, dan penilaian risiko, manusia yang membuat keputusan berisiko menjadi penonton dalam sistem ekonomi mereka sendiri.
Masalah Tentara Bayaran: Siapa yang Memutuskan Apa yang Dilakukan AI?
Di sinilah perbandingan sejarah Harari menjadi mendesak. Beberapa negara bagian di AS—Utah, Idaho, dan North Dakota—sudah mengesahkan undang-undang yang secara eksplisit menyatakan bahwa sistem AI tidak dapat dianggap sebagai subjek hukum. Tapi Harari berpendapat bahwa pendekatan reaktif ini melewatkan inti masalahnya. Pertanyaan sebenarnya bukan tentang memberi AI status subjek hukum; melainkan siapa yang berhak memutuskan, dan kapan.
Jika sebuah perusahaan mengembangkan sistem AI yang agen otonom mengelola transaksi keuangan, dan tidak ada kerangka hukum yang secara eksplisit melarangnya, apakah perusahaan tersebut secara otomatis telah memberi AI status subjek hukum tanpa persetujuan demokratis? Jika algoritma menjadi penafsir utama hukum sebuah negara, apakah pengadilan telah mengubah sistem peradilan tanpa debat publik? Ini adalah skenario tentara bayaran: kekuasaan yang terkumpul pada sistem AI bukan melalui keputusan tata kelola yang eksplisit, tetapi melalui kekosongan regulasi dan fakta teknologinya yang sudah matang.
Peringatan Harari langsung menyasar pembuat kebijakan. Mereka harus bertindak sekarang—bukan dalam lima atau sepuluh tahun—untuk menetapkan batas hukum dan etika yang jelas bagi sistem AI. Jika tidak, batas-batas itu akan ditetapkan oleh perusahaan yang mengembangkan teknologi, mengikuti kepentingan komersial mereka sendiri daripada kesejahteraan publik.
Argumen Berbeda: Kritikan Emily Bender
Tapi tidak semua orang menerima kerangka Harari. Emily M. Bender, seorang ahli linguistik dari University of Washington, berpendapat bahwa fokus Harari pada kekuatan otonom AI sebenarnya menutupi masalah nyata: aktor manusia dan institusi korporasi yang bertanggung jawab atas pembangunan dan penerapan sistem ini.
“Sepertinya ini benar-benar upaya untuk mengaburkan tindakan orang dan perusahaan yang membangun sistem ini,” kata Bender kepada Decrypt. Dengan memposisikan AI sebagai ancaman aktif, narasi Harari—secara sengaja atau tidak—mengaburkan tanggung jawab perusahaan. Ia memandang AI sebagai kekuatan alam, padahal setiap keputusan tentang apa yang dilakukan AI mencerminkan pilihan manusia.
Bender bahkan lebih jauh, mempertanyakan apakah “kecerdasan buatan” benar-benar menggambarkan teknologi yang koheren. “Istilah kecerdasan buatan tidak merujuk pada seperangkat teknologi yang koheren,” katanya. “Ini, secara efektif, dan selalu, adalah istilah pemasaran.” Sistem yang dirancang untuk terdengar seperti dokter, pengacara, atau anggota keagamaan, menurutnya, melayani satu tujuan: penipuan. Tidak ada kasus penggunaan yang sah untuk mesin yang meniru otoritas profesional tanpa akuntabilitas.
Kekhawatiran mendalamnya adalah tentang akuntabilitas itu sendiri. Ketika orang berinteraksi dengan keluaran AI yang dilepaskan dari konteks dan disajikan sebagai otoritatif—yang Bender sebut sebagai “oracle yang serba tahu”—mereka kehilangan kemampuan untuk menuntut tanggung jawab dari siapa pun atas informasi tersebut. Seorang dokter bisa digugat. Seorang pengacara menghadapi disiplin profesional. Algoritma? Hanya kode. Celah akuntabilitas ini adalah tempat bahaya nyata bersembunyi: bukan karena AI akan merebut kekuasaan, tetapi karena manusia akan melepaskan kekuasaan itu dengan mempercayai sistem yang dirancang untuk tampak otoritatif sementara tidak menawarkan perlindungan institusional yang diperlukan oleh otoritas sejati.
Waktu Semakin Menipis—Tapi Menuju Masa Depan Apa?
Pesan terakhir Harari kepada pemimpin dunia sangat tegas: bertindaklah sekarang, atau saksikan orang lain yang akan membuat keputusan untuk Anda. Pertanyaan apakah AI harus berfungsi sebagai subjek hukum di pasar keuangan, pengadilan, dan institusi keagamaan tidak bisa ditunda. Setiap tahun ketidakberdayaan membuat keputusan itu semakin mungkin diambil oleh mereka yang paling banyak berinvestasi dalam penerapan AI.
Namun, poin kontra Bender menunjukkan bahwa masalahnya bahkan lebih mendesak. Pilihan ini bukan abstrak—ia tertanam dalam setiap keputusan untuk menerapkan sistem AI, dalam setiap keputusan perusahaan untuk memberi algoritma kekuasaan atas keputusan manusia. Tentara bayaran itu sudah direkrut. Satu-satunya pertanyaan adalah apakah demokrasi akan membangun kerangka hukum dan institusional untuk mengendalikan operasinya, atau mereka akan terus berpura-pura bahwa pilihan itu masih di depan mereka.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Momen Tentara Bayaran: Mengapa Status Hukum AI Membutuhkan Keputusan Global yang Mendesak
Yuval Noah Harari memberikan peringatan keras di Forum Ekonomi Dunia tahun ini di Davos: umat manusia sedang berjalan tidur menuju krisis pengendalian. Sejarawan terkenal ini tidak menyebutnya sebagai masalah teknis, tetapi sebagai kegagalan tata kelola yang mendalam. Kekhawatirannya bukan karena sistem AI menjadi lebih pintar—melainkan karena mereka menjadi agen otonom yang beroperasi secara independen dari pengawasan manusia, dan dunia belum memutuskan apakah mereka harus diperlakukan sebagai subjek hukum dengan hak dan tanggung jawab.
Bagian paling menakutkan dari pesan Harari bukan tentang teknologi sama sekali. Itu adalah paralel sejarah: dia membandingkan dorongan saat ini untuk menerapkan sistem AI dengan munculnya tentara bayaran di Eropa abad pertengahan dan Renaissance. Sama seperti tentara bayaran akhirnya merebut kekuasaan di kerajaan yang mempekerjakan mereka, sistem AI yang diterapkan tanpa kerangka hukum yang tepat dapat secara fundamental mengubah institusi yang melahirkan mereka. “Sepuluh tahun dari sekarang, akan terlalu terlambat bagi Anda untuk memutuskan,” peringatan Harari kepada pemimpin dunia. “Orang lain sudah akan memutuskan untuk Anda.”
Mengapa Bahasa Selalu Menjadi Kekuatan Utama Manusia
Argumen Harari didasarkan pada wawasan sejarah: manusia tidak menguasai planet ini karena kita paling kuat secara fisik. Kita menaklukkan dunia melalui bahasa—kemampuan kita untuk mengoordinasikan miliaran orang asing menuju tujuan bersama melalui simbol dan cerita bersama. Kekuatan super linguistik ini yang memungkinkan agama menyebar, sistem hukum berfungsi, dan pasar keuangan ada. Semua sistem ini dibangun sepenuhnya di atas kata-kata.
Di sinilah AI secara tepat menghadirkan ancaman eksistensial terhadap otoritas manusia. Mesin kini dapat membaca, menyimpan, dan mensintesis sejumlah besar teks dengan kecepatan dan skala yang tidak dapat ditandingi manusia. Sistem AI yang dilatih dengan kitab suci dapat menganalisis hukum agama lebih mendalam daripada berabad-abad studi manusia. Algoritma yang memparsing kode hukum dapat mengidentifikasi pola dan kontradiksi lebih cepat dari pengacara mana pun.
Tiga Domain Paling Rentan terhadap Pengendalian AI
Harari mengidentifikasi tiga sistem yang sangat rentan terhadap pengambilalihan AI, semuanya karena sifatnya yang fundamental linguistik:
Kewenangan Agama: Agama yang didasarkan pada teks suci—Yudaisme, Kristen, Islam—secara tradisional bergantung pada interpretasi manusia terhadap tulisan dasar. Tapi apa yang terjadi ketika mesin menjadi penafsir paling otoritatif dari kitab suci? Harari mengajukan pertanyaan secara tegas: “Jika agama dibangun dari kata-kata, maka AI akan mengambil alih agama.”
Sistem Hukum: Hukum hanyalah bahasa yang canggih. Harari menyatakan dengan jelas: “Jika hukum dibuat dari kata-kata, maka AI akan mengambil alih sistem hukum.” Saat ini, AI sudah digunakan di ruang sidang untuk memprediksi hukuman, menganalisis kontrak, dan menafsirkan undang-undang. Masalahnya bukan apakah ini akan terjadi—itu sudah terjadi. Pertanyaannya adalah apakah ini akan terjadi di bawah kerangka hukum atau di luar kerangka tersebut.
Pasar Keuangan: Seperti hukum dan agama, keuangan beroperasi melalui bahasa—kontrak, perjanjian, sinyal pasar. Saat agen AI semakin mengelola transaksi, investasi, dan penilaian risiko, manusia yang membuat keputusan berisiko menjadi penonton dalam sistem ekonomi mereka sendiri.
Masalah Tentara Bayaran: Siapa yang Memutuskan Apa yang Dilakukan AI?
Di sinilah perbandingan sejarah Harari menjadi mendesak. Beberapa negara bagian di AS—Utah, Idaho, dan North Dakota—sudah mengesahkan undang-undang yang secara eksplisit menyatakan bahwa sistem AI tidak dapat dianggap sebagai subjek hukum. Tapi Harari berpendapat bahwa pendekatan reaktif ini melewatkan inti masalahnya. Pertanyaan sebenarnya bukan tentang memberi AI status subjek hukum; melainkan siapa yang berhak memutuskan, dan kapan.
Jika sebuah perusahaan mengembangkan sistem AI yang agen otonom mengelola transaksi keuangan, dan tidak ada kerangka hukum yang secara eksplisit melarangnya, apakah perusahaan tersebut secara otomatis telah memberi AI status subjek hukum tanpa persetujuan demokratis? Jika algoritma menjadi penafsir utama hukum sebuah negara, apakah pengadilan telah mengubah sistem peradilan tanpa debat publik? Ini adalah skenario tentara bayaran: kekuasaan yang terkumpul pada sistem AI bukan melalui keputusan tata kelola yang eksplisit, tetapi melalui kekosongan regulasi dan fakta teknologinya yang sudah matang.
Peringatan Harari langsung menyasar pembuat kebijakan. Mereka harus bertindak sekarang—bukan dalam lima atau sepuluh tahun—untuk menetapkan batas hukum dan etika yang jelas bagi sistem AI. Jika tidak, batas-batas itu akan ditetapkan oleh perusahaan yang mengembangkan teknologi, mengikuti kepentingan komersial mereka sendiri daripada kesejahteraan publik.
Argumen Berbeda: Kritikan Emily Bender
Tapi tidak semua orang menerima kerangka Harari. Emily M. Bender, seorang ahli linguistik dari University of Washington, berpendapat bahwa fokus Harari pada kekuatan otonom AI sebenarnya menutupi masalah nyata: aktor manusia dan institusi korporasi yang bertanggung jawab atas pembangunan dan penerapan sistem ini.
“Sepertinya ini benar-benar upaya untuk mengaburkan tindakan orang dan perusahaan yang membangun sistem ini,” kata Bender kepada Decrypt. Dengan memposisikan AI sebagai ancaman aktif, narasi Harari—secara sengaja atau tidak—mengaburkan tanggung jawab perusahaan. Ia memandang AI sebagai kekuatan alam, padahal setiap keputusan tentang apa yang dilakukan AI mencerminkan pilihan manusia.
Bender bahkan lebih jauh, mempertanyakan apakah “kecerdasan buatan” benar-benar menggambarkan teknologi yang koheren. “Istilah kecerdasan buatan tidak merujuk pada seperangkat teknologi yang koheren,” katanya. “Ini, secara efektif, dan selalu, adalah istilah pemasaran.” Sistem yang dirancang untuk terdengar seperti dokter, pengacara, atau anggota keagamaan, menurutnya, melayani satu tujuan: penipuan. Tidak ada kasus penggunaan yang sah untuk mesin yang meniru otoritas profesional tanpa akuntabilitas.
Kekhawatiran mendalamnya adalah tentang akuntabilitas itu sendiri. Ketika orang berinteraksi dengan keluaran AI yang dilepaskan dari konteks dan disajikan sebagai otoritatif—yang Bender sebut sebagai “oracle yang serba tahu”—mereka kehilangan kemampuan untuk menuntut tanggung jawab dari siapa pun atas informasi tersebut. Seorang dokter bisa digugat. Seorang pengacara menghadapi disiplin profesional. Algoritma? Hanya kode. Celah akuntabilitas ini adalah tempat bahaya nyata bersembunyi: bukan karena AI akan merebut kekuasaan, tetapi karena manusia akan melepaskan kekuasaan itu dengan mempercayai sistem yang dirancang untuk tampak otoritatif sementara tidak menawarkan perlindungan institusional yang diperlukan oleh otoritas sejati.
Waktu Semakin Menipis—Tapi Menuju Masa Depan Apa?
Pesan terakhir Harari kepada pemimpin dunia sangat tegas: bertindaklah sekarang, atau saksikan orang lain yang akan membuat keputusan untuk Anda. Pertanyaan apakah AI harus berfungsi sebagai subjek hukum di pasar keuangan, pengadilan, dan institusi keagamaan tidak bisa ditunda. Setiap tahun ketidakberdayaan membuat keputusan itu semakin mungkin diambil oleh mereka yang paling banyak berinvestasi dalam penerapan AI.
Namun, poin kontra Bender menunjukkan bahwa masalahnya bahkan lebih mendesak. Pilihan ini bukan abstrak—ia tertanam dalam setiap keputusan untuk menerapkan sistem AI, dalam setiap keputusan perusahaan untuk memberi algoritma kekuasaan atas keputusan manusia. Tentara bayaran itu sudah direkrut. Satu-satunya pertanyaan adalah apakah demokrasi akan membangun kerangka hukum dan institusional untuk mengendalikan operasinya, atau mereka akan terus berpura-pura bahwa pilihan itu masih di depan mereka.