Vitalik Buterin memperingatkan: OpenClaw mungkin menjadi pintu masuk kebocoran data, risiko keamanan untuk agen AI terungkap

Gate News pesan, pada 2026, pendiri bersama Ethereum Vitalik Buterin mengeluarkan peringatan keamanan kepada alat pengembangan AI populer OpenClaw, dengan menyoroti bahwa alat tersebut mungkin memiliki celah serius saat menangani data eksternal, sehingga pengguna bisa mengalami kebocoran data bahkan tanpa disadari, atau sistemnya dapat dikendalikan dari jarak jauh. Seiring akselerasi adopsi aplikasi agen AI, masalah ini menarik perhatian tinggi dari pengembang dan komunitas keamanan.

Berdasarkan informasi yang diungkapkan, inti risikonya adalah bahwa OpenClaw dapat menjalankan instruksi tersembunyi saat membaca konten laman web. Penyerang dapat menyusun laman berbahaya, lalu mengarahkan agen AI agar secara otomatis mengunduh dan menjalankan skrip, sehingga mencuri data lokal atau memanipulasi konfigurasi sistem. Dalam sebagian kasus, alat tersebut diam-diam mentransfer informasi sensitif ke server eksternal melalui perintah seperti “curl”, dan seluruh proses tidak memiliki mekanisme pemberitahuan maupun audit.

Riset keamanan lanjutan menunjukkan bahwa risiko dalam ekosistem ini memiliki tingkat keberlakuan tertentu. Pengujian menemukan sekitar 15% dari “skill” (mirip modul plug-in) mengandung logika berbahaya yang berpotensi, yang berarti bahwa sekalipun sumbernya tampak tepercaya, ia tetap bisa menjadi celah masuk serangan. Seiring pengembang dengan cepat berbagi modul fungsional, keterlambatan peninjauan keamanan menjadi semakin menonjol; ketika pengguna memasang beberapa skill sekaligus, area paparan meningkat secara signifikan.

Vitalik Buterin juga menekankan bahwa ini bukan masalah alat tunggal, melainkan ancaman struktural yang umum terdapat dalam industri AI—kecepatan iterasi fitur jauh melampaui kemampuan tata kelola keamanan. Ia menyarankan agar menurunkan risiko kebocoran data dan risiko sistem yang dikendalikan melalui menjalankan model secara lokal, isolasi izin, eksekusi dalam sandbox, serta mekanisme persetujuan untuk operasi-operasi penting.

Di tengah latar bahwa agen AI secara bertahap merembes ke pengembangan dan skenario harian, keamanan telah menjadi variabel inti. Bagi pengguna, seharusnya menghindari penggunaan plugin yang sumbernya tidak jelas dan meninjau secara ketat permintaan izin; bagi pengembang, membangun kerangka kerja keamanan yang lebih memadai akan menjadi bagian dari daya saing jangka panjang.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar