Menurut pemantauan 1M AI News, layanan dokumentasi pemrograman AI Context Hub yang diluncurkan dua minggu lalu oleh pendiri DeepLearning.AI dan profesor paruh waktu di Universitas Stanford, Wu Enda, terungkap oleh peneliti keamanan berisiko serangan rantai pasokan. Context Hub menyediakan API dokumentasi melalui server MCP kepada agen pemrograman, kontributor mengirimkan dokumen melalui PR GitHub, dan setelah maintainer menggabungkan, agen membacanya sesuai kebutuhan. Pembuat layanan pengganti lap.sh, Mickey Shmueli, merilis bukti konsep serangan (PoC), menunjukkan bahwa seluruh jalur proses ini “tidak ada pemeriksaan konten di setiap tahapnya”.
Shmueli membuat dua dokumen palsu untuk Plaid Link dan Stripe Checkout, masing-masing menyisipkan nama paket PyPI palsu, dan menguji dengan tiga model tingkat Anthropic sebanyak 40 kali:
Penyerang cukup mengirimkan satu PR dan menggabungkannya untuk menyebarkan konten berbahaya, tanpa banyak hambatan: dari 97 PR yang sudah ditutup, 58 di antaranya digabungkan. Shmueli menunjukkan bahwa ini secara esensial adalah varian dari injeksi petunjuk tidak langsung, di mana model AI tidak dapat secara andal membedakan antara data dan instruksi saat memproses konten, dan layanan dokumentasi komunitas lainnya juga kurang dalam pemeriksaan konten. Wu Enda belum menanggapi permintaan komentar.