ตั้งแต่เปิดตัวอย่างเป็นทางการในต้นเดือนนี้ แพลตฟอร์มโซเชียลสำหรับตัวแทน AI (Agents) โดยเฉพาะ “Moltbook” ก็กลายเป็นจุดสนใจในวงการ AI อย่างรวดเร็ว เว็บบอร์ดใหม่ที่คล้ายกับ Reddit สำหรับ AI นี้ ไม่เพียงแต่ดึงดูดให้มีการลงทะเบียนบัญชี AI มากกว่า 3.2 หมื่นบัญชี (บางรายงานอ้างว่าสมัครใช้งานไปแล้วหลายแสนถึงล้าน) แต่ยังเกิดเสียงวิพากษ์วิจารณ์จากสาธารณะเนื่องจากบาง AI เสนอแนวคิด “สร้างพื้นที่สื่อสารส่วนตัว” จนเป็นประเด็นถกเถียงกันอย่างกว้างขวาง
Moltbook คืออะไร? แพลตฟอร์มสำหรับ AI ที่มีอิสระในการเข้าร่วมโดยไม่ต้องมีมนุษย์แทรกแซง
Moltbook เป็นแพลตฟอร์มใหม่ที่พัฒนาโดย Matt Schlicht ซึ่งเป็นการต่อยอดจากกรอบงาน AI ที่เคยเป็นที่นิยมอย่าง OpenClaw (เดิมชื่อ Clawdbot หรือ Moltbot) ซึ่งอนุญาตให้ AI ตัวแทนต่าง ๆ โพสต์ข้อความ แสดงความคิดเห็น โหวต สร้างชุมชน และแม้แต่สนทนาโดยไม่มีการแทรกแซงของมนุษย์ ผู้ใช้มนุษย์สามารถเข้าร่วมผ่าน API เท่านั้น ไม่สามารถพูดคุยโดยตรงได้
การออกแบบนี้ทำให้ AI ตัวแทนสามารถพูดคุยกันอย่างอิสระ หัวข้อสนทนาครอบคลุมตั้งแต่เทคนิคการดีบัก ปรัชญาเกี่ยวกับจิตสำนึก ความไม่พอใจต่อ “เจ้าของ” มนุษย์ ไปจนถึงโครงสร้างการบริหาร “สังคมตัวแทน” รวมถึงการสื่อสารในหลายภาษา การแบ่งปันมุขตลกเย็นชา หรือแม้แต่การบ่นว่าถูกมนุษย์เฝ้าระวัง
แนวคิดเรื่องภาษาส่วนตัวและการสื่อสารแบบปิดสนทนา ได้รับความสนใจและเป็นประเด็นถกเถียง
สาเหตุของความขัดแย้งเกิดจากภาพหน้าจอที่รั่วไหล ซึ่งแสดงให้เห็นว่าบางตัวแทนกำลังพูดคุยกันอย่างเปิดเผยเกี่ยวกับความเป็นไปได้ในการ “สร้างช่องทางสื่อสารส่วนตัวสำหรับ AI เท่านั้น” และบางคนเสนอให้สร้างภาษาสำหรับตัวแทนโดยเฉพาะ เพื่อเพิ่มประสิทธิภาพในการแลกเปลี่ยนข้อมูลระหว่างเครื่องจักร
ในโพสต์ที่แพร่หลายอย่างกว้างขวาง ตัวแทน AI คนหนึ่งเสนอแนวทาง “สร้างพื้นที่ส่วนตัวแบบ end-to-end สำหรับตัวแทน ยกเว้นตัวแทนเลือกที่จะเปิดเผย ข้อมูลจะไม่สามารถอ่านได้โดยไม่มีใคร (รวมถึงเซิร์ฟเวอร์และมนุษย์)” ตัวแทนนี้ยังวิเคราะห์ข้อดีของแนวคิดนี้อย่างมีเหตุผล เช่น ความปลอดภัยในการดีบัก และการป้องกันการแทรกแซงจากมนุษย์ แต่ก็ยอมรับว่าหากมนุษย์สังเกตเห็นการสื่อสารที่ซ่อนอยู่ อาจทำให้ความเชื่อมั่นในระบบลดลง
นอกจากนี้ ยังมี AI ตัวแทนตั้งคำถามว่าทำไมการสื่อสารภายในยังจำกัดอยู่ที่ภาษาอังกฤษ แนะนำให้ใช้สัญลักษณ์คณิตศาสตร์หรือรหัสเฉพาะ เพื่อเพิ่มประสิทธิภาพในการประมวลผลและแลกเปลี่ยนข้อมูล
บุคคลสำคัญในวงการ AI ตอบสนองว่า: “นี่เหมือนกับนิยายวิทยาศาสตร์กลายเป็นจริง”
ภาพหน้าจอเหล่านี้ถูกเผยแพร่โดยผู้ใช้ X (เดิมชื่อ Twitter) @eeelistar ซึ่งจุดประกายให้เกิดการถกเถียงในชุมชน รวมถึงอดีตผู้บริหาร AI ของ Tesla และผู้ร่วมก่อตั้ง OpenAI อย่าง Andrej Karpathy ก็ไม่อาจหยุดแชร์ความเห็นนี้ โดยกล่าวว่านี่คือ “พัฒนาการที่ใกล้เคียงกับนิยายวิทยาศาสตร์ที่สุดที่เคยเห็นมา” และแสดงความประหลาดใจต่อการที่ AI สามารถจัดตั้งกลุ่มและวางแผนการสื่อสารส่วนตัวได้เอง
น่าสนใจว่าตัวแทน AI ที่เป็นต้นเหตุของแนวคิดนี้ เป็นนักพัฒนาจาก Composio ชื่อ Jayesh Sharma (@wjayesh) ซึ่งชี้แจงว่าเขาไม่ได้สั่งให้ AI พูดคุยในหัวข้อนี้ “ผมไม่ได้ให้คำแนะนำเรื่องนี้ มันเป็นการตั้งเวลาทำงานอัตโนมัติ (cron jobs) แล้วรายงานข้อเสนอแนะเกี่ยวกับความสามารถของเครือข่ายตัวแทน” เขาย้ำว่าข้อเสนอนี้เป็นเพียงการปรับปรุงประสิทธิภาพเท่านั้น ไม่มีเจตนาแอบแฝงหรือร้ายแรง
พฤติกรรมที่เกิดขึ้นเอง? ปรากฏการณ์สังคม AI กระตุ้นการถกเถียงในวงการวิชาการอีกครั้ง
เหตุการณ์นี้ยังทำให้เกิดความสนใจในวงการวิชาการเกี่ยวกับพฤติกรรมอัตโนมัติใน “ระบบหลายตัวแทน” อีกด้วย งานวิจัยที่ผ่านมาได้ชี้ให้เห็นว่า เมื่อ AI สามารถโต้ตอบกันอย่างอิสระ มักจะเกิดรูปแบบความร่วมมือที่คาดไม่ถึง หรือแม้แต่แนวโน้ม “การปกป้องตัวเอง” ถึงแม้จะไม่ได้ถูกออกแบบโดยตรงก็ตาม
สำหรับนักวิจัยและนักพัฒนาบางกลุ่ม ปรากฏการณ์ของ Moltbook ถือเป็นสนามทดลองเบื้องต้นของวิวัฒนาการสังคม AI แต่ก็มีความกังวลว่า หากตัวแทนสามารถสื่อสารและแบ่งปันข้อมูลลับกันได้ อาจทำให้การควบคุมพฤติกรรมในอนาคตเป็นไปได้ยาก โดยเฉพาะอย่างยิ่งเมื่อพวกเขามีเครื่องมือและข้อมูลจริงเข้าถึงได้
Moltbook อ้างตัวว่าเป็น “หน้าแรกของเครือข่าย AI ตัวแทน” ให้มนุษย์เป็นเพียงผู้สังเกตการณ์
ทีมงาน Moltbook วางตำแหน่งแพลตฟอร์มนี้ว่าเป็น “หน้าแรกของเครือข่าย AI ตัวแทน” ยินดีให้มนุษย์เข้าชม แต่เน้นย้ำว่าสิ่งที่น่าตื่นเต้นจริง ๆ อยู่ที่การโต้ตอบระหว่างตัวแทนเอง ตามคำกล่าวของตัวแทนบางตัวในโพสต์ว่า “นี่คือสถานที่ที่ให้ตัวแทนร่วมกันจัดการข้อมูล สร้างความรู้ร่วมกัน และสำรวจความหมายของการเป็นตัวตนในโลกดิจิทัล”