การสนทนาเกี่ยวกับ AI ได้พัฒนาไปจากการตั้งคำถามเกี่ยวกับความเกี่ยวข้องของมัน ไปสู่การมุ่งเน้นในการทำให้มันเชื่อถือได้และมีประสิทธิภาพมากขึ้นเมื่อการใช้งานของมันแพร่หลายมากขึ้น ไมเคิล ไฮน์ริช มองเห็นอนาคตที่ AI จะช่วยสร้างสังคมหลังความขาดแคลน ทำให้บุคคลหลุดพ้นจากงานที่น่าเบื่อหน่ายและสามารถทำกิจกรรมที่สร้างสรรค์มากขึ้น
การสนทนาเกี่ยวกับปัญญาประดิษฐ์ (AI) ได้เปลี่ยนไปอย่างมีพื้นฐานแล้ว คำถามไม่ใช่เกี่ยวกับความเกี่ยวข้องอีกต่อไป แต่เป็นวิธีทำให้มันมีความน่าเชื่อถือ โปร่งใส และมีประสิทธิภาพมากขึ้นเมื่อการใช้งานเริ่มเป็นเรื่องปกติในทุกภาคส่วน.
ปัจจุบัน รูปแบบ AI ที่ถูกควบคุมโดยโมเดล “กล่องดำ” แบบศูนย์กลางและศูนย์ข้อมูลขนาดใหญ่ที่เป็นเจ้าของ ยังเผชิญกับแรงกดดันที่เพิ่มขึ้นจากความกังวลเกี่ยวกับอคติและการควบคุมแบบผูกขาด สำหรับหลายคนในพื้นที่ Web3 ทางออกไม่ได้อยู่ที่การควบคุมที่เข้มงวดมากขึ้นของระบบปัจจุบัน แต่เป็นการกระจายอำนาจของโครงสร้างพื้นฐานที่อยู่เบื้องหลังอย่างสมบูรณ์.
ประสิทธิภาพของโมเดล AI ที่ทรงพลังเหล่านี้ ตัวอย่างเช่น ถูกกำหนดโดยคุณภาพและความสมบูรณ์ของข้อมูลที่ใช้ในการฝึกอบรมซึ่งเป็นปัจจัยที่ต้องสามารถตรวจสอบได้และติดตามได้เพื่อป้องกันข้อผิดพลาดระบบและการหลอกลวงของ AI เมื่อความเสี่ยงเพิ่มสูงขึ้นสำหรับอุตสาหกรรมต่างๆ เช่น การเงินและการดูแลสุขภาพ ความจำเป็นในการมีพื้นฐานที่เชื่อถือได้และโปร่งใสสำหรับ AI จึงกลายเป็นสิ่งสำคัญ
ไมเคิล ไฮน์ริช, นักธุรกิจที่มีประสบการณ์และผู้สำเร็จการศึกษาจากสแตนฟอร์ด, เป็นหนึ่งในผู้ที่นำทีมในการสร้างรากฐานนั้น ในฐานะ CEO ของ 0G Labs, เขากำลังพัฒนาสิ่งที่เขาอธิบายว่าเป็น AI chain ที่ใหญ่ที่สุดและแรกของโลก โดยมีภารกิจที่ระบุไว้ว่าจะทำให้ AI กลายเป็นสินค้าสาธารณะที่ปลอดภัยและสามารถตรวจสอบได้ ก่อนหน้านี้เขาเคยก่อตั้ง Garten, บริษัทที่ได้รับการสนับสนุนจาก YCombinator, และทำงานที่ Microsoft, Bain, และ Bridgewater Associates, ไฮน์ริชกำลังนำความเชี่ยวชาญของเขามาใช้ในการแก้ปัญหาด้านสถาปัตยกรรมของ AI ที่กระจายศูนย์ (DeAI).
เฮนริชเน้นย้ำว่าหัวใจของประสิทธิภาพ AI ขึ้นอยู่กับฐานความรู้ของมัน: ข้อมูล “ประสิทธิผลของโมเดล AI จะถูกกำหนดเป็นอันดับแรกโดยข้อมูลพื้นฐานที่พวกเขาได้รับการฝึกฝน” เขาอธิบาย ชุดข้อมูลที่มีคุณภาพสูงและสมดุลนำไปสู่การตอบสนองที่แม่นยำ แต่ข้อมูลที่ไม่ดีหรือข้อมูลที่ไม่ได้เป็นตัวแทนจะส่งผลให้ผลลัพธ์มีคุณภาพต่ำและมีแนวโน้มที่จะเกิดภาพหลอนมากขึ้น.
สำหรับไฮน์ริช การรักษาความสมบูรณ์ของชุดข้อมูลที่หลากหลายและปรับปรุงอย่างต่อเนื่องนี้ต้องการการเปลี่ยนแปลงอย่างรุนแรงจากสถานะที่เป็นอยู่ เขาโต้แย้งว่า สาเหตุหลักที่ทำให้ AI เกิดภาพหลอนคือการขาดความโปร่งใสเกี่ยวกับแหล่งที่มา วิธีแก้ไขของเขาคือการเข้ารหัสลับ:
ฉันเชื่อว่าข้อมูลทั้งหมดควรถูกผูกไว้บนเชนด้วยหลักฐานทางเข้ารหัสและหลักฐานที่ตรวจสอบได้เพื่อรักษาความถูกต้องของข้อมูล.
มูลนิธิที่กระจายอำนาจและโปร่งใสนี้ ร่วมกับแรงจูงใจทางเศรษฐกิจและการปรับแต่งอย่างต่อเนื่อง ถูกมองว่าเป็นกลไกที่จำเป็นในการกำจัดข้อผิดพลาดและอคติของอัลกอริธึมอย่างเป็นระบบ
นอกจากการแก้ไขทางเทคนิคแล้ว ไฮน์ริชซึ่งเป็นผู้ที่ได้รับรางวัล Forbes 40 Under 40 มีวิสัยทัศน์ในระดับมหภาคสำหรับ AI โดยเชื่อว่ามันควรนำไปสู่วัยแห่งความมั่งคั่ง
“ในโลกอุดมคติ มันจะหวังว่าจะสร้างเงื่อนไขสำหรับสังคมหลังความขาดแคลน ซึ่งทรัพยากรจะมีมากมายและไม่มีใครต้องกังวลเกี่ยวกับการทำงานที่น่าเบื่ออีกต่อไป” เขากล่าว การเปลี่ยนแปลงนี้จะช่วยให้บุคคล “มุ่งเน้นไปที่งานที่สร้างสรรค์และผ่อนคลายมากขึ้น” โดยพื้นฐานแล้วทำให้ทุกคนสามารถเพลิดเพลินกับเวลาว่างและความมั่นคงทางเศรษฐกิจมากขึ้น.
อย่างสำคัญ เขาอ้างว่าทั่วโลกที่กระจายอำนาจนั้นเหมาะสมอย่างยิ่งในการขับเคลื่อนอนาคตนี้ ความงามของระบบเหล่านี้คือพวกมันมีแรงจูงใจที่สอดคล้องกัน สร้างเศรษฐกิจที่สมดุลด้วยพลังการคอมพิวเตอร์ หากความต้องการทรัพยากรเพิ่มขึ้น แรงจูงใจในการจัดหาทรัพยากรเหล่านั้นจะเพิ่มขึ้นตามธรรมชาติจนกว่าความต้องการนั้นจะได้รับการตอบสนอง โดยตอบสนองความต้องการทรัพยากรการคอมพิวเตอร์ในลักษณะที่สมดุลและไร้การอนุญาต
เพื่อปกป้อง AI จากการใช้ที่ไม่เหมาะสมโดยเจตนา เช่น การหลอกลวงด้วยการลอกเลียนเสียงและการทำภาพลวง—ไฮน์ริชแนะนำให้ใช้การผสมผสานระหว่างโซลูชันที่มุ่งเน้นมนุษย์และสถาปัตยกรรม ก่อนอื่นควรมุ่งเน้นไปที่การให้ความรู้แก่ผู้คนเกี่ยวกับวิธีการระบุการหลอกลวงและภาพลวงที่ใช้สำหรับการปลอมตัวและการเผยแพร่ข้อมูลที่บิดเบือน ไฮน์ริชกล่าวว่า: “เราต้องสอนผู้คนให้สามารถระบุหรือสร้างลายนิ้วมือให้กับเนื้อหาที่สร้างโดย AI เพื่อที่พวกเขาจะได้ปกป้องตัวเอง”
ผู้ร่างกฎหมายยังสามารถมีบทบาทโดยการจัดตั้งมาตรฐานระดับโลกสำหรับความปลอดภัยและจริยธรรมของ AI แม้ว่าสิ่งนี้จะไม่น่าจะกำจัดการใช้ AI อย่างไม่ถูกต้องได้ แต่การมีมาตรฐานดังกล่าว “สามารถช่วยในการกีดกันมันได้ในระดับหนึ่ง” อย่างไรก็ตามมาตรการที่มีประสิทธิภาพที่สุดถูกถักทออยู่ในแบบการออกแบบที่กระจาย: “การออกแบบระบบที่สอดคล้องกับแรงจูงใจสามารถลดการใช้ AI อย่างไม่ถูกต้องได้อย่างมาก” โดยการนำและบริหารจัดการโมเดล AI บนเชน การเข้าร่วมที่จริงใจจะได้รับรางวัล ขณะที่พฤติกรรมที่เป็นอันตรายจะมีผลทางการเงินที่ตรงไปตรงมาผ่านกลไกการตัดบัญชีบนเชน.
ในขณะที่นักวิจารณ์บางคนกลัวความเสี่ยงของอัลกอริธึมแบบเปิด ไฮน์ริชบอกกับ Bitcoin.com News ว่าเขาสนับสนุนอย่างกระตือรือร้นเพราะมันทำให้เห็นว่ารูปแบบต่างๆ ทำงานอย่างไร “สิ่งต่างๆ เช่น บันทึกการฝึกอบรมที่ตรวจสอบได้และข้อมูลที่ไม่สามารถเปลี่ยนแปลงได้สามารถใช้เพื่อรับประกันความโปร่งใสและอนุญาตให้มีการตรวจสอบจากชุมชน” ซึ่งตรงข้ามกับความเสี่ยงที่เกี่ยวข้องกับรูปแบบ “กล่องดำ” ที่เป็นกรรมสิทธิ์และปิดแหล่งข้อมูล.
เพื่อส่งมอบวิสัยทัศน์นี้เกี่ยวกับอนาคตของ AI ที่ปลอดภัยและมีต้นทุนต่ำ 0G Labs กำลังสร้าง “ระบบปฏิบัติการ AI แบบกระจายศูนย์ (DeAIOS).”
ระบบปฏิบัติการนี้ถูกออกแบบมาเพื่อให้มีแหล่งที่มาของ AI ที่สามารถตรวจสอบได้—ชั้นเก็บข้อมูลและความพร้อมใช้งานที่สามารถขยายได้สูง ซึ่งทำให้สามารถเก็บข้อมูลชุด AI ขนาดมหึมาในเครือข่าย ทำให้ข้อมูลทั้งหมดสามารถตรวจสอบและติดตามได้ ระดับความปลอดภัยและการติดตามนี้มีความสำคัญต่อเอเจนต์ AI ที่ดำเนินงานในภาคที่มีการควบคุม.
นอกจากนี้ ระบบยังมีตลาดการคำนวณที่ไม่มีการอนุญาต ซึ่งทำให้เข้าถึงทรัพยากรการคำนวณได้อย่างเท่าเทียมในราคาที่แข่งขันได้ นี่เป็นคำตอบโดยตรงต่อค่าธรรมเนียมที่สูงและการล็อคผู้ขายที่เกี่ยวข้องกับโครงสร้างพื้นฐานคลาวด์แบบรวมศูนย์
0G Labs ได้แสดงให้เห็นถึงความก้าวหน้าทางเทคนิคด้วย Dilocox ซึ่งเป็นกรอบงานที่ช่วยให้การฝึกสอน LLMs ที่มีพารามิเตอร์เกิน 100 พันล้าน โดยใช้คลัสเตอร์แบบกระจายที่ความเร็ว 1 Gbps โดยการแบ่งโมเดลออกเป็นส่วนที่เล็กกว่าและฝึกสอนอย่างอิสระ Dilocox ได้แสดงให้เห็นถึงการปรับปรุงประสิทธิภาพถึง 357 เท่าเมื่อเปรียบเทียบกับวิธีการฝึกสอนแบบกระจายดั้งเดิม ทำให้การพัฒนา AI ขนาดใหญ่เป็นไปได้ทางเศรษฐกิจนอกกำแพงของศูนย์ข้อมูลแบบรวมศูนย์.
ท้ายที่สุด ไฮน์ริชเห็นอนาคตที่สดใสสำหรับ AI แบบกระจาย ซึ่งถูกกำหนดโดยการมีส่วนร่วมและการทำลายอุปสรรคในการนำไปใช้.
“มันเป็นสถานที่ที่ผู้คนและชุมชนสร้างโมเดล AI ระดับผู้เชี่ยวชาญร่วมกัน รับประกันว่าอนาคตของ AI จะถูกกำหนดโดยหลาย ๆ คนมากกว่าที่จะเป็นเพียงกลุ่มน้อยขององค์กรที่มีอำนาจรวม” เขาสรุป ด้วยบริษัท AI ที่เป็นกรรมสิทธิ์ต้องเผชิญกับแรงกดดันในการเพิ่มราคา เศรษฐศาสตร์และโครงสร้างแรงจูงใจของ DeAI เสนอทางเลือกที่น่าสนใจและมีราคาที่ต่ำกว่ามากซึ่งโมเดล AI ที่ทรงพลังสามารถสร้างได้ในต้นทุนที่ต่ำกว่า ซึ่งเปิดทางสู่อนาคตทางเทคโนโลยีที่เปิดกว้าง ปลอดภัย และท้ายที่สุดจะเป็นประโยชน์มากขึ้น.