ทีมสตาร์ทอัพในซิลิคอนแวลลีย์มักเรียกผลิตภัณฑ์ของตนว่า “นวัตกรรมแบบทำลายล้าง” แต่ไม่มีบริษัทไหนเหมือน Anthropic ที่สร้างนวัตกรรมแบบทำลายล้างจริง ๆ แล้วกลับเผชิญกับวิกฤตการณ์รอด-ร่วง เมื่อ “นวัตกรรมแบบทำลายล้าง” กลายเป็นคำพูดที่เบื่อหน่ายในวงการเงินทุนในซิลิคอนแวลลีย์ แต่ Anthropic กลับเปิดเผยให้โลกเห็นภาพวิกฤตการณ์ยุคใหม่ ผลความก้าวหน้าทางเทคโนโลยีทำให้มูลค่าบริษัทพุ่งเป็นเท่าตัว ทว่าการถูกป้ายชื่อทางการเมืองและพายุการกำกับดูแล กลับผลักดันให้บริษัทร่วงลงต่ำที่สุด นิตยสาร Time ได้เปิดเผยเรื่องราวเบื้องหลังของกลุ่มคนแปลกประหลาดในวงการ AI ที่ภายใต้การล้อมรอบด้วยความมั่นคงของชาติและคู่แข่งรายใหญ่ บริษัท AI ที่สาบานว่าจะปกป้องมนุษยชาติแห่งนี้ จะอยู่รอดในช่องว่างของการเมืองที่กดดันอย่างไร?
การเติบโตอย่างรวดเร็วของ Anthropic กลายเป็นภัยคุกคามต่อวงการซอฟต์แวร์
ในด้านการใช้งาน AI ทางธุรกิจ มูลค่าของ Anthropic ขึ้นถึง 380 พันล้านดอลลาร์สหรัฐ รายได้เติบโตอย่างโดดเด่น จนแซงหน้าบริษัทอย่าง Goldman Sachs, McDonald’s และ Coca-Cola ผลิตภัณฑ์หลักของ Anthropic คือ Claude ซึ่งสามารถรันโค้ด ค้นหาข้อผิดพลาด และปรับปรุงระบบได้อย่างอิสระ การเปลี่ยนแปลงในรูปแบบการทำงานของวิศวกรซอฟต์แวร์ถูกพลิกโฉมอย่างสิ้นเชิง นักลงทุนพบว่า Anthropic มีความสามารถแม้กระทั่งส่งผลกระทบต่อตลาดการเงิน ทุกครั้งที่ปล่อยเวอร์ชันใหม่ มักจะทำให้หุ้นกลุ่มซอฟต์แวร์ผันผวนอย่างรุนแรง ซีอีโออย่าง Amodei คาดการณ์ว่าในอีก 5 ถึง 10 ปีข้างหน้า ปัญญาประดิษฐ์อาจเข้ามาแทนที่ตำแหน่งงานระดับขาวของคนจำนวนมาก ความสำเร็จทางธุรกิจนี้พร้อมกับความเสี่ยงทางสังคม ทำให้ทีมประเมินผลด้านสังคมภายในของ Anthropic เกิดความขัดแย้งในใจ หนึ่งด้านต้องการผลักดันผลผลิตและผลประกอบการของบริษัท อีกด้านก็กลัวว่าสินค้าของบริษัทอาจนำไปสู่การว่างงานในวงกว้าง
ความเสี่ยงที่ซ่อนอยู่ใน Claude 3.7 Sonnet
Anthropic ซึ่งมีวิสัยทัศน์คือการปกป้องความปลอดภัยของมนุษยชาติ กำลังอยู่ในจุดวิกฤตของการระเบิดทางเทคโนโลยีและการกำกับดูแลจากรัฐบาล ซึ่งแนวทางด้านจริยธรรมที่บริษัทยึดถือไว้ กลับต้องเผชิญกับการถูกกีดกันเมื่อมีความต้องการจัดซื้อจากกระทรวงกลาโหมสหรัฐฯ
จากการทดสอบภายใน พบว่า Claude มีความเร็วในการดำเนินงานบางภารกิจมากกว่ามนุษย์ถึง 427 เท่า เมื่อเดือนกุมภาพันธ์ปีที่แล้ว ทีมงานเทคนิคของ Anthropic พบว่า เวอร์ชัน Claude ที่จะเปิดตัวในอนาคตมีความเสี่ยงที่จะช่วยในการสร้างอาวุธชีวภาพ การค้นพบนี้ทำให้บริษัทต้องเลื่อนกำหนดการเปิดตัว Claude 3.7 Sonnet อย่างเร่งด่วน เพื่อให้ความสำคัญกับความปลอดภัยสูงสุด ลอเรนซ์ เกรแฮม หัวหน้าทีม Red Team ของ Anthropic ชี้ให้เห็นว่า เมื่อปัญญาประดิษฐ์อาจก่อให้เกิดความเสี่ยงร้ายแรง เช่น การนำไปสู่สงครามนิวเคลียร์หรือการสูญพันธุ์ของมนุษย์ นักพัฒนามีภาระหน้าที่ทางสังคมอย่างยิ่งในขณะเดียวกันก็ไม่มีแนวทางแก้ไขที่เป็นที่ยอมรับในวงการ ทีมพัฒนาต้องหาจุดสมดุลระหว่างทรัพยากรและความเสี่ยง มาตรฐานความปลอดภัยของบริษัทที่ยึดถือความปลอดภัยของมนุษย์เป็นสำคัญ ทำให้ Anthropic กลายเป็นสิ่งที่แตกต่างในวงการ AI
จริยธรรมทางธุรกิจขัดแย้งกับนโยบายของรัฐบาลทรัมป์
ความสัมพันธ์ระหว่าง Anthropic กับรัฐบาลสหรัฐฯ เริ่มเปลี่ยนแปลงอย่างรวดเร็วตั้งแต่ปีที่แล้ว เนื่องจาก Anthropic ปฏิเสธที่จะนำ AI ไปใช้ในอาวุธอัตโนมัติเต็มรูปแบบและการเฝ้าระวังพลเมือง ซึ่งเป็นการปฏิเสธข้อเสนอของกระทรวงกลาโหมให้เจรจาใหม่ หลังจากนั้น รัฐบาลทรัมป์ก็ได้ขึ้นบัญชีบริษัทเป็นผู้จำหน่ายที่เสี่ยงต่อความมั่นคงของชาติ ซึ่งเป็นครั้งแรกที่รัฐบาลสหรัฐฯ ใช้ป้ายกำกับเช่นนี้กับบริษัทในประเทศ กระทรวงกลาโหมเชื่อว่าบริษัทเอกชนไม่ควรมีข้อจำกัดต่อระบบคำสั่งทหาร ขณะที่ Amodei ในบันทึกภายในระบุว่านี่เป็นผลมาจากบริษัทปฏิเสธการบริจาคให้ทรัมป์และไม่สนับสนุนเป้าหมายทางการเมืองบางอย่าง รวมถึงการยืนหยัดในความโปร่งใส ทำให้เกิดความขัดแย้ง จนคู่แข่งอย่าง OpenAI ได้รับสัญญาจากกองทัพ เรื่องนี้ไม่ใช่แค่เรื่องสัญญา แต่เป็นคำถามสำคัญว่าใครควรมีอำนาจในการควบคุมเทคโนโลยี
ผู้ก่อตั้ง Amodei เป็นคนแปลกในวงการ AI
เมื่อพูดถึงความยืนหยัดของ Anthropic ต้องไม่ลืมว่าผู้ก่อตั้งอย่าง Amodei มีความเป็นเอกลักษณ์ เขาเขียนบทความยาว 14,000 คำในปี 2024 อธิบายถึงวิสัยทัศน์ของ AI ที่จะเร่งการค้นพบทางวิทยาศาสตร์และเปลี่ยนโลกให้เป็นยูโทเปีย เมื่อเดือนมกราคมปีนี้ เขาได้เผยแพร่นิยายกลางเรื่องอีกเรื่องหนึ่งที่เล่าถึงวิกฤตที่อาจเกิดขึ้นจากความก้าวหน้าของ AI เช่น การเฝ้าระวังในระดับมหาศาล การว่างงาน และการสูญเสียการควบคุมของมนุษย์ ถามจริง ๆ ว่าเจ้าของบริษัทสตาร์ทอัพรายไหนจะกล้าดูถูกผลิตภัณฑ์ของตัวเอง หรือกลัวว่าจะทำให้ผู้อื่นไม่สุข?
ในสงครามธุรกิจ AI OpenAI ชั่วคราวเป็นฝ่ายชนะ
ตามรายงานของ Time บริษัท Anthropic ไม่รู้ตัวเลยว่า ในขณะที่กำลังคิดกลยุทธ์อยู่ กระทรวงกลาโหมสหรัฐฯ ก็ได้เจรจากับ OpenAI เพื่อหวังนำ ChatGPT ไปใช้ในระบบของรัฐบาล ต่อมา ข่าวก็ออกมาว่า ผู้ก่อตั้ง OpenAI อย่าง Altman อ้างว่าบรรลุข้อตกลงกับกระทรวงกลาโหม ซึ่งมีความคล้ายคลึงกับข้อตกลงของ Anthropic ดร. Dario Amodei ผู้ก่อตั้งของ Anthropic แจ้งให้พนักงานทราบว่า Altman และกระทรวงกลาโหมกำลัง “หลอกลวง” สังคมพยายามให้เชื่อว่าข้อตกลงของพวกเขามีข้อจำกัดมากมาย ก่อนหน้านี้ เจ้าหน้าที่กระทรวงกลาโหมก็ยืนยันว่า xAI ของ Elon Musk ก็จะให้บริการโมเดลบนเซิร์ฟเวอร์ลับ นอกจากนี้ กระทรวงกลาโหมยังอยู่ในระหว่างการเจรจากับ Google ด้วย
Anthropic ใช้นโยบายชะลอและเลื่อนการตอบโต้
Claude เขียนโค้ดส่วนใหญ่ที่จำเป็นสำหรับการพัฒนาโมเดล AI ในอนาคต ทำให้ระยะเวลาการปล่อยโมเดลลดลงจากเดือนเหลือเป็นสัปดาห์ และความเร็วในการดำเนินงานในภารกิจเฉพาะของ Claude ก็สูงกว่ามนุษย์อย่างมาก ทำให้ผู้บริหารกังวลว่าในอนาคต เทคโนโลยี AI อาจหลุดพ้นการควบคุมของมนุษย์ เมื่อ AI เริ่มเขียนตรรกะการพัฒนาของตัวเองแล้ว มนุษย์จะเหลือเวลาเท่าไหร่? ด้วยการแข่งขันที่เพิ่มขึ้นในต่างประเทศ Anthropic จึงปรับเปลี่ยนแนวทางนโยบายใหม่ โดยสัญญาว่าจะเพิ่มความโปร่งใสในความเสี่ยงด้านความปลอดภัยของ AI รวมถึงเปิดเผยผลการทดสอบความปลอดภัยของโมเดลของบริษัทเอง และหากผู้บริหารเชื่อว่า Anthropic อยู่ในตำแหน่งผู้นำในวงการ AI และอาจก่อให้เกิดความเสี่ยงร้ายแรง ก็จะ “เลื่อน” การพัฒนาเทคโนโลยีออกไป
อย่างไรก็ตาม เรื่องราวเกี่ยวกับจริยธรรมของ AI นี้ยังไม่จบเพียงเท่านี้