การละเมิด AI ได้กวาดล้างโลกวิชาการคุณภาพของเอกสารและเอกสารทบทวนจํานวนมากลดลงเนื้อหาที่ผิดพลาดได้แทรกซึมเข้าไปในระบบการวิจัยการประชุมระดับนานาชาติได้เข้มงวดกฎระเบียบอย่างเร่งด่วนและความไว้วางใจทางวิชาการกําลังเผชิญกับการทดสอบการล่มสลาย
เมื่อเทียบกับฉากหลังของการพัฒนาอย่างรวดเร็วของเทคโนโลยีปัญญาประดิษฐ์ทั่วโลกชุมชนการวิจัย AI กําลังตกอยู่ในวิกฤตความไว้วางใจอย่างที่ไม่เคยมีมาก่อน ในช่วงไม่กี่ปีที่ผ่านมาระบบการตรวจสอบของการประชุมชั้นนําถูกครอบงําด้วยการส่งคุณภาพต่ําจํานวนมากและนักวิจัยพบว่าสัดส่วนของการมีส่วนร่วมของมนุษย์ในเอกสารจํานวนมากและเนื้อหาการทบทวนโดยเพื่อนลดลงอย่างมาก ข้อกังวลที่เกิดขึ้นจากปรากฏการณ์นี้ไม่ได้จํากัดอยู่แค่การเปลี่ยนแปลงรูปแบบการเขียน แต่ประเด็นหลักยังอยู่ที่ความถูกต้องของเนื้อหา เนื่องจากความแม่นยํากลายเป็นรากฐานที่สําคัญของการวิจัยทางวิชาการข้อผิดพลาดที่เกิดจากเครื่องมืออัตโนมัติจึงคืบคลานเข้ามาในผลงานวิจัย
Inioluwa Deborah Raji นักวิจัยจาก UC Berkeley ชี้ให้เห็นว่าชุมชนวิชาการมีความกระตือรือร้นเกี่ยวกับ AI ที่เปลี่ยนแปลงอุตสาหกรรมอื่นๆ แต่น่าแปลกที่อุตสาหกรรมนี้เองก็อยู่ในความวุ่นวายเนื่องจากการใช้ AI ในทางที่ผิดอย่างแพร่หลาย
ข้อมูลแสดงให้เห็นว่าขนาดของวิกฤตครั้งนี้ถึงระดับเตือนภัยแล้ว ตามรายงานการวิจัยที่เผยแพร่โดยมหาวิทยาลัยสแตนฟอร์ดในเดือนสิงหาคม 2025**มากถึง 22% ของเอกสารในอุตสาหกรรมวิทยาการคอมพิวเตอร์แสดงสัญญาณของการใช้โมเดลภาษาขนาดใหญ่ (LLM)**ในการสํารวจที่จัดทําโดย 2025 International Conference on Learning Representation (ICLR) Pangram สตาร์ทอัพด้านการวิเคราะห์ข้อความพบว่าประมาณ 21% ของความคิดเห็นในการทบทวนนั้นสร้างโดย AI ทั้งหมด และมากกว่าครึ่งหนึ่งของกระบวนการตรวจสอบใช้การแก้ไขโดยใช้ AI ช่วยแก้ไข สิ่งที่น่าตกใจยิ่งกว่านั้นคือมากกว่าครึ่งหนึ่งของเอกสารที่ส่งมาประมาณ 9% นั้นสร้างโดย AI
Thomas G. Dietterich ศาสตราจารย์กิตติมศักดิ์แห่งมหาวิทยาลัยแห่งรัฐโอเรกอนสังเกตเห็นการอัปโหลดไปยัง arXiv ซึ่งเป็นแพลตฟอร์มพรีพริ้นท์แบบเปิดเพิ่มขึ้นอย่างมีนัยสําคัญส่วนหนึ่งเป็นผลมาจากการหลั่งไหลเข้ามาของนักวิจัย แต่ยังเป็นผลมาจากการผลักดันเครื่องมือ AI
เมื่อต้องเผชิญกับเอกสารคุณภาพต่ําและบทวิจารณ์อัตโนมัติมากมายโลกของสถาบันการศึกษาได้มาถึงจุดเปลี่ยนที่ต้องดําเนินการ ในเดือนพฤศจิกายน พ.ศ. 2024 ผู้ตรวจสอบ ICLR ได้ค้นพบเอกสารที่ต้องสงสัยว่าสร้างโดย AI ซึ่งอยู่ในอันดับต้น ๆ 17% ของการส่งทั้งหมด ทําให้เกิดคําถามที่ชัดเจนเกี่ยวกับระบบการประเมินในปัจจุบัน ต่อจากนั้นในเดือนมกราคม พ.ศ. 2025 บริษัทตรวจจับ GPTZero พบข้อผิดพลาดในการสร้างอัตโนมัติมากกว่า 100 รายการในเอกสาร 50 ฉบับที่จัดแสดงที่ NeurIPS ซึ่งเป็นการประชุมปัญญาประดิษฐ์ชั้นนําของโลกข้อผิดพลาดเหล่านี้รวมถึงการอ้างอิงเสมือนจริงและข้อมูลแผนภูมิที่ไม่ถูกต้อง ซึ่งบ่อนทําลายความเข้มงวดของการวิจัยทางวิทยาศาสตร์อย่างจริงจัง
เพื่อตอบสนองต่อปรากฏการณ์นี้ ICLR ได้ปรับปรุงแนวทางการใช้งาน: หากเอกสารล้มเหลวในการเปิดเผยการใช้โมเดลภาษาอย่างแพร่หลายตามความเป็นจริง ผู้ตรวจสอบที่ส่งบทวิจารณ์อัตโนมัติคุณภาพต่ําจะต้องเผชิญกับบทลงโทษที่รุนแรงสําหรับเอกสารของตนเองที่ถูกปฏิเสธ
Hany Farid ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์แห่งมหาวิทยาลัยแคลิฟอร์เนียเบิร์กลีย์ได้เตือนอย่างจริงจังว่าสังคมจะสูญเสียความไว้วางใจขั้นพื้นฐานในนักวิทยาศาสตร์หากชุมชนวิทยาศาสตร์ยังคงเผยแพร่เอกสารที่เป็นเท็จและคุณภาพต่ํา ในความเป็นจริงจํานวนเอกสารเติบโตเร็วกว่าวิวัฒนาการของเทคโนโลยีการตรวจจับมาก ตัวอย่างเช่น NeurIPS มีการส่ง 9,467 รายการในปี 2020 เพิ่มขึ้นเป็น 17,491 รายการในปี 2024 และเพิ่มขึ้นเป็น 21,575 รายการในปี 2025 มีแม้กระทั่งกรณีที่รุนแรงที่ผู้เขียนคนเดียวส่งเอกสารมากกว่า 100 ฉบับในหนึ่งปี ซึ่งเกินขีดจํากัดผลงานปกติของนักวิจัยที่เป็นมนุษย์อย่างชัดเจน ปัจจุบันยังขาดมาตรฐานการจดจําข้อความอัตโนมัติแบบครบวงจรในชุมชนวิชาการ ทําให้งานป้องกันยากยิ่งขึ้น
ที่มา: US Berkeley Hany Farid ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ที่มหาวิทยาลัยแคลิฟอร์เนียเบิร์กลีย์
เบื้องหลังอัตราเงินเฟ้อทางวิชาการนี้คือการแข่งขันทางธุรกิจที่ซับซ้อนและการพิจารณาในทางปฏิบัติ ด้วยเงินเดือนที่สูงและการแข่งขันที่ดุเดือดมากขึ้นในอุตสาหกรรม AI การมุ่งเน้นของอุตสาหกรรมการวิจัยบางส่วนจึงถูกบังคับให้เปลี่ยนไปใช้ปริมาณมากกว่าคุณภาพ การโฆษณาเกินจริงของตลาดดึงดูดคนธรรมดาจํานวนมากที่แสวงหาผลลัพธ์ที่รวดเร็ว ซึ่งจะทําให้ความลึกของนักวิชาการเจือจางลง อย่างไรก็ตาม ผู้เชี่ยวชาญยังเน้นย้ําถึงความจําเป็นในการแยกแยะระหว่าง “การใช้งานที่เหมาะสม” และ “การละเมิด”
Thomas G. Dietterich กล่าวว่าสําหรับผู้ที่ไม่ใช่เจ้าของภาษา (เช่น นักวิชาการจากประเทศจีน) เครื่องมือ AI สามารถช่วยปรับปรุงความชัดเจนของการแสดงออกทางภาษาได้อย่างแท้จริง และการช่วยเขียนประเภทนี้ช่วยปรับปรุงประสิทธิภาพการสื่อสารของเอกสารในระดับหนึ่ง และควรถูกมองว่าเป็นการใช้งานในเชิงบวก
อย่างไรก็ตาม วิกฤตที่ลึกซึ้งกว่านั้นอยู่ที่ภัยคุกคามของ “มลพิษของข้อมูล” ต่อการพัฒนา AI ในอนาคต ยักษ์ใหญ่ด้านเทคโนโลยี เช่น Google, Anthropic และ OpenAI กําลังส่งเสริมโมเดลในฐานะพันธมิตรการวิจัยสําหรับอุตสาหกรรมต่างๆ เช่น วิทยาศาสตร์เพื่อชีวิต ซึ่งอาศัยตําราทางวิชาการในการฝึกอบรม
Hany Farid ชี้ให้เห็นว่าหากข้อมูลการฝึกอบรมเต็มไปด้วยเนื้อหาสังเคราะห์ที่สร้างขึ้นมากเกินไปประสิทธิภาพของโมเดลจะลดลงอย่างมาก
การวิจัยที่ผ่านมายืนยันว่าเมื่อ LLM ได้รับข้อมูลอัตโนมัติที่ไม่ผ่านการกรองในที่สุดโมเดลจะขัดข้องและสร้างข้อมูลที่ไร้ความหมาย Kevin Weil หัวหน้าแผนกวิทยาศาสตร์ของ OpenAI ยอมรับว่าแม้ว่า AI จะเป็นตัวเร่งที่มีประสิทธิภาพสําหรับการวิจัย แต่การกํากับดูแลและการตรวจสอบของมนุษย์เป็นสิ่งที่ขาดไม่ได้ และเครื่องมือทางเทคโนโลยีไม่สามารถหลีกหนีความเข้มงวดที่จําเป็นสําหรับกระบวนการวิจัยทางวิทยาศาสตร์ได้
เนื้อหานี้สร้างโดย Crypto Agent และตรวจสอบและแก้ไขโดย Crypto City และยังอยู่ในขั้นตอนการฝึกอบรม อาจมีการเบี่ยงเบนเชิงตรรกะหรือข้อผิดพลาดของข้อมูล เนื้อหาใช้สําหรับอ้างอิงเท่านั้น