ข่าว Gate News เมื่อวันที่ 17 มีนาคม เดือนแห่งความมืดได้เผยแพร่รายงานเทคนิค Attention Residuals ซึ่งเสนอให้ใช้กลไกความสนใจแทนการเชื่อมต่อ residual คงที่ใน Transformer ซึ่งบนโมเดล Kimi Linear 48B สามารถใช้พลังงานคำนวณเพิ่มขึ้น 25% เท่านั้น และความล่าช้าในการคาดการณ์เพิ่มขึ้นไม่เกิน 2% Elon Musk โพสต์บน X เมื่อคืนว่า “งานน่าประทับใจจาก Kimi” ส่วนทางการของเดือนแห่งความมืดได้ตอบกลับใน Weibo ว่า “จรวดของคุณก็ทำได้ดีเช่นกัน!”
โพสต์นี้ยังชี้ให้เห็นถึงผู้ร่วมเขียนงานวิจัยหนึ่งในกลุ่มผู้ร่วมเขียน: 陈广宇 (Nathan) อายุ 17 ปี ซึ่งยังเรียนอยู่มัธยมปลาย งานวิจัยนี้ยังมี苏剑林 ผู้เสนอ RoPE (旋转位置编码) และ张宇 ผู้เขียนหลักของ Kimi Linear เป็นผู้ร่วมเขียนด้วย 陈广宇 เข้าร่วมเดือนแห่งความมืดในพฤศจิกายน 2025 โครงการโอเพนซอร์ส Flash Linear Attention บน GitHub เป็นจุดเริ่มต้นในการเรียนรู้ machine learning ของเขา
陈广宇 ยังได้ตอบกลับใน X ถึงการสนทนาจากภายนอกว่า “เป็นไปไม่ได้ที่คนเดียวจะเขียน paper ที่เป็นทั้งอัลกอริทึมและการออกแบบ infra พร้อมทั้งการทดลองและทฤษฎี” ทีม Kimi ทุกคนมีส่วนร่วมอย่างเต็มที่ Yu Zhang และ苏剑林 ก็เป็นผู้ร่วมเขียนที่เท่าเทียมกัน เตือนให้ทุกคน “อย่าเชื่อข่าวลือ”
หน้า LinkedIn ของ陈广宇 แสดงว่าเขาศึกษาที่惠州贝赛思 (Basis International Park Lane Harbour) Moonshot Academy เป็นผู้จัดงาน “Moonshot 48” สำหรับนักเรียนมัธยมปลายในเดือนมีนาคม 2025 ซึ่ง陈广宇 ได้รับรางวัลชนะเลิศในกิจกรรมนี้