ZHIPU

คำนวณราคา ZhiPu 02513.HK

ZHIPU
฿0
+฿0(0.00%)
No data

data.updated

v2.stock.overview v2.daily.trading v2.range.52w

key.stats

pe.ratio0.00
div.yield0.00%
shares.out0.00

เรียนรู้เพิ่มเติมเกี่ยวกับ ZhiPu 02513.HK (ZHIPU)

stock.faq

stock.price

x
current.stats

52w.range.q

x

pe.ratio.q

x

market.cap.q

x

eps.recent.q

x

buy.sell.q

x

price.factors

x

buy.how

x

risk.warn

risk.notice

disclaimer2

risk.disclosure

latest.news

2026-04-28 06:00

นิตยสาร Time จัดอันดับ 10 บริษัท AI ที่ทรงอิทธิพลที่สุด; ByteDance, Zhipu, Alibaba อยู่ในตัวเลือกชั้นนำ

ข่าวประตูเมือง ข้อความ, 28 เมษายน — นิตยสาร Time ได้เปิดเผยรายชื่อ "10 บริษัท AI ที่ทรงอิทธิพลที่สุดในปี 2026" โดยเน้นถึงผลกระทบอย่างครอบคลุมต่ออุตสาหกรรม เส้นทางด้านเทคโนโลยี และสังคม แทนที่จะโฟกัสเพียงความสามารถของโมเดล บรรดาบริษัทที่ได้รับเลือก ได้แก่ ByteDance, Amazon, Zhipu, OpenAI, Alphabet, Meta, Anthropic, Alibaba, Mistral และ Hugging Face ในจำนวนนี้ มีบริษัทจีน 3 แห่งที่ติดรายชื่อ ได้แก่ ByteDance, Zhipu และ Alibaba.

2026-04-28 00:57

Zhipu Z.ai ขยายระยะเวลาส่งเสริมการขายโควตาทริปเปิลของแผน GLM Coding Plan ไปจนถึงวันที่ 30 มิถุนายน

ข่าวประจำ Gate วันที่ 28 เมษายน — Zhipu Z.ai ประกาศขยายระยะเวลาส่งเสริมการขายโควตาทริปเปิลของแผน GLM Coding Plan จากเดิมที่มีกำหนดถึงวันที่ 30 เมษายน เป็นวันที่ 30 มิถุนายน ครอบคลุมทั้งโมเดล GLM-5.1 และ GLM-5-Turbo. โปรโมชั่นนี้มีให้บริการในช่วงเวลาประเทศสหรัฐอเมริกาตะวันออก ตั้งแต่ 6:00 AM ถึง 2:00 AM ของวันถัดไป. GLM Coding Plan เป็นบริการสมัครสมาชิกสำหรับนักพัฒนาที่ช่วยให้ผู้ใช้เรียกใช้งานโมเดล GLM ผ่านเครื่องมือด้านการเขียนโปรแกรม รวมถึง Claude Code, Cursor และ OpenCode. โปรโมชั่นโควตาทริปเปิลเปิดตัวครั้งแรกเมื่อวันที่ 16 มีนาคม โดยครอบคลุมเฉพาะ GLM-5-Turbo ต่อมาได้ขยายให้รวมทั้งสองโมเดลหลังจากเปิดตัว GLM-5.1.

2026-04-27 03:11

MiniMax-W ที่จดทะเบียนในฮ่องกงร่วงลงมากกว่า 14%, Zhipu ลดลงมากกว่า 6% ในวันเปิดตัวโมเดลของ DeepSeek

ข่าว Gate ประจำวันที่ 27 เมษายน — MiniMax-W ที่จดทะเบียนในฮ่องกงร่วงลงมากกว่า 14% ระหว่างวัน ขณะที่ Zhipu ลดลงมากกว่า 6% ในช่วงเซสชันเดียวกัน. การลดลงดังกล่าวเกิดขึ้นหลังจาก DeepSeek เปิดตัวโมเดลใหม่ในวันศุกร์ และประกาศข้อเสนอโปรโมชันแบบจำกัดเวลาสำหรับวันเสาร์.

2026-04-27 01:31

social_tradfi_title%!(EXTRA string=social_tradfi_fall, string=ZHIPU, string=ZhiPu 02513.HK, string=social_tradfi_falls, string=4%)

social_[tradfi](https://www.gate.com/tradfi)_content%!(EXTRA string=ZHIPU, string=ZhiPu 02513.HK, string=social_tradfi_dropped, string=4%)

2026-04-24 05:00

social_tradfi_title%!(EXTRA string=social_tradfi_fall, string=ZHIPU, string=ZhiPu 02513.HK, string=social_tradfi_falls, string=8%)

social_[tradfi](https://www.gate.com/tradfi)_content%!(EXTRA string=ZHIPU, string=ZhiPu 02513.HK, string=social_tradfi_dropped, string=8%)

กระทู้ร้อนแรงเกี่ยวกับ ZhiPu 02513.HK (ZHIPU)

Huoshan

Huoshan

19 ชั่วโมงที่ผ่านมา
พี่น้อง มีใครสังเกตเห็นความจริงที่น่ากลัวอย่างละเอียดไหม ในยุค AI ดูเหมือนว่ามีแค่สองประเทศบนโลกนี้เท่านั้น สหรัฐกำลังสร้าง: ChatGPT, Claude, Gemini, Grok, Perplexity จีนกำลังสร้าง: โดวเป่า, DeepSeek, Qianwen, Zhipu, Kimi, MiniMax, MiMo แล้วประเทศอื่นล่ะ? ยุโรป, ญี่ปุ่น, เกาหลี, รัสเซีย, อินเดีย, บราซิล, เอเชียตะวันออกเฉียงใต้ มากกว่า 190 ประเทศ พวกเขากำลังทำอะไรอยู่? คำตอบที่เจ็บปวด: พวกเขากำลังใช้ AI ของจีนและสหรัฐ ไม่มีการวิจัยโมเดลเอง ไม่มีระบบเปิดซอร์ส ไม่มีการสำรองบุคลากร ไม่มีการลงทุนในพลังการคำนวณ แม้แต่กฎหมายก็ยังอยู่ในช่วงถกเถียงว่าจะมีการควบคุมหรือไม่ ผมไม่ได้มองว่าประเทศอื่นล้มเหลว แต่ผมคิดว่าสิ่งนี้ขัดกับความรู้ทั่วไป เมื่อก่อนเราพูดถึงโลกาภิวัตน์ แต่ละประเทศมีห่วงโซ่อุตสาหกรรมของตัวเอง ตอนนี้ในยุค AI ห่วงโซ่อุตสาหกรรมมีแค่สองผู้เล่น ประเทศอื่นเป็นแค่ผู้ใช้ปลายทาง ยิ่งไปกว่านั้น ผู้ใช้ปลายทางไม่มีอำนาจต่อรอง คุณใช้ ChatGPT กฎเป็นของอเมริกาเป็นผู้กำหนด คุณใช้ DeepSeek กฎเป็นของจีนเป็นผู้กำหนด ข้อมูลคุณออกมา มูลค่ารับไปโดยพวกเขา การพัฒนาโมเดลขึ้นอยู่กับข้อมูลของคุณ แต่โมเดลไม่เป็นของคุณ พี่น้องเคยคิดไหม ทำไมยุโรปถึงเจริญมาก แต่ไม่มีผลิตภัณฑ์ AI ที่น่าพอใจเลย เพราะการวิจัยและพัฒนาคือการลงทุนจริง เป็นการใช้เงินจำนวนมาก ต้องการบุคลากรจริงๆ และบุคลากรในยุค AI ส่วนใหญ่ถูกดูดไปยังจีนและสหรัฐ แผนภาพการเคลื่อนย้ายบุคลากรด้าน AI ทั่วโลก ก็เป็นการไหลจากทุกประเทศเข้าสู่จีนและสหรัฐ นี่ไม่ใช่คำพูดเกินจริง แต่มันกำลังเกิดขึ้นจริง ดังนั้นกลับมาที่คำถามเดิม เป็นไปได้ไหมว่ามีแค่จีนกับสหรัฐที่กำลังวิจัย AI ประเทศอื่นๆ กำลังแค่ใช้ AI เท่านั้น คำตอบคือ: เกือบใช่ ความแตกต่างอยู่ที่ คุณกำลังใช้ AI ของจีนหรือของอเมริกา และสิทธิ์ในการเลือกนี้ อาจสำคัญกว่าที่คุณคิด
0
0
0
0
CoinNetwork

CoinNetwork

22 ชั่วโมงที่ผ่านมา
ข่าวจากเว็บไซต์币界网, Zhipu ได้เขียนบทความวิเคราะห์ปัญหาที่เกิดขึ้นกับโมเดลซีรีส์ GLM-5 ในสถานการณ์ของตัวแทนการเขียนโค้ด (coding agent) ซึ่งประกอบด้วยอาการเช่นอักขระผิดปกติ การซ้ำซ้อน และอักษรที่ไม่ค่อยพบเจอ ตั้งแต่เดือนมีนาคมเป็นต้นมา ผู้ใช้ได้รายงานว่าปัญหาเกิดขึ้นเฉพาะในงานที่มีการประมวลผลพร้อมกันสูงและมีบริบทยาว (เฉลี่ยเกิน 70,000 โทเค็น) Zhipu ระบุว่าระบบการวิเคราะห์ของตนรับภาระการเรียกใช้งาน coding agent วันละหลายร้อยล้านครั้ง หลังจากการตรวจสอบ ทีมงานได้ระบุจุดบกพร่องสองจุดที่เป็นการแข่งขัน (race condition) แยกกัน จุดบกพร่องแรกเกิดขึ้นในสถาปัตยกรรมแยกพีดี (pd separation architecture) เมื่อด้านการถอดรหัส (decoding) เวลาหมดอายุและหยุดคำร้องขอแล้วจะทำการเก็บคืนแคช kv แต่การเขียน RDMA ของด้านการเติมข้อมูลล่วงหน้ายังไม่เสร็จสมบูรณ์ ทำให้คำร้องใหม่ทับข้อมูลเก่า วิธีการแก้ไขคือการเพิ่มการซิงโครไนซ์แบบชัดเจนก่อนการเก็บคืน อัตราการเกิดข้อผิดพลาดลดลงจากประมาณ 0.1% เหลือไม่ถึง 0.03% จุดบกพร่องที่สองเกิดขึ้นใน hicache ซึ่งสายการโหลดและคำนวณขาดจุดซิงโครไนซ์ ทำให้ด้านการคำนวณอาจอ่านข้อมูลก่อนที่จะโหลดเสร็จ หลังจากการแก้ไข ข้อผิดพลาดหายไปโดยสิ้นเชิง แพทช์ได้ถูกส่งไปยังชุมชน sglang ทีมงานยังพบว่าดัชนีการรับของการสุ่มตัวอย่าง (speculative sampling) สามารถใช้เป็นสัญญาณตรวจจับความผิดปกติได้ เมื่อเกิดอักขระผิดปกติ โทเค็นร่าง (draft token) เกือบทั้งหมดจะถูกปฏิเสธ ในขณะที่การซ้ำซ้อนจะมีอัตราการรับสูงขึ้น
0
0
0
0
BlockBeatNews

BlockBeatNews

23 ชั่วโมงที่ผ่านมา
ตามการตรวจสอบ Beating Monitoring ของ Zhipu ได้รายงานว่ามีปัญหาเกี่ยวกับตัวอักษรผิดปกติ การซ้ำซ้อน และอักษรที่ไม่ค่อยพบในโมเดล GLM-5 ซีรีส์ในบริบทของ Coding Agent ตั้งแต่เดือนมีนาคมเป็นต้นมา มีผู้ใช้งานรายงานว่าปัญหาเกิดขึ้นเฉพาะในงาน Coding Agent ที่มีการประมวลผลพร้อมกันสูงและมีบริบทยาว (เฉลี่ยเกิน 70K โทเคน) เท่านั้น ไม่สามารถทำซ้ำได้ในสภาพแวดล้อมการอนุมานมาตรฐาน Zhipu ระบุว่าระบบการอนุมานของตนรับภาระการเรียกใช้งาน Coding Agent วันละหลายร้อยล้านครั้ง หลังจากการตรวจสอบหลายสัปดาห์ ทีมงานได้ระบุจุดบกพร่องสองจุดที่เป็น race condition ในระดับพื้นฐานที่แยกจากกัน จุดแรกเกิดขึ้นในสถาปัตยกรรม PD แยก (แยกการเติมข้อมูลล่วงหน้าและการถอดรหัสไปยังโหนดต่าง ๆ): เมื่อฝั่งการถอดรหัสหยุดคำขอชั่วคราวเนื่องจากหมดเวลาแล้วจะทำการเก็บ KV Cache (แคชสถานะความสนใจที่คำนวณแล้วเพื่อหลีกเลี่ยงการคำนวณซ้ำ) แต่ฝั่งการเติมข้อมูลล่วงหน้าการเขียน RDMA ยังไม่เสร็จสมบูรณ์ คำขอใหม่จะถูกจัดสรรไปยังหน่วยความจำ GPU เดียวกัน ข้อมูลเก่าแทนที่ข้อมูลใหม่ วิธีการแก้ไขคือเพิ่มการซิงโครไนซ์แบบชัดเจนก่อนการเก็บข้อมูล เพื่อยืนยันว่าการเขียนเสร็จสมบูรณ์ก่อนปล่อย หลังจากอัปเดตอัตราความผิดปกติลดลงจากประมาณ 0.1% เหลือไม่ถึง 0.03% จุดบกพร่องที่สองเกิดขึ้นใน HiCache (แคช KV หลายระดับ): เมื่อโหลดข้อมูลจากหน่วยความจำ CPU เข้าสู่แคชแบบอะซิงโครนัส ระหว่างสายการผลิตการโหลดและการคำนวณขาดจุดซิงโครไนซ์ ทำให้ฝั่งการคำนวณอาจเริ่มอ่านข้อมูลก่อนที่ข้อมูลจะโหลดเสร็จสมบูรณ์ หลังจากการแก้ไข ปัญหานี้ก็หายไปอย่างสมบูรณ์ และแพตช์ได้ถูกส่งไปยังชุมชน SGLang (PR #22811) ระหว่างการตรวจสอบ ยังพบสิ่งที่ไม่คาดคิดอีกด้วย: ตัวชี้วัดอัตราการรับคำ (acceptance rate) ของเทคนิคการ sampling แบบคาดการณ์ (ใช้โมเดลเล็กทายโทเคนก่อนแล้วให้โมเดลใหญ่ตรวจสอบเพื่อเร่งความเร็ว) สามารถใช้เป็นสัญญาณตรวจจับความผิดปกติได้ เมื่อเกิดอักษรผิดปกติ โทเคนร่างจะถูกปฏิเสธเกือบทั้งหมด ในขณะที่ในกรณีซ้ำซ้อน อัตราการรับคำจะสูงผิดปกติ ทีมงานจึงได้ทำการตรวจสอบแบบออนไลน์: เมื่อถึงค่าขีดจำกัดจะหยุดการสร้างอัตโนมัติและทำการรีเทรย์ หลังจากแก้ไขบั๊กแล้ว ทีมงานยังได้ปรับปรุงจุดคอขวดอีกด้วย: การเก็บ KV Cache แบบ LayerSplit ซึ่งเก็บข้อมูลแยกชั้นในแต่ละ GPU โดยแต่ละ GPU จะเก็บเฉพาะบางชั้นของ KV Cache แทนที่จะเก็บทั้งหมด โดยใช้การกระจายข้อมูลเพื่อประสานการคำนวณ ในอัตราการเข้าถึงแคช 90% เมื่อความยาวคำขอเพิ่มจาก 40K เป็น 120K จะทำให้ throughput เพิ่มขึ้น 10% ถึง 132% ยิ่งบริบทยาวขึ้น ผลลัพธ์ก็ยิ่งดีขึ้น
0
0
0
0