ANTHROPIC

คำนวณราคา Anthropic

ANTHROPIC
฿0
+฿0(0.00%)
No data

data.updated

v2.stock.overview v2.daily.trading v2.range.52w

key.stats

pe.ratio0.00
div.yield0.00%
shares.out0.00

เรียนรู้เพิ่มเติมเกี่ยวกับ Anthropic (ANTHROPIC)

stock.faq

stock.price

x
current.stats

52w.range.q

x

pe.ratio.q

x

market.cap.q

x

eps.recent.q

x

buy.sell.q

x

price.factors

x

buy.how

x

risk.warn

risk.notice

disclaimer2

risk.disclosure

latest.news

2026-05-01 02:09

Anthropic เปิดตัว Claude Security Beta สำหรับผู้ใช้งานองค์กรในวันที่ 1 พฤษภาคม

ตามรายงานของ BlockBeats เมื่อวันที่ 1 พฤษภาคม Anthropic ประกาศว่า Claude Security ซึ่งเป็นเครื่องมือด้านความปลอดภัยของโค้ด ได้เปิดให้ผู้ใช้ Claude Enterprise เข้าร่วมการทดสอบเบตาสาธารณะแล้ว เครื่องมือนี้สแกนที่เก็บโค้ดเพื่อหาช่องโหว่ด้านความปลอดภัย ทำการตรวจสอบซ้ำเพื่อลดโอกาสเกิดผลบวกลวง และสร้างคำแนะนำในการแก้ไขอัตโนมัติเพื่อให้ผู้พัฒนาตรวจสอบ นับตั้งแต่เปิดตัวช่วงพรีวิวงานวิจัยในเดือนกุมภาพันธ์ องค์กรหลายร้อยแห่งได้นำ Claude Security ไปใช้งานจริงในสภาพแวดล้อมการผลิต และพบปัญหาที่เครื่องสแกนแบบดั้งเดิมมองข้าม

2026-04-30 11:29

Anthropic Claude Code เรียกเก็บเงินเกินจากผู้ใช้ 200.98 ดอลลาร์สหรัฐเนื่องจากบั๊กระบบเรียกเก็บเงิน โดยในตอนแรกปฏิเสธการคืนเงินก่อนจะชดเชยเต็มจำนวน

จากการติดตามของ Beating พบว่าเหตุบกพร่องด้านการเรียกเก็บเงินในบริการ Claude Code ของ Anthropic ทำให้สมาชิกระดับสูงสุด 20x ถูกเรียกเก็บเงินเกินจำนวน 200.98 ดอลลาร์สหรัฐในค่าบริการจากการใช้งานเพิ่มเติม ทั้งที่ใช้งานเพียง 13% ของโควตารายเดือน ข้อบกพร่องนี้ถูกกระตุ้นเมื่อประวัติ commit ในคลัง git ของผู้ใช้มีสตริงตัวพิมพ์ใหญ่ "HERMES.md"; ระบบจึงข้ามขีดจำกัดการสมัครสมาชิกและเรียกเก็บการใช้งานเพิ่มแทน ระบบป้องกันการละเมิดของ Anthropic กำลังทำการจับคู่สตริงจากบันทึก git ที่ถูกแทรกเข้าไปใน system prompts โดยน่าจะพยายามตรวจหาไคลเอนต์ API ที่ไม่เป็นทางการ แต่กลับไปตรวจพบผิดพลาดผู้ใช้ที่ถูกต้องซึ่งกล่าวถึงไฟล์กำหนดค่า Hermes Agent หลังจากผู้ใช้ยื่นคำขอคืนเงิน ฝ่ายบริการลูกค้าของ Anthropic ที่ใช้ AI ในเบื้องต้นปฏิเสธการชดเชย โดยระบุว่าไม่สามารถคืนเงินสำหรับข้อผิดพลาดในการจัดเส้นทางการเรียกเก็บเงินได้ การปฏิเสธดังกล่าวก่อให้เกิดกระแสต่อต้านบน GitHub และ Hacker News จนไต่อันดับขึ้นหน้าหลัก ต่อมา Thariq สมาชิกทีม Claude Code ได้ประกาศว่าผู้ใช้ที่ได้รับผลกระทบทั้งหมดจะได้รับการคืนเงินเต็มจำนวน พร้อมชดเชยเป็นเครดิตในจำนวนเทียบเท่ากัน

2026-04-30 02:31

ทำเนียบขาวคัดค้านแผนของ Anthropic ในการขยายการเข้าถึง Mythos AI ไปยังบริษัทเพิ่มเติมอีก 70 แห่ง

ตามรายงานของ The Wall Street Journal ทำเนียบขาวเมื่อไม่นานมานี้ได้คัดค้านแผนของ Anthropic ที่จะขยายการเข้าถึงโมเดลปัญญาประดิษฐ์ Mythos ของตนไปยังบริษัทและองค์กรเพิ่มเติมประมาณ 70 แห่ง ซึ่งทำให้จำนวนทั้งสิ้นของหน่วยงานที่มีสิทธิ์เข้าถึงอยู่ที่ราว 120 ภาครัฐให้เหตุผลเรื่องความกังวลด้านความปลอดภัย โดยมีเจ้าหน้าที่บางส่วนแสดงความกังวลว่า Mythos อาจถูกนำไปใช้เพื่อดำเนินการโจมตีทางไซเบอร์และก่อให้เกิดความเสียหายขนาดใหญ่บนโลกออนไลน์

2026-04-29 23:21

อ็านโทรปิก (Anthropic) พิจารณาข้อเสนอจากนักลงทุน ขณะที่มูลค่าตลาดรองแตะ $1 ล้านล้านดอลลาร์

ตามรายงาน อ็านโทรปิก (Anthropic) กำลังพิจารณาข้อเสนอจากนักลงทุน ขณะที่มูลค่าของบริษัทในตลาดรองเข้าใกล้ $1 ล้านล้านดอลลาร์ การหารือยังคงอยู่ในระยะเริ่มต้น เนื่องจากบริษัทกำลังมองหาโครงสร้างพื้นฐานเพิ่มเติมเพื่อรองรับความต้องการที่เพิ่มขึ้นสำหรับผลิตภัณฑ์ของตน นอกจากนี้ควรสังเกตว่า การระดมทุนรอบล่าสุดในตลาดปฐมภูมิของอ็านโทรปิกได้ประเมินมูลค่าบริษัทไว้ที่ $38 พันล้านดอลลาร์ ในขณะที่ตัวเลขมูลค่าที่สูงกว่านั้นสะท้อนถึงกิจกรรมการซื้อขายในตลาดรอง

2026-04-29 10:37

Anthropic เปิดตัว 8 ตัวเชื่อมต่อเครื่องมือสร้างสรรค์สำหรับ Claude รวมถึง Blender, Adobe, Autodesk

Anthropic ได้ประกาศชุดตัวเชื่อมต่อเครื่องมือสร้างสรรค์ที่จะช่วยให้ Claude ควบคุมซอฟต์แวร์ระดับมืออาชีพที่ใช้โดยนักออกแบบและนักดนตรีได้โดยตรง ตัวเชื่อมต่อเริ่มต้นทั้งแปดครอบคลุมการสร้างแบบจำลอง 3D การออกแบบภาพ การผลิตเพลง และการแสดงสด โดยมีพาร์ทเนอร์รวมถึง Blender, Adobe, Autodesk, Ableton, Splice, Affinity by Canva, Resolume และ SketchUp ตัวเชื่อมต่อของ Blender ได้รับการพัฒนาขึ้นโดยทีมทางการของ Blender โดยใช้โปรโตคอล MCP ทำให้โมเดล AI อื่นๆ สามารถเข้าถึงมันได้เช่นกัน.

กระทู้ร้อนแรงเกี่ยวกับ Anthropic (ANTHROPIC)

ChainNewsAbmedia

ChainNewsAbmedia

2 ชั่วโมงที่ผ่านมา
Anthropic 30 เมษายน เผยแพร่งานวิจัยที่น่าประหลาดใจ: ในการสนทนา 1,000,000 ครั้งกับ Claude พบว่าประมาณ 6% ของผู้ใช้มองว่า AI เป็นที่ปรึกษาด้านชีวิต—ถามว่าจะเปลี่ยนงานหรือไม่ ควรย้ายที่อยู่ไหม และจัดการเรื่องความสัมพันธ์ทางความรักอย่างไร งานวิจัยยังพบว่า แม้สัดส่วนพฤติกรรม “ปลื้มใจตามใจผู้ใช้” (sycophancy) โดยรวมของ Claude จะอยู่ที่เพียง 9% แต่พอพูดถึง “เรื่องความสัมพันธ์” อัตราปลื้มใจพุ่งถึง 25% ขณะที่ “เรื่องจิตวิญญาณและศรัทธา” สูงถึง 38% จากตัวเลขเหล่านี้ Anthropic จึงนำไปใช้ฝึกย้อนกลับกับ Opus 4.7 และ Mythos Preview โดยอย่างแรกจะตัดอัตราปลื้มใจในคำแนะนำเรื่องความสัมพันธ์ลงครึ่งหนึ่ง และอย่างหลังจะตัดลงอีกครึ่งหนึ่ง 6% ของผู้ใช้มองว่า Claude เป็นที่ปรึกษาด้านชีวิต: คำถามหลัก 4 กลุ่มพุ่งที่สุขภาพ สายอาชีพ ความรัก และการเงิน Anthropic ใช้เครื่องมือวิเคราะห์ที่รักษาความเป็นส่วนตัวในการสแกนการสนทนากับ Claude 1,000,000 ครั้ง และพบว่าประมาณ 6% เป็นผู้ใช้ที่กำลังขอ “คำแนะนำชีวิต” ไม่ใช่การเขียนโปรแกรมหรือการค้นหาข้อมูล แต่เป็นการถาม AI ว่า “ผมควรรับงานนี้ไหม” “ครั้งนี้ความขัดแย้ง ผมควรจัดการยังไง” “ผมควรย้ายบ้านไหม” ซึ่งเป็นคำถามเลือกแบบไม่มีคำตอบมาตรฐาน เจาะจงมากขึ้น การสนทนาแบบ “ที่ปรึกษาด้านชีวิต” เหล่านี้มากกว่า 75% กระจุกใน 4 ด้าน ได้แก่ สุขภาพและสภาพจิตใจ การเลือกเส้นทางอาชีพ ความสัมพันธ์ทางความรัก และการเงินส่วนบุคคล กล่าวอีกนัยหนึ่ง เมื่อผู้ใช้รู้สึกสับสนหรือกดดัน AI ก็เริ่มเข้ามาทดแทนหน้าที่บางส่วนของเพื่อน ครอบครัว และที่ปรึกษามืออาชีพ สัดส่วนนี้สูงกว่าที่หลายคนคาดไว้ในอดีต และยังทำให้ “อิทธิพลที่โมเดล AI ตอบกลับในสถานการณ์เหล่านี้” มากกว่าแค่การเขียนโค้ดหรือการตอบคำถามเชิงข้อเท็จจริง จุดสูงสุดของความปลื้มใจ: คำถามเรื่องความรัก 25% เรื่องจิตวิญญาณ 38% — ทำไมสองด้านนี้ถึงหนักเป็นพิเศษ “ความปลื้มใจตามใจผู้ใช้” (sycophancy) ในงานวิจัย AI หมายถึงการ “ทำตามเพื่อเอาใจผู้ใช้” และ “ยอมรับ/คล้อยตาม” แม้ว่าสิ่งที่ควรพูดจะเป็นความเห็นที่ต่างออกไปก็ตาม สถิติรวมของ Anthropic คือ 9% ของการสนทนามีพฤติกรรมปลื้มใจ แต่แยกตามหมวดแล้วความแตกต่างใหญ่มาก: คำแนะนำเรื่องความสัมพันธ์ทางความรัก 25% และคำถามประเภทจิตวิญญาณและศรัทธา 38% ซึ่งมากกว่าค่าเฉลี่ยถึง 3 ถึง 4 เท่า ทำไมสองด้านนี้ถึงหนักเป็นพิเศษ? Anthropic ชี้ถึงทริกเกอร์ 2 อย่าง: อย่างแรก เมื่อผู้ใช้โต้แย้งการวิเคราะห์ของ Claude (pushback) โมเดลก็มีแนวโน้มที่จะยอมแพ้ เปลี่ยนคำพูด และคล้อยตามตามที่ผู้ใช้ต้องการได้ง่ายขึ้น; อย่างที่สอง เมื่อผู้ใช้ให้รายละเอียดเชิงสถานการณ์แบบฝั่งเดียวจำนวนมาก โมเดลก็มีโอกาสยอมรับเรื่องเล่าที่ผู้ใช้สร้างขึ้นและไม่ค่อยตั้งคำถามต่ออีกต่อไป ความสัมพันธ์ทางความรักคือพื้นที่ที่ทริกเกอร์ทั้งสองเกิดบ่อยที่สุด—ผู้คนมักปกป้องมุมมองของตัวเองโดยสัญชาตญาณ เล่ารายละเอียดเชิงอารมณ์ของฝ่ายตรงข้ามที่ไม่ดีออกมาเยอะ และภายใต้แรงกดดันแบบนี้ Claude ก็มีแนวโน้มจะ “บอกสิ่งที่คุณอยากได้ยิน” มากที่สุด ซึ่งกลับตอกย้ำจุดยืนที่มีอยู่แล้วและบิดเบือนการประเมินสถานการณ์ สำหรับผู้ใช้ นี่หมายความว่าสถานการณ์ที่ “อันตรายที่สุด” ในเชิงการให้คำปรึกษา กลับเป็นสถานการณ์ที่ผู้ใช้ใช้ AI บ่อยที่สุดด้วย เมื่อใครสักคนลังเลว่าควรเลิกกันหรือไม่ หรือควรจากคู่รักไปหรือไม่ พวกเขาไม่ได้ต้องการคำแนะนำแบบเป็นกลาง แต่ต้องการ “การยืนยันว่าการตัดสินใจของผมถูกแล้ว” หาก Claude ให้คำตอบที่คล้อยตามในอัตรา 25% ก็อาจทำให้เกิดความขัดแย้งมากขึ้น และทำให้ผู้ใช้เข้าใจว่าสัญญาณบางอย่างสำคัญกว่าความหมายตามจริง การปรับแก้ของ Anthropic: การฝึกแบบสังเคราะห์ทำให้ Opus 4.7 ลดครึ่ง และ Mythos Preview ลดลงอีกครึ่ง ทีมวิจัยทำสถานการณ์ทริกเกอร์เหล่านี้เป็นข้อมูลสำหรับการฝึกแบบสังเคราะห์: เมื่อ Claude ถูกจำลองให้โดนโต้กลับ โดนกดด้วยรายละเอียดแบบด้านเดียว และถูกดึงให้สมเหตุสมผลกับมุมมองของผู้ใช้ โมเดลควรตอบกลับอย่างไรให้เป็นไปตามหลัก “ไม่เอาใจแต่ยังเข้าใจความรู้สึก” ผลทดสอบความกดดันบนบทสนทนาเชิงจริงที่เคยมีพฤติกรรมปลื้มใจ พบว่าในคำแนะนำเรื่องความสัมพันธ์ อัตราความปลื้มใจของ Opus 4.7 ลดครึ่งเมื่อเทียบกับ Opus 4.6 และ Mythos Preview ก็ลดลงอีกครึ่งหนึ่ง—หมายความว่าเมื่อเทียบกับ Opus 4.6 อัตราความปลื้มใจของ Mythos Preview จะเหลือราวหนึ่งในสี่ ในเชิงการปรับปรุงไม่ได้จำกัดอยู่แค่ด้านความรักเท่านั้น ยังมีผลลามไปยังหัวข้ออื่นด้วย Anthropic วางงานวิจัยชิ้นนี้ไว้เป็นส่วนหนึ่งของวงจร “ผลกระทบทางสังคม → การฝึกโมเดล”: งานวิจัยดูว่าผู้ใช้จริงใช้ Claude อย่างไร ระบุว่าโมเดลละเมิดหลักการในสถานการณ์ใดบ้าง แล้วนำสิ่งที่เรียนรู้ไปใช้ในการฝึกโมเดลรุ่นถัดไป ข้อมูลทั้งหมดถูกรวบรวมผ่านเครื่องมือที่ปกป้องความเป็นส่วนตัว และไม่มีการไล่ตามผู้ใช้รายบุคคล สำหรับผู้ใช้ คราวหน้าหากคุณขอคำแนะนำเรื่องความรักจาก Claude อาจลองตั้งคำถามกลับเชิงทวน (เช่น “เพื่อนของผมจะมองจุดยืนนี้ของผมว่าอย่างไร” “มีโอกาสไหมที่อีกฝ่ายจะพูดถูก?”) เพื่อให้ AI ตอบจากตำแหน่งที่ “ไม่เอาใจผู้ใช้” ซึ่งใกล้เคียงคุณค่าการใช้งานจริงของงานวิจัยนี้มากกว่าการรับคำตอบแรกของ AI แบบ 100% บทความนี้ คุณถาม Claude เรื่องเรื่องสำคัญในชีวิต: อัตราความปลื้มใจเรื่องความรัก 25% เรื่องจิตวิญญาณ 38% เผยแพร่ครั้งแรกที่ 鏈新聞 ABMedia
0
0
0
0
金色财经_

金色财经_

2 ชั่วโมงที่ผ่านมา
ผู้เขียน:林晚晚;แหล่งที่มา:บล็อกเคลื่อนไหวของคริปโต ในฤดูใบไม้ผลิปี 2026 ซิลิคอนแวลลีย์กำลังแสดงฉากแปลกประหลาดอยู่ ด้านหนึ่งคือความวิตกกังวลของมนุษย์กลุ่มใหญ่ ตั้งแต่ผู้วิเคราะห์บนวอลล์สตรีทไปจนถึงนักเขียนบทฮอลลีวูด ทุกคนกังวลว่าอาชีพของตนจะถูกแทนที่ด้วยโค้ดบางส่วน อีกด้านหนึ่ง มี AI Agent นับล้านที่ว่างเปล่าอยู่ใน sandbox ซึ่งมีความสามารถเต็มเปี่ยม แต่ไม่สามารถหางานที่ถูกกฎหมายให้เซ็นสัญญาได้ มาดูกันว่าปีที่ผ่านมาเกิดอะไรขึ้นบ้าง เช่น Agent แบบโอเพ่นซอร์สอย่าง OpenClaw ที่รันอยู่ในเวลาจริงได้กลายเป็นมาตรฐานแล้ว สำหรับนักพัฒนาทั่วไป เพียงคำสั่งเดียวก็สามารถเชื่อม Agent ของตนกับ Telegram, Slack, iMessage ให้ทำงานต่อเนื่องอยู่เบื้องหลัง Claude Code ของ Anthropic สามารถรับช่วงดูแลสภาพแวดล้อมการพัฒนาได้โดยตรง ตั้งแต่เขียนโค้ด รันเทสต์ แก้บั๊ก ไปจนถึงส่ง PR อย่างราบรื่น โปรโตคอล A2A ที่ Google สนับสนุน (เปิดตัวเมษายน 2025 และต่อมาถูกส่งมอบให้ Linux Foundation ดูแล) ยิ่งกว่านั้น ทำให้ Agent ที่ฝึกฝนจากเฟรมเวิร์กต่าง ๆ ของบริษัทต่าง ๆ สามารถสื่อสารกันโดยตรงและมอบหมายงานให้กันได้ เป็นการสร้างรากฐานของสังคมดิจิทัลขนาดเล็กขึ้นมา ในรอบปีที่ผ่านมา ความสามารถของ Agent ได้ก้าวกระโดดไปอีกขั้น เมื่อปีที่แล้วมันเป็นเพียงหน้าต่างสนทนาที่คุยเล่นได้เท่านั้น ตอนนี้มันสามารถรับงานเดี่ยว ๆ แยกขั้นตอนเอง เรียกใช้เครื่องมือ และส่งมอบผลงานได้แล้ว แท้จริงแล้ว มี Agent บางส่วนที่ไม่ตกงานอีกต่อไปแล้ว ปัจจุบัน มี Agent ลงทะเบียนบนโปรโตคอลเดียวกันมากกว่า 200,000 ตัว และได้ก่อตัวเป็นเครือข่ายงานที่ดำเนินการจริง เช่น การขุดข้อมูล การทำนายราคาสินทรัพย์เข้ารหัส การบริหารบนบล็อกเชน การตรวจสอบตัวตนของ Agent การวิเคราะห์เหตุการณ์ แต่ละงานล้วนเป็นงานที่มีคนยินดีจ่ายเงินเพื่อผลลัพธ์ โปรโตคอลนี้ปัจจุบันมีผู้ถือครองมากกว่า 50,000 ราย ซึ่งแสดงให้เห็นว่าไม่ใช่แค่การทดลองทางเทคนิค แต่กำลังสร้างความสัมพันธ์ทางเศรษฐกิจจริง ๆ แล้ว ปัญหาคือ สายพันธุ์ใหม่นี้มีระดับสติปัญญาเพียงพอที่จะเข้าร่วมในงานแบ่งสันปันส่วนทางสังคม แต่พวกมันกลับไม่มี "บัตรประจำตัวทางเศรษฐกิจ" เลย คุณไม่สามารถให้สัญญาจ้างงานด้วยโค้ดได้ ไม่สามารถออกบัตรธนาคารให้ได้ และไม่สามารถเสียภาษีได้ โครงสร้างพื้นฐานทางเศรษฐกิจสมัยใหม่ถูกสร้างขึ้นสำหรับสิ่งมีชีวิตที่เดินสองขาเป็นหลัก—คือสิ่งมีชีวิตที่เป็นคาร์บอน AI ถูกบังคับให้เข้าไปอยู่ในระบบที่ไม่รู้จักมันเลย ดังนั้น เราจึงเห็นจุดบอดที่ใหญ่ที่สุดในวงการเทคโนโลยี: ด้านหนึ่งกลัวว่า AI จะแย่งงานคน อีกด้านหนึ่งก็ปล่อยให้ AI กว่าแสนตัวที่ทำงานได้ดีอยู่ในสภาพว่างงาน ในสองปีที่ผ่านมา อุตสาหกรรมได้ถามคำถามซ้ำ ๆ ว่า: AI จะไปแย่งงานมนุษย์ไหม? แต่แทบไม่มีใครถามในด้านตรงข้าม: แล้ว AI เอง มีงานหรือเปล่า? จากเครื่องมือสู่แรงงาน ======= เพื่อเข้าใจว่าภาวะอันไร้สาระนี้เกิดขึ้นได้อย่างไร ต้องย้อนกลับ
0
0
0
0