OpenClaw Token คู่มือฉบับสมบูรณ์ในการประหยัด: ใช้โมเดลที่ทรงพลังที่สุด ใช้เงินน้อยที่สุด/พร้อมคำแนะนำ

PANews

ผู้เขียน: xiyu

อยากใช้ Claude Opus 4.6 แต่ไม่อยากให้บิลสิ้นเดือนบานปลาย? บทความนี้ช่วยคุณลดต้นทุนลง 60-85%

1. ทรัพยากร token ไปอยู่ที่ไหน?

คุณคิดว่า token เป็นแค่ “คำพูดของคุณ + คำตอบของ AI” ใช่ไหม? แต่ความจริงไม่ใช่แค่นั้น

ต้นทุนแอบแฝงในแต่ละครั้งของการสนทนา:

  • System Prompt (~3000-5000 tokens): คำสั่งหลักของ OpenClaw ซึ่งแก้ไม่ได้
  • การแทรกไฟล์บริบท (~3000-14000 tokens): เช่น AGENTS.md, SOUL.md, MEMORY.md ฯลฯ ทุกครั้งที่สนทนา — นี่คือค่าใช้จ่ายแฝงที่ใหญ่ที่สุด
  • ข้อความประวัติ: ยิ่งคุย ยิ่งยาวขึ้น
  • ข้อมูลที่คุณป้อน + คำตอบของ AI: นี่คือสิ่งที่คุณเข้าใจว่าเป็น “ทั้งหมด”

ตัวอย่างเช่น “อากาศวันนี้เป็นยังไง” จริงๆ ใช้ไป 8000-15000 input tokens ถ้าใช้ Opus คิดเป็นค่า context ก็ประมาณ $0.12-0.22

Cron ยิ่งโหด: ทุกครั้งที่ trigger = เริ่มสนทนาใหม่ = แทรก context ทั้งหมดใหม่ ทุก 15 นาที ทำ 96 ครั้งต่อวัน ก็จะใช้ Opus วันละ $10-20

Heartbeat ก็เช่นกัน: เป็นการเรียกสนทนาในช่วงเวลาสั้นๆ ยิ่งถี่ ยิ่งเปลืองเงิน

2. การแบ่งชั้นของโมเดล: Sonnet สำหรับงานประจำ, Opus สำหรับงานสำคัญ

วิธีประหยัดเงินที่สุดและได้ผลที่สุด Sonnet ราคาประมาณ 1/5 ของ Opus 80% ของงานประจำก็ใช้ Sonnet ได้เต็มที่

提示词:
โปรดเปลี่ยนโมเดลเริ่มต้นของ OpenClaw เป็น Claude Sonnet
ใช้ Opus เฉพาะงานที่ต้องวิเคราะห์ลึกหรือสร้างสรรค์เท่านั้น
รายละเอียดที่ต้องการ:
1) ตั้งค่าโมเดลเริ่มต้นเป็น Sonnet
2) งาน cron ใช้ Sonnet เป็นค่าเริ่มต้น
3) สำหรับงานเขียน งานวิเคราะห์ลึก ให้ระบุเป็น Opus เท่านั้น

场景: งานเขียนยาว โค้ดซับซ้อน การ推理หลายขั้น งานสร้างสรรค์

场景: งานสนทนาประจำวัน คำถามง่าย ตรวจสอบ cron heartbeat แฟ้มไฟล์ การแปล

ผลลัพธ์ที่ได้: หลังเปลี่ยนใช้ Sonnet ค่าใช้จ่ายต่อเดือนลดลง 65% เกือบไม่รู้สึกต่าง

3. การลดขนาดบริบท: ตัด Token ที่ไม่จำเป็นออก

ทุกครั้งที่เรียกใช้งาน “เสียงรบกวน” อาจใช้ 3000-14000 tokens การลดไฟล์บริบทเป็นวิธีที่คุ้มค่าที่สุด

提示词:
ช่วยลดขนาดไฟล์บริบทของ OpenClaw เพื่อประหยัด token
รายละเอียด:
1) ลบส่วนที่ไม่จำเป็นใน AGENTS.md (กฎกลุ่ม, TTS, ฟังก์ชันที่ไม่ใช้) ให้เหลือไม่เกิน 800 tokens
2) สรุป SOUL.md ให้เป็นจุดสำคัญ 300-500 tokens
3) ลบข้อมูลเก่าจาก MEMORY.md ให้เหลือไม่เกิน 2000 tokens
4) ตรวจสอบการตั้งค่า workspaceFiles และเอาไฟล์ที่ไม่จำเป็นออก
แนวทาง: ทุกๆ 1000 tokens ที่ลดลง จะช่วยประหยัดประมาณ $45 ต่อเดือน

4. การปรับแต่ง Cron: ตัวฆ่าต้นทุนที่ซ่อนอยู่

提示词:
ช่วยปรับแต่งงาน cron ของ OpenClaw เพื่อประหยัด token
ให้:
1) รายการงาน cron ทั้งหมด พร้อมความถี่และโมเดล
2) ลดระดับงานที่ไม่ใช่งานสร้างสรรค์เป็น Sonnet
3) รวมงานที่ทำในช่วงเวลาเดียวกัน เช่น การตรวจสอบหลายอย่างเป็นงานเดียว
4) ลดความถี่ของงานที่ไม่จำเป็น เช่น เปลี่ยนระบบตรวจสอบจากทุก 10 นาที เป็นทุก 30 นาที, ตรวจสอบเวอร์ชันจาก 3 ครั้ง/วัน เป็น 1 ครั้ง/วัน
5) ตั้งค่า delivery เป็นแบบแจ้งเตือนตามความต้องการ ไม่ส่งข้อความในเวลาปกติ
หลักการสำคัญ: ไม่จำเป็นต้องทำบ่อยที่สุด การรวมงานตรวจสอบหลายๆ งานเป็นครั้งเดียว ช่วยลดต้นทุน context injection ได้ประมาณ 75%

5. การปรับ Heartbeat

提示词:
ช่วยปรับแต่งการตั้งค่า Heartbeat ของ OpenClaw:
1) ตั้งช่วงเวลาเป็น 45-60 นาที
2) ช่วงเวลามืด (23:00-08:00) เป็นโหมดเงียบ
3) สรุปไฟล์ HEARTBEAT.md ให้เหลือน้อยที่สุด
4) รวมงานตรวจสอบที่กระจายอยู่ให้เป็นชุดเดียวกัน

6. การค้นหาแบบแม่นยำ: ใช้ qmd ลด Input Token ถึง 90%

agent เมื่อค้นข้อมูลจะอ่านทั้งไฟล์ — ตัวอย่างไฟล์ 500 บรรทัด อาจใช้ 3000-5000 tokens แต่จริงๆ แค่ต้องการ 10 บรรทัดเท่านั้น 90% ของ input tokens ถูกสูญเปล่า

qmd เป็นเครื่องมือค้นหาข้อมูลแบบ local สร้างดัชนี全文 + เวกเตอร์ เพื่อให้ agent ค้นหาเฉพาะส่วนที่ต้องการ ไม่ต้องอ่านไฟล์เต็ม คำนวณในเครื่องทั้งหมด ไม่มีค่าใช้จ่าย API

ร่วมกับ mq (Mini Query): ดูโครงสร้างไดเรกทอรี ค้นหาส่วนที่ต้องการ ค้นหาคำสำคัญ — แต่ละครั้งอ่านแค่ 10-30 บรรทัดเท่านั้น

提示词:
ช่วยตั้งค่าคลังความรู้ของ qmd เพื่อประหยัด token
Github: https://github.com/tobi/qmd
ต้องทำ:
1) ติดตั้ง qmd
2) สร้างดัชนีในโฟลเดอร์งาน
3) เพิ่มกฎการค้นหาใน AGENTS.md ให้ agent ใช้ qmd/mq เป็นหลัก
4) ตั้งเวลาสำหรับอัปเดตดัชนีอัตโนมัติ
ผลลัพธ์: ค้นข้อมูลจาก 15000 tokens เหลือแค่ 1500 tokens ลดลง 90%
ต่างจาก memorySearch: memorySearch ใช้สำหรับ "ความทรงจำ" (MEMORY.md), qmd สำหรับ "ค้นข้อมูล" (คลังความรู้เฉพาะ), ไม่ส่งผลกัน

7. การเลือกใช้ Memory Search

提示词:
ช่วยตั้งค่า memorySearch ของ OpenClaw ให้หน่อย
ถ้าข้อมูลความทรงจำมีไม่มาก (ไม่กี่สิบไฟล์ md)
แนะนำใช้ local embedding หรือ Voyage AI?
อธิบายข้อดีข้อเสียแต่ละแบบ
**สรุปง่ายๆ:** ถ้าข้อมูลน้อย ใช้ local embedding ฟรีๆ ถ้ามีหลายภาษา หรือไฟล์เยอะ ใช้ Voyage AI ค่าบริการฟรี 2 พันล้าน tokens ต่อบัญชี

8. รายการปรับแต่งสุดท้าย

提示词:
ช่วยปรับแต่งการตั้งค่า OpenClaw ให้เต็มที่เพื่อประหยัด token ตามรายการนี้:
- เปลี่ยนโมเดลเป็น Sonnet สำหรับงานประจำ, ใช้ Opus สำหรับงานสำคัญ
- ลดขนาดไฟล์ AGENTS.md / SOUL.md / MEMORY.md
- ปรับ cron ให้เป็น Sonnet + รวมงาน + ลดความถี่
- ตั้ง Heartbeat เป็นทุก 45 นาที + เงียบในช่วงกลางคืน
- ตั้งค่าการค้นหาแบบแม่นยำด้วย qmd แทนการอ่านไฟล์เต็ม
- เก็บไฟล์ workspaceFiles เฉพาะไฟล์ที่จำเป็น
- ทำความสะอาดไฟล์ MEMORY.md ให้เหลือไม่เกิน 2000 tokens

ผลลัพธ์ที่ได้จากการตั้งค่าเดียว:

  1. การแบ่งชั้นของโมเดล — Sonnet สำหรับงานประจำ, Opus สำหรับงานสำคัญ ช่วยประหยัด 60-80%
  2. การลดขนาดบริบท — การสรุปไฟล์ + การใช้ qmd ค้นหาแบบแม่นยำ ช่วยลด input token ได้ 30-90%
  3. การลดการเรียกใช้งาน — รวม cron, ยืดระยะ Heartbeat, เปิดโหมดเงียบ
    Sonnet 4 ก็เพียงพอแล้วสำหรับงานประจำ ไม่รู้สึกต่างมาก เมื่อจำเป็นก็เปลี่ยนเป็น Opus ได้ทันที

อ้างอิงจากประสบการณ์จริงของระบบ multi-agent ข้อมูลเป็นประมาณการแบบไม่เปิดเผยข้อมูล

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น