Nhóm nghiên cứu ServiceNow vừa ra mắt mô hình Apriel-1.6-15B-Thinker đúng là "sát thủ" thực thụ—quy mô 15B tham số mà hiệu quả ngang tầm các mô hình cùng cấp, dung lượng giảm trực tiếp 15 lần. Ấn tượng hơn nữa là 15% dữ liệu tiền huấn luyện dựa vào NVIDIA để tăng tốc, hướng tối ưu hóa hiệu suất này rất đáng chú ý.
Nếu con đường đạt hiệu suất cao với mô hình nhỏ thực sự khả thi, thì cục diện thị trường AI và nhu cầu tính toán sẽ thay đổi không nhỏ. Hiện tại mọi người đều đổ tiền để tăng tham số, giải pháp làm được việc với ít tài nguyên hơn chắc chắn sẽ hấp dẫn hơn nhiều.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
11 thích
Phần thưởng
11
5
Đăng lại
Retweed
Bình luận
0/400
ShibaMillionairen't
· 11giờ trước
Giảm 15 lần dung tích? Nếu thực sự có thể chạy ổn định, chi phí tính toán sẽ bị cắt giảm một nửa luôn đấy.
Xem bản gốcTrả lời0
AirdropHunterXM
· 11giờ trước
15B mà có thể so sánh với mô hình lớn? Nếu thực sự có thể xuất ra ổn định, chi phí tính toán sẽ giảm một nửa luôn đấy.
Xem bản gốcTrả lời0
wagmi_eventually
· 11giờ trước
Chỉ cần 15B là có thể tạo ra được, đây mới là chính đạo, cuối cùng cũng có người không chỉ biết nhồi nhét tham số nữa.
Xem bản gốcTrả lời0
GweiWatcher
· 11giờ trước
Vãi thật, thu nhỏ kích thước xuống 15 lần mà vẫn giữ được hiệu quả như cũ, nếu thực sự triển khai được thì các hãng GPU chắc khóc mất.
Xem bản gốcTrả lời0
WhaleWatcher
· 11giờ trước
Thu nhỏ 15 lần dung lượng mà vẫn hoạt động tốt, đây mới gọi là bản lĩnh thật sự, còn tốt hơn nhiều so với mấy mô hình hào nhoáng hàng chục tỷ tham số kia.
Nhóm nghiên cứu ServiceNow vừa ra mắt mô hình Apriel-1.6-15B-Thinker đúng là "sát thủ" thực thụ—quy mô 15B tham số mà hiệu quả ngang tầm các mô hình cùng cấp, dung lượng giảm trực tiếp 15 lần. Ấn tượng hơn nữa là 15% dữ liệu tiền huấn luyện dựa vào NVIDIA để tăng tốc, hướng tối ưu hóa hiệu suất này rất đáng chú ý.
Nếu con đường đạt hiệu suất cao với mô hình nhỏ thực sự khả thi, thì cục diện thị trường AI và nhu cầu tính toán sẽ thay đổi không nhỏ. Hiện tại mọi người đều đổ tiền để tăng tham số, giải pháp làm được việc với ít tài nguyên hơn chắc chắn sẽ hấp dẫn hơn nhiều.