![]() |
Cấu trúc mới nâng cao độ tin cậy, hiệu quả chi phí và khả năng mở rộng cho AI doanh nghiệp
SINGAPORE, ngày 31 tháng 3 năm 2026 /PRNewswire/ — Là công ty tiên phong về AI cung cấp Agentic AI-as-a-Service (AaaS), Appier vừa công bố nghiên cứu mới mang tên “Hiệu chỉnh các mô hình ngôn ngữ lớn: Từ phản hồi đến năng lực“, thể hiện cam kết đầu tư dài hạn vào đổi mới AI. Nghiên cứu giới thiệu “Hiệu chỉnh năng lực[1]” (Capability Calibration) – một phương pháp mới nhằm giải quyết vấn đề AI “quá tự tin” và tạo thông tin sai lệch (hallucination), bằng cách giúp hệ thống AI tự đánh giá chính xác khả năng hoàn thành một nhiệm vụ trước khi thực hiện.
Nghiên cứu này giúp tác nhân AI có thêm năng lực quan trọng: dự đoán khả năng giải quyết vấn đề trước khi đưa ra câu trả lời. Với cơ chế tự đánh giá có thể đo lường, các hệ thống AI có thể ra quyết định chính xác hơn, đồng thời tối ưu việc sử dụng tài nguyên tính toán — từ đó nâng cao độ tin cậy, giảm chi phí và mở rộng hiệu quả triển khai AI trong doanh nghiệp
Từ độ chính xác của câu trả lời đến năng lực giải quyết vấn đề thực tế
Các phương pháp hiệu chỉnh LLM truyền thống thường tập trung vào độ chính xác của từng câu trả lời riêng lẻ. Tuy nhiên, do kết quả từ LLM mang tính xác suất, cùng một truy vấn có thể tạo ra nhiều câu trả lời khác nhau. Vì vậy, một phản hồi đơn lẻ không phản ánh đúng năng lực thực sự của mô hình.
Trên thực tế, doanh nghiệp không chỉ quan tâm một câu trả lời đúng, mà quan tâm liệu mô hình có thể giải quyết vấn đề một cách ổn định hay không. Phương pháp của Appier chuyển trọng tâm đánh giá từ từng phản hồi riêng lẻ sang xác suất thành công tổng thể của mô hình cho mỗi truy vấn. Điều này giúp đánh giá sát hơn năng lực thực tế và hiệu quả ứng dụng trong môi trường kinh doanh.
Giúp các tác nhân AI “hiểu giới hạn của chính mình”
“Các tác nhân AI không nên chỉ tạo ra câu trả lời mà còn cần hiểu được giới hạn năng lực của chính mình”, Chih-Han Yu, Giám đốc điều hành kiêm Đồng sáng lập Appier cho biết. “Với hiệu chỉnh năng lực, AI có thể ước tính xác suất thành công trước khi phản hồi và tối ưu phân bổ tài nguyên một cách thông minh. Những tác vụ đơn giản được xử lý nhanh chóng, trong khi các bài toán phức tạp sẽ tự động sử dụng các mô hình mạnh hơn hoặc thêm tài nguyên tính toán. Điều này giúp biến AI từ công cụ thụ động thành hệ thống chủ động tối ưu vận hành, kiểm soát chi phí và nâng cao chất lượng ra quyết định — nền tảng quan trọng để mở rộng AI ở quy mô doanh nghiệp.”.
Kết quả nghiên cứ: Độ chính xác cao với chi phí tối ưu
Nghiên cứu làm rõ mối quan hệ giữa hiệu chỉnh năng lực và hiệu chỉnh truyền thống[2] (Response Calibration), đồng thời đánh giá nhiều cách ước lượng độ tin cậy trên 03 mô hình ngôn ngữ lớn và 07 bộ dữ liệu bao gồm các tác vụ đòi hỏi kiến thức chuyên sâu và suy luận phức tạp. Các phương pháp được thử nghiệm bao gồm: Độ tin cậy được biểu đạt bằng ngôn ngữ[3], P(True)[4], và Bộ phân loại tuyến tính[5] (Linear Probe). Kết quả cho thấy phương pháp này mang lại hiệu quả tối ưu giữa chi phí và hiệu năng, thậm chí có chi phí tính toán thấp hơn việc tạo một token, trong khi vẫn đảm bảo độ chính xác cao trong việc ước lượng độ tin cậy.
Giới thiệu về Appier
Appier (TSE: 4180) là công ty AI tiên phong cung cấp Agentic AI như một dịch vụ (AaaS), giúp doanh nghiệp nâng cao hiệu quả ra quyết định thông qua các giải pháp AdTech và MarTech tiên tiến.. Được thành lập vào năm 2012 với tầm nhìn “Đơn giản hóa AI bằng phần mềm thông minh”, Appier hỗ trợ doanh nghiệp chuyển hóa AI thành ROI thông qua các giải pháp Ad Cloud, Personalization Cloud và Data Cloud. Hiện nay, Appier vận hành 17 văn phòng trên khắp khu vực Châu Á – Thái Bình Dương, Hoa Kỳ và Châu Âu, Trung Đông và Châu Phi, và được niêm yết trên Sàn Giao dịch Chứng khoán Tokyo. Truy cập www.appier.com để biết thêm thông tin về công ty và truy cập ir.appier.com/en/ để biết thêm thông tin về quan hệ nhà đầu tư.
|
[1] Hiệu chỉnh năng lực (Capability Calibration)– Phương pháp đánh giá khả năng giải quyết vấn đề tổng thể của mô hình AI bằng cách ước tính xác suất mô hình sẽ trả lời thành công một truy vấn nhất định, thay vì đánh giá một phản hồi đơn lẻ. |
|
[2] hiệu chỉnh truyền thống (Response Calibration) — Phương pháp đánh giá AI truyền thống đo độ tin cậy của mô hình đối với tính đúng đắn của một phản hồi được tạo ra. |
|
[3] Độ tin cậy được biểu đạt bằng ngôn ngữ – Phương pháp trong đó mô hình tự nêu rõ mức độ tin cậy về tính đúng đắn của câu trả lời bằng ngôn ngữ tự nhiên, chẳng hạn như dưới dạng phần trăm hoặc mức độ tin cậ. |
|
[4] P(True) – Kỹ thuật ước tính xác suất một câu trả lời là đúng bằng cách phân tích phân phối xác suất của các token được mô hình tạo ra. |
|
[5] Bộ phân loại tuyến tính (Linear Probe) – Một bộ phân loại tuyến tính nhẹ được huấn luyện trên các biểu diễn nội tại của mô hình nhằm phân tích liệu mô hình đã học được kiến thức hoặc năng lực cụ thể hay chưa, đồng thời ước tính độ tin cậy. |
Mọi thắc mắc về truyền thông, vui lòng gửi email đến pr@appier.com
