NVIDIA bỏ xa đối thủ 9 lần trong bài kiểm tra AI Jensen Huang gọi là "khắt khe nhất", và lý do không phải chip Blackwell mới

Thế Duyệt, Thanh Niên Việt 

Trong kỳ MLPerf Inference v6.0, NVIDIA là nhà sản xuất duy nhất nộp kết quả DeepSeek-R1 — đồng thời ghi nhận mức tăng 2,7 lần thông lượng token chỉ nhờ cập nhật phần mềm, không thay đổi phần cứng.

NVIDIA vừa công bố kết quả tham dự bộ bài kiểm tra MLPerf Inference v6.0, với nền tảng Blackwell Ultra, đồng thời ghi nhận số lần chiến thắng cao gấp 9 lần đối thủ gần nhất.

MLPerf Inference v6.0 do tổ chức MLCommons phát triển, bổ sung hỗ trợ cho các mô hình lập luận và MoE thế hệ mới gồm DeepSeek-R1, GPT-OSS-120B và Mixtral 8x7B. Bên cạnh đó, bộ bài kiểm tra còn mở rộng phạm vi sang các mô hình ngôn ngữ lớn dạng dense, hệ thống gợi ý tạo sinh và mô hình ngôn ngữ thị giác, phản ánh đúng yêu cầu thực tế của doanh nghiệp hiện nay. CEO Jensen Huang từng gọi MLPerf là một trong những bộ bài kiểm tra "khắt khe" nhất hiện có.

NVIDIA bỏ xa đối thủ 9 lần trong bài kiểm tra AI Jensen Huang gọi là "khắt khe nhất", và lý do không phải chip Blackwell mới- Ảnh 1.

Kết quả nổi bật nhất đến từ cấu hình GB300 NVL72 khi so sánh giữa v5.1 và v6.0. Với tác vụ DeepSeek-R1 ở chế độ Server, thông lượng tăng từ 2.907 lên 8.064 tokens/giây/GPU, tương đương 2,77 lần. Ở chế độ Offline, con số lần lượt là 5.842 và 9.821 tokens/giây/GPU (tăng 1,68 lần). Với mô hình Llama 3.1 405B, tốc độ Server tăng từ 170 lên 259 tokens/giây/GPU (1,52 lần), còn Offline đạt 271 tokens/giây/GPU so với 224 tokens/giây/GPU ở thế hệ trước (1,21 lần).

NVIDIA bỏ xa đối thủ 9 lần trong bài kiểm tra AI Jensen Huang gọi là "khắt khe nhất", và lý do không phải chip Blackwell mới- Ảnh 2.

Phần lớn mức tăng này đến từ tối ưu hóa phần mềm, không phải thay đổi phần cứng. Kể từ lần tham dự đầu tiên với bài kiểm tra DeepSeek-R1 vài tháng trước, NVIDIA đã cải thiện thông lượng token lên 2,7 lần chỉ nhờ cập nhật phần mềm. Ở cấp độ phần cứng, GB300 NVL72 mang lại tốc độ cao hơn tới 2,77 lần so với GB200 NVL72, cho thấy mức độ cải tiến qua từng thế hệ là nhất quán và rõ ràng.

NVIDIA cho biết đây là nhà sản xuất duy nhất nộp kết quả DeepSeek-R1 trong kỳ MLPerf Inference năm ngoái. Ở phiên bản v6.0, ưu thế này tiếp tục được duy trì. Nhiều nhà sản xuất chip ASIC và cả AMD vẫn chưa tham gia bộ bài kiểm tra này một cách toàn diện như NVIDIA. Công ty lý giải hiệu năng suy luận đạt được nhờ thiết kế đồng bộ cực kỳ chặt chẽ trên nhiều cấp độ: chip, kiến trúc hệ thống, thiết kế trung tâm dữ liệu và phần mềm. Kết quả MLPerf Inference v6.0 cũng được dùng để minh chứng cho chỉ số token/USD và chi phí sở hữu toàn phần (TCO) cạnh tranh trong các triển khai quy mô lớn.

Tin cùng chuyên mục
Xem theo ngày

NỔI BẬT TRANG CHỦ