MIT tìm ra cách tăng tốc huấn luyện AI tới hơn 2 lần mà không cần thêm GPU, chìa khóa nằm ở “thời gian chết” của hệ thống
Một kỹ thuật mới giúp rút ngắn thời gian huấn luyện mô hình ngôn ngữ lớn tới 210% bằng cách tận dụng tài nguyên GPU vốn bị lãng phí.
Huấn luyện các mô hình ngôn ngữ lớn đang trở thành một trong những hoạt động tốn kém nhất trong lĩnh vực AI hiện nay. Chi phí không chỉ nằm ở số lượng GPU được triển khai, mà còn ở cách khai thác hiệu suất của chúng. Khi quy mô mô hình ngày càng mở rộng, những điểm nghẽn nhỏ trong vận hành cũng có thể biến thành tổn thất lớn về thời gian và năng lượng.
Một nhóm nghiên cứu từ MIT, phối hợp cùng các cộng sự bao gồm NVidia, cho biết đã tìm ra một phương pháp thực tế nhằm thu hồi phần năng lực tính toán đang bị lãng phí trong quá trình huấn luyện. Theo kết quả công bố, giải pháp này có thể rút ngắn gần một nửa tổng thời gian đào tạo trong nhiều trường hợp.
Vấn đề mà nhóm nhắm tới xuất hiện trong giai đoạn reinforcement learning, cụ thể là bước “rollout”. Đây là quá trình mô hình tạo ra nhiều phản hồi ứng viên để đánh giá và học cách tối ưu hành vi. Với các mô hình ngôn ngữ lớn tập trung vào khả năng suy luận, rollout là thành phần không thể thiếu, nhưng cũng là khâu tiêu tốn nhiều tài nguyên nhất.
Trên thực tế, giai đoạn này có thể chiếm tới 85% tổng thời gian thực thi. Nguyên nhân đến từ hiện tượng “phân phối đuôi dài” về độ dài phản hồi. Phần lớn câu trả lời được tạo ra khá nhanh, nhưng một số ít lại kéo dài vượt trội. Do GPU phải đồng bộ hóa, các GPU hoàn tất sớm buộc phải chờ những tác vụ chậm hơn, tạo ra khoảng thời gian nhàn rỗi không được tận dụng.
Giải pháp mà nhóm MIT đề xuất mang tên Taming the Long Tail, viết tắt là TLT, được thiết kế để xử lý trực diện sự lãng phí này. Thay vì để GPU nhàn rỗi trong lúc chờ các tác vụ kéo dài, hệ thống tận dụng chính khoảng thời gian đó để huấn luyện một mô hình “nháp” nhẹ hơn theo thời gian thực. Mô hình phụ này liên tục học từ mô hình chính trong suốt quá trình đào tạo.
Cách tiếp cận này dựa trên kỹ thuật speculative decoding, nơi một mô hình nhỏ dự đoán trước các token để mô hình chính có thể xác thực song song nhiều token cùng lúc. Tuy nhiên, trong các phương pháp truyền thống, mô hình nháp thường cố định và nhanh chóng lỗi thời khi mô hình chính tiếp tục thay đổi trong quá trình reinforcement learning.
TLT thay đổi điều đó bằng cách tái huấn luyện mô hình nháp một cách cơ hội, sử dụng đúng phần tài nguyên vốn đang bị bỏ trống. Nhờ vậy, mô hình phụ luôn duy trì sự đồng bộ với mô hình chính mà không cần bổ sung thêm hạ tầng tính toán riêng biệt.
Thử nghiệm trên nhiều mô hình ngôn ngữ tập trung vào suy luận và các bộ dữ liệu thực tế cho thấy kết quả đáng chú ý. Nhóm nghiên cứu ghi nhận mức tăng tốc huấn luyện toàn trình từ 70% đến 210% so với các phương pháp nền tảng mạnh, đồng nghĩa trong nhiều tình huống, tốc độ đào tạo gần như được nhân đôi. Quan trọng hơn, độ chính xác của mô hình không bị ảnh hưởng.
Một lợi ích phụ cũng được ghi nhận là chính mô hình nháp được huấn luyện liên tục này có thể trở thành một sản phẩm hữu ích. Do được đào tạo song song với mô hình chính, nó có thể đóng vai trò như một mô hình suy luận hiệu quả trong một số bối cảnh nhất định.
Nghiên cứu này phản ánh xu hướng đáng chú ý trong ngành AI hiện nay: tối ưu hóa thay vì chỉ mở rộng quy mô phần cứng. Thay vì liên tục bổ sung thêm cụm máy chủ, các nhà nghiên cứu đang tìm cách khai thác tối đa hiệu suất từ hạ tầng sẵn có.
Nếu những phương pháp như TLT chứng minh được độ ổn định ở quy mô công nghiệp lớn, tác động có thể không chỉ dừng ở hiệu năng mà còn giúp giảm đáng kể chi phí tài chính và tác động môi trường khi huấn luyện các mô hình suy luận thế hệ mới.
Thanh niên Việt
CÙNG CHUYÊN MỤC
Những “ông lớn” đứng sau dàn robot nhảy múa, pha trò trên sóng truyền hình Trung Quốc: Từ sân khấu gala đến tham vọng thống lĩnh thị trường toàn cầu Nổi bật
2 ứng dụng người dùng nên xóa ngay để không bị lộ tin nhắn Nổi bật
Giám đốc Công an Hà Nội: Sớm sử dụng thiết bị bay không người lái giám sát an ninh
15:30 , 01/03/2026
Lai Châu: Phát sinh giao dịch 170 triệu đồng, chủ tài khoản Vietcombank làm việc với Công an
14:52 , 01/03/2026
Chính thức từ hôm nay (1/3/2026): Ảnh, video do AI tạo ra phải có dấu hiệu nhận biết
14:41 , 01/03/2026
Meta kiện các doanh nghiệp sử dụng deepfake quảng cáo trái phép
14:30 , 01/03/2026
function XemTheoNgay(ShortURL) { var day = $('#opNgay').val() + ''; var month = $('#opThang').val() + ''; var year = $('#opNam').val() + '';
if (day == '0' || month == '0' || year == '0') { alert('Bạn vui lòng chọn đủ ngày tháng năm.'); return; }
try { var re = /^(d{1,2})/(d{1,2})/(d{4})$/; var dateInput = day + '/' + month + '/' + year; console.log(dateInput); var minYear = 1902; var maxYear = (new Date()).getFullYear();
if (regs = dateInput.match(re)) { if (regs[1] < 1 || regs[1] > 31) { alert("Giá trị ngày không đúng: " + regs[1]); return; } else if (regs[2] < 1 || regs[2] > 12) { alert("Giá trị tháng không đúng: " + regs[2]); return; } else if (regs[3] < minYear || regs[3] > maxYear) { alert("Giá trị năm không đúng: " + regs[3] + " - phải nằm trong khoảng " + minYear + " và " + maxYear); return; }
/* check leap year*/
switch (month) { case "4": case "04": case "6": case "06": case "9": case "09": case "11": if (day > 30) { alert('Không tồn tại ngày: "' + day + '/' + month + '/' + year + '". Hãy thử lại'); return; } break; case "2": case "02": var isLeapYear = parseFloat(year) % 4 == 0;
if (day > (isLeapYear ? 29 : 28)) { alert('Không tồn tại ngày: "' + day + '/' + month + '/' + year + '". Hãy thử lại'); return; } break; } } else { alert('Không tồn tại ngày: "' + day + '/' + month + '/' + year + '". Hãy thử lại'); return; }
/* date time OK*/ var url = "/" + ShortURL + "/" + dateInput + ".chn"; //alert(url); if (ShortURL != 0) { window.location = url; }
} catch (e) { console.log('exception:' + e); alert('Không tồn tại ngày: "' + day + '/' + month + '/' + year + '". Hãy thử lại'); } }
