“Mega uptrend” của VN-Index đã bắt đầu?
Investing.com -- Intel (NASDAQ:INTC) Labs và Viện Khoa học Weizmann đã phát triển một phương pháp mới giúp các mô hình ngôn ngữ lớn (LLMs) chạy nhanh hơn tới 2,8 lần mà không làm giảm chất lượng đầu ra, công ty này đã công bố.
Đột phá trong ’giải mã dự đoán’ đã được trình bày tại Hội nghị Quốc tế về Học Máy ở Vancouver, Canada. Kỹ thuật này cho phép bất kỳ mô hình "nháp" nhỏ nào cũng có thể tăng tốc cho bất kỳ mô hình ngôn ngữ lớn nào, ngay cả khi chúng sử dụng các từ vựng khác nhau.
"Chúng tôi đã giải quyết một vấn đề không hiệu quả lõi trong AI tạo sinh. Nghiên cứu của chúng tôi cho thấy cách biến tăng tốc dự đoán thành một công cụ phổ quát. Đây không chỉ là một cải tiến lý thuyết; đây là những công cụ thực tế đã giúp các nhà phát triển xây dựng ứng dụng nhanh hơn và thông minh hơn ngay hôm nay," ông Oren Pereg, nhà nghiên cứu cấp cao tại Nhóm Xử lý Ngôn ngữ Tự nhiên của Intel Labs cho biết.
Giải mã dự đoán hoạt động bằng cách ghép nối một mô hình nhỏ, nhanh với một mô hình lớn hơn, chính xác hơn. Khi được đưa ra một câu hỏi như "Thủ đô của Pháp là gì", một LLM truyền thống tạo ra từng từ một theo từng bước, tiêu tốn đáng kể tài nguyên ở mỗi bước. Với giải mã dự đoán, mô hình trợ giúp nhỏ nhanh chóng soạn thảo một cụm từ đầy đủ như "Paris, một thành phố nổi tiếng", sau đó mô hình lớn sẽ xác minh, giảm chu kỳ tính toán.
Phương pháp mới loại bỏ những hạn chế trước đây đòi hỏi các từ vựng chung hoặc các họ mô hình được đào tạo cùng nhau, làm cho nó trở nên thực tế hơn trên các loại mô hình khác nhau. Kỹ thuật này không phụ thuộc vào nhà cung cấp, hoạt động với các mô hình từ các nhà phát triển và hệ sinh thái khác nhau.
"Công trình này loại bỏ một rào cản kỹ thuật lớn để làm cho AI tạo sinh nhanh hơn và rẻ hơn," ông Nadav Timor, nghiên cứu sinh tiến sĩ trong nhóm nghiên cứu của Giáo sư David Harel tại Viện Weizmann cho biết. "Các thuật toán của chúng tôi mở khóa khả năng tăng tốc tiên tiến mà trước đây chỉ có sẵn cho các tổ chức tự đào tạo các mô hình nháp nhỏ của riêng họ."
Nghiên cứu giới thiệu ba thuật toán mới tách biệt mã hóa dự đoán khỏi việc căn chỉnh từ vựng. Những thuật toán này đã được tích hợp vào thư viện mã nguồn mở Hugging Face Transformers, giúp hàng triệu nhà phát triển có thể sử dụng khả năng tăng tốc LLM tiên tiến mà không cần mã tùy chỉnh.
Bài viết này được tạo và dịch với sự hỗ trợ của AI và đã được biên tập viên xem xét. Để biết thêm thông tin, hãy xem Điều Kiện & Điều Khoản của chúng tôi.