VCCI: Đánh thuế cổ tức bằng cổ phiếu khi chưa có thu nhập thực tế là chưa hợp lý
Investing.com -- Theo dữ liệu được công bố vào hôm thứ Tư, các chip mới nhất của Nvidia (NASDAQ:NVDA) đã cho thấy tiến bộ trong việc đào tạo các hệ thống trí tuệ nhân tạo (AI) quy mô lớn. Dữ liệu này cho thấy sự giảm đáng kể về số lượng chip cần thiết để đào tạo các mô hình ngôn ngữ lớn.
Dữ liệu được công bố bởi MLCommons, một tổ chức phi lợi nhuận chia sẻ kết quả hiệu suất chuẩn cho các hệ thống AI. Tổ chức này đã cung cấp thông tin mới về các chip từ Nvidia và Advanced Micro Devices, cùng các nhà sản xuất khác, được sử dụng cho việc đào tạo AI. Quá trình này liên quan đến việc cung cấp cho hệ thống AI khối lượng dữ liệu lớn để học hỏi. Mặc dù sự chú ý của thị trường chứng khoán đã chuyển sang AI suy luận, nơi các hệ thống AI giải quyết các truy vấn của người dùng, số lượng chip cần thiết cho việc đào tạo hệ thống vẫn là một yếu tố cạnh tranh quan trọng. Ví dụ, DeepSeek của Trung Quốc khẳng định họ có thể tạo ra một chatbot cạnh tranh với ít chip hơn nhiều so với các đối thủ Hoa Kỳ.
Kết quả gần đây là những kết quả đầu tiên mà MLCommons đã chia sẻ liên quan đến hiệu suất chip trong đào tạo hệ thống AI. Các chip được kiểm tra trên việc đào tạo các hệ thống AI như Llama 3.1 405B, một mô hình AI mã nguồn mở được phát triển bởi Meta Platforms. Mô hình này có một lượng lớn cái gọi là "tham số", cho thấy cách các chip có thể hoạt động trong một số nhiệm vụ đào tạo phức tạp nhất thế giới, có thể liên quan đến hàng nghìn tỷ tham số.
Chỉ có Nvidia và các đối tác của hãng đã gửi dữ liệu về việc đào tạo mô hình lớn này. Dữ liệu cho thấy rằng chip Blackwell mới của Nvidia nhanh hơn gấp hai lần so với thế hệ chip Hopper trước đó trên cơ sở mỗi chip.
Theo kết quả nhanh nhất cho các chip mới của Nvidia, 2.496 chip Blackwell đã hoàn thành bài kiểm tra đào tạo trong 27 phút. Hiệu suất này nhanh hơn so với số lượng chip nhiều hơn ba lần từ thế hệ trước của Nvidia, theo dữ liệu.
Trong một cuộc họp báo, ông Chetan Kapoor, giám đốc sản phẩm của CoreWeave, đơn vị đã làm việc với Nvidia trên một số kết quả, cho biết đã có một sự thay đổi trong ngành công nghiệp AI. Xu hướng là hướng tới việc tập hợp các nhóm chip nhỏ hơn thành các hệ thống phụ cho các nhiệm vụ đào tạo AI riêng biệt, thay vì tạo ra các nhóm đồng nhất với 100.000 chip hoặc nhiều hơn. Ông Kapoor lưu ý rằng cách tiếp cận này cho phép tiếp tục tăng tốc hoặc giảm thời gian cần thiết để đào tạo các mô hình có kích thước tham số nhiều nghìn tỷ.
Bài viết này được tạo và dịch với sự hỗ trợ của AI và đã được biên tập viên xem xét. Để biết thêm thông tin, hãy xem Điều Kiện & Điều Khoản của chúng tôi.