SAN JOSE, Calif. - NVIDIA đã công bố ra mắt kiến trúc GPU Blackwell, được thiết kế để tăng cường đáng kể sức mạnh và hiệu quả tính toán cho các tổ chức sử dụng các mô hình ngôn ngữ lớn (LLM) và AI tạo ra. GPU Blackwell dự kiến sẽ giảm chi phí và mức tiêu thụ năng lượng của LLM vận hành tới 25 lần so với người tiền nhiệm của nó.
Nền tảng Blackwell bao gồm sáu công nghệ mới nhằm tăng tốc đào tạo AI và suy luận thời gian thực cho các mô hình có tới 10 nghìn tỷ thông số. Trong số các công nghệ này có chip mạnh nhất thế giới, chứa 208 tỷ bóng bán dẫn và Công cụ biến áp thế hệ thứ hai hỗ trợ khả năng suy luận AI dấu phẩy động 4 bit mới.
Một tính năng khác là NVLink thế hệ thứ năm, cung cấp thông lượng hai chiều 1,8TB / s trên mỗi GPU, nâng cao hiệu suất cho các LLM phức tạp. Ngoài ra, một Công cụ RAS chuyên dụng cho độ tin cậy, tính khả dụng và khả năng bảo trì, cùng với công cụ giải nén để tăng tốc các truy vấn cơ sở dữ liệu, là một phần của kiến trúc Blackwell.
Siêu chip NVIDIA GB200 Grace Blackwell là một thành phần đáng chú ý của kiến trúc mới, kết nối hai GPU B200 Tensor Core với CPU NVIDIA Grace, tạo điều kiện cho hiệu suất AI tăng hiệu suất gấp 30 lần so với GPU NVIDIA H100 Tensor Core cho khối lượng công việc suy luận LLM.
Nền tảng Blackwell đã thu hút được sự quan tâm rộng rãi, với các nhà cung cấp đám mây lớn, nhà sản xuất máy chủ và các công ty AI hàng đầu dự kiến sẽ áp dụng nó. Sự chứng thực đáng chú ý đã đến từ các nhà lãnh đạo công nghệ như Sundar Pichai của Alphabet và Google, Andy Jassy của Amazon, Michael Dell của Dell Technologies và Elon Musk của Tesla và xAI.
Các sản phẩm dựa trên Blackwell của NVIDIA sẽ có sẵn thông qua mạng lưới đối tác toàn cầu vào cuối năm nay, với các nhà cung cấp dịch vụ đám mây như AWS, Google Cloud, Microsoft Azure và Oracle Cloud Infrastructure là những nhà cung cấp đầu tiên cung cấp các phiên bản do Blackwell cung cấp.
Danh mục sản phẩm Blackwell cũng được hỗ trợ bởi NVIDIA AI Enterprise, một hệ điều hành dành cho AI cấp sản xuất bao gồm các vi dịch vụ, khung, thư viện và công cụ suy luận có thể triển khai trên các đám mây, trung tâm dữ liệu và máy trạm được NVIDIA tăng tốc.
Thông báo này dựa trên một tuyên bố thông cáo báo chí từ NVIDIA.
Bài viết này được tạo và dịch với sự hỗ trợ của AI và đã được biên tập viên xem xét. Để biết thêm thông tin, hãy xem Điều Kiện & Điều Khoản của chúng tôi.