Trong một báo cáo gần đây về đầu tư theo chủ đề, các nhà phân tích của Barclays đã kiểm tra sự gia tăng tiêu thụ năng lượng dự kiến sẽ đi kèm với sự phát triển của công nghệ trí tuệ nhân tạo (AI), đặc biệt nhấn mạnh vào vai trò của NVIDIA (NVDA).
Các nhà phân tích cho rằng các yêu cầu năng lượng dự đoán liên quan đến những tiến bộ trong AI làm nổi bật một phần quan trọng trong triển vọng thị trường tương lai của NVIDIA.
Nghiên cứu của Barclays dự đoán rằng vào năm 2030, các trung tâm dữ liệu có thể sử dụng hơn 9% nguồn cung cấp điện hiện tại ở Hoa Kỳ, chủ yếu là do năng lượng cần thiết cho các hoạt động AI. Mức tiêu thụ năng lượng dự kiến liên quan đến AI có trong kỳ vọng thị trường của NVIDIA là một đóng góp chính cho dự báo năng lượng quan trọng này, theo các nhà phân tích.
Báo cáo cũng đề cập rằng mặc dù hiệu quả năng lượng của AI đang tăng lên với mỗi thế hệ đơn vị xử lý đồ họa (GPU) mới, quy mô và sự phức tạp của các mô hình AI đang mở rộng nhanh chóng. Ví dụ, năng lực của các mô hình ngôn ngữ mở rộng đáng kể (LLM) đã tăng khoảng 3,5 lần mỗi năm.
Tuy nhiên, tổng mức tiêu thụ năng lượng dự kiến sẽ tăng lên do phạm vi sử dụng AI ngày càng mở rộng. Mỗi dòng GPU mới hơn, như Hopper và Blackwell của NVIDIA, được thiết kế để tiết kiệm năng lượng hơn. Tuy nhiên, các mô hình AI lớn hơn và phức tạp hơn vẫn đòi hỏi một lượng sức mạnh xử lý đáng kể.
"Các mô hình ngôn ngữ mở rộng (LLM) cần một lượng lớn sức mạnh xử lý để phản hồi ngay lập tức", báo cáo nêu rõ. "Nhu cầu xử lý của LLM cũng dẫn đến việc sử dụng năng lượng tăng lên vì bộ nhớ, máy gia tốc và máy chủ bổ sung là cần thiết để đáp ứng, giáo dục và suy luận từ các mô hình này."
"Các công ty có kế hoạch triển khai LLM để phân tích tức thì phải đối mặt với những vấn đề này", Barclays nhận xét.
Để đưa ra ý nghĩa về nhu cầu năng lượng này, Barclays ước tính rằng để vận hành khoảng 8 triệu GPU sẽ cần gần 14,5 gigawatt điện, tương đương với khoảng 110 terawatt giờ (TWh) năng lượng. Dự đoán này dựa trên tỷ lệ sử dụng trung bình 85%.
Với ước tính 70% các GPU này được dự đoán sẽ được lắp đặt ở Mỹ vào cuối năm 2027, điều này đại diện cho hơn 10 gigawatt và 75 TWh nhu cầu năng lượng và năng lượng liên quan đến AI ở Hoa Kỳ trong vòng ba năm tới.
"Giá trị thị trường của NVIDIA chỉ ra rằng đây chỉ là khởi đầu của nhu cầu năng lượng liên quan đến AI", các nhà phân tích nhận xét. Sự phát triển và giới thiệu liên tục của GPU của công ty bán dẫn dự kiến sẽ dẫn đến sự gia tăng đáng kể trong việc sử dụng năng lượng trong các trung tâm dữ liệu.
Hơn nữa, sự phụ thuộc của các trung tâm dữ liệu vào điện từ lưới điện nhấn mạnh sự cần thiết phải quản lý các yêu cầu điện năng cao điểm. Các trung tâm dữ liệu hoạt động mà không bị gián đoạn, đòi hỏi phải cung cấp năng lượng nhất quán.
Báo cáo trích dẫn một quan sát quan trọng từ Sam Altman, Giám đốc điều hành của OpenAI, tại Diễn đàn Kinh tế Thế giới Davos, "Chúng ta hoàn toàn cần một lượng năng lượng lớn hơn nhiều trên thế giới so với những gì chúng ta nhận ra trước đây... Tôi tin rằng chúng ta vẫn đánh giá thấp nhu cầu năng lượng của công nghệ này".
Bài viết này được tạo và dịch với sự trợ giúp của AI và được kiểm tra bởi một biên tập viên. Để biết thêm chi tiết, hãy tham khảo Điều khoản và Điều kiện của chúng tôi.