Hé lộ thứ “ngốn” điện năng nhất trên hành tinh
Lượng điện tiêu thụ toàn cầu của các trung tâm dữ liệu dự kiến sẽ tăng gấp đôi vào năm 2030, chủ yếu là do sự phát triển nhanh chóng của trí tuệ nhân tạo (AI).
- Chính thức: Ông Trump miễn trừ thuế cho smartphone và thiết bị điện tử
- Chỉ 20k/tháng tiền điện: Đánh bay nắng nóng với quạt tháp điều hoà Levoit
- Cận cảnh điều hoà LG DUALCOOL Inverter AI Air: Thiết kế hai luồng gió độc đáo, nhiều tính năng AI giúp tiết kiệm điện, giá từ 14 triệu đồng
- Trung Quốc áp mạnh thuế quan lên hàng Mỹ, giá của hàng triệu điện thoại và laptop dùng chip Qualcomm, AMD sẽ ra sao?
- Quê nhà tỷ phú Phạm Nhật Vượng “nóng rực” dự án "khủng", vài tháng tới sẽ đón mẫu ô tô điện đầu tiên
Lượng điện cần thiết để cung cấp năng lượng cho các trung tâm dữ liệu (data center) trên thế giới dự kiến sẽ tăng gấp đôi trong 5 năm tới, một báo cáo đặc biệt do Cơ quan Năng lượng Quốc tế (IEA) công bố hôm 10/4 cho biết.
Theo báo cáo, đến năm 2030, các trung tâm dữ liệu có thể tiêu thụ 945 TWh (terawatt giờ) điện mỗi năm – nhiều hơn một chút so với toàn bộ mức tiêu thụ điện hàng năm của Nhật Bản hiện nay.
Phần lớn sự gia tăng này là do sự phát triển và sử dụng các mô hình trí tuệ nhân tạo (AI) ngày càng mạnh mẽ, báo cáo chỉ rõ.
Các trung tâm dữ liệu AI thường sử dụng chip GPU lớn, tiêu tốn nhiều năng lượng và quy mô xử lý dữ liệu cần thiết để đào tạo và vận hành hầu hết các mô hình AI đòi hỏi lượng năng lượng lớn.
Mức tiêu thụ năng lượng tại các trung tâm dữ liệu dành riêng cho AI có thể tăng gấp 4 lần vào năm 2030, IEA nhấn mạnh.

Ảnh minh hoạ.
"AI là một trong những câu chuyện lớn nhất trong thế giới năng lượng hiện nay", ông Fatih Birol, giám đốc điều hành của IEA, cho biết. "Tại Hoa Kỳ, các trung tâm dữ liệu đang trên đà chiếm gần một nửa sự tăng trưởng của nhu cầu điện; tại Nhật Bản, hơn một nửa; và tại Malaysia, lên tới 1/5".
Các công ty công nghệ lớn vẫn chưa muốn cung cấp thông tin chi tiết về lượng năng lượng họ sử dụng để đào tạo và vận hành các mô hình AI của mình.
Nhưng báo cáo của IEA ước tính rằng việc đào tạo GPT-4, một trong những mô hình ngôn ngữ lớn mạnh hơn do OpenAI phát triển, mất 14 tuần và sử dụng khoảng 42G Wh (gigawatt giờ) điện năng.
Con số này tương đương với mức tiêu thụ điện hàng ngày của khoảng 28.500 hộ gia đình ở các nước phát triển hoặc 70.500 hộ gia đình ở các nước nghèo hơn.
Và việc sử dụng AI để thực hiện một nhiệm vụ – được gọi là suy luận – cũng có thể tiêu tốn rất nhiều năng lượng.
Tại Mỹ, các trung tâm dữ liệu, phần lớn được xây dựng để đào tạo và vận hành AI, dự kiến sẽ tiêu thụ nhiều điện hơn vào năm 2030 so với sản xuất tất cả các mặt hàng thâm dụng năng lượng của quốc gia này, bao gồm nhôm, thép, xi măng và hóa chất, theo báo cáo của IEA.
Nhưng cơ quan này cũng dự đoán rằng AI sẽ là một công cụ thiết yếu trong việc cung cấp thông tin về cách quản lý nhu cầu năng lượng trong tương lai, thiết kế các trung tâm dữ liệu hiệu quả hơn và đẩy nhanh quá trình phát triển các nguồn phát điện mới, sạch hơn.
"Với sự trỗi dậy của AI, ngành năng lượng đang đi đầu trong một trong những cuộc cách mạng công nghệ quan trọng nhất của thời đại chúng ta", ông Birol cho biết trong một tuyên bố kèm theo báo cáo. "AI là một công cụ, có khả năng là một công cụ cực kỳ mạnh mẽ, nhưng tùy thuộc vào cách chúng ta – xã hội, chính phủ và các công ty – sử dụng nó".
(Theo Sky News, Newsweek)
NỔI BẬT TRANG CHỦ
Thế giới kỳ lạ của ‘ảo giác AI’: Khi máy tự tin bịa chuyện như thật, còn người dùng Việt vẫn gật gù tin theo
VTV.vn - AI ngày càng thông minh – và cũng ngày càng bịa chuyện khéo léo hơn. Nếu bạn từng tin ngay những gì nó nói, có thể bạn cũng đã rơi vào “ảo giác AI” mà không nhận ra.
Trải nghiệm MacBook Air M4: chiếc Air mạnh nhất và có thể là laptop đáng mua nhất của Apple hiện nay