AI "hút" điện trên toàn cầu?

Admin

Các công ty công nghệ lớn đang chạy đua đào tạo các mô hình trí tuệ nhân tạo, dẫn đến hậu quả sử dụng điện rất nhiều, gây hiệu ứng nhà kính, ô nhiễm môi trường...

Cuộc đua trí tuệ nhân tạo (AI) ngày càng trở nên gay gắt khi các mô hình mới được ra mắt liên tục. Amazon, Microsoft, Apple, Google và Meta dự kiến chi thêm hàng tỉ USD cho cơ sở hạ tầng AI trong thời gian tới.

Tiêu thụ lượng điện khổng lồ

Nói đến các mô hình AI nổi bật hiện nay, có thể kể đến ChatGPT của OpenAI, Chatbot AI của Google, Meta AI của Meta, Olympus của Amazon và MAI-1 của Microsoft. Giữa lúc AI phát triển nhanh chóng, nhiều người hết sức lo ngại về rủi ro, tác động mà nó có thể gây ra, nhất là trong vấn đề sử dụng năng lượng và gia tăng lượng khí thải carbon.

Lượng điện năng tiêu thụ của AI phụ thuộc vào nhiều yếu tố, bao gồm loại hình AI, kích thước mô hình, phần cứng và quá trình triển khai. Với mô hình ngôn ngữ lớn GPT-3 do OpenAI phát triển với 175 tỉ tham số, để đào tạo, các nhà nghiên cứu phải chạy 1.024 GPU (bộ xử lý đồ họa) liên tục trong khoảng 1 tháng. Phó Giáo sư Mosharaf Chowdhury tại Trường ĐH Michigan (Mỹ) ước tính việc huấn luyện GPT-3 tiêu thụ 1,287 triệu KWh điện mỗi lần, tương đương với mức tiêu thụ điện trung bình của một hộ gia đình Mỹ trong 120 năm.

AI

ChatGPT tiêu thụ hơn 500.000 KWh điện/ngày, tương đương mức tiêu thụ điện trung bình hằng ngày của 17.000 hộ gia đình Mỹ. Ảnh: REUTERS

GPT-3 ra mắt cách đây 4 năm và hiện nay kích thước tham số của các mô hình ngôn ngữ lớn (LLM) đang tăng theo cấp số nhân. Trong khi đó, GPT-4 công bố vào năm 2023 có tổng cộng 1.760 tỉ tham số, gấp 10 lần GPT-3. GPT-5, dự kiến ra mắt vào cuối năm 2025, có tốc độ nhanh hơn và khả năng xử lý ngôn ngữ mạnh hơn nên mức tiêu thụ năng lượng để đào tạo cũng sẽ đáng kể hơn.

Khi các ứng dụng trở nên phổ biến và số lượng người dùng tăng lên, mức tiêu thụ điện năng sẽ tiếp tục tăng. Cơ quan Năng lượng Quốc tế (IEA) cho biết ChatGPT tiêu thụ trung bình 2,9 W điện/giờ để đáp ứng các nhu cầu sử dụng, gần gấp 10 lần mức tiêu thụ năng lượng trung bình của Google để phục vụ nhu cầu tìm kiếm của người dùng.

Tính theo lượt sử dụng, ChatGPT đáp ứng khoảng 200 triệu nhu cầu mỗi ngày, tiêu thụ lên đến 182,5 triệu KWh điện/năm. Còn Google với khoảng 9 tỉ lượt tìm kiếm mỗi ngày, nếu tích hợp AI tổng hợp trên quy mô lớn vào tìm kiếm, IEA ước tính sẽ cần thêm 10 tỉ KWh điện/năm.

Thúc đẩy phát triển trung tâm dữ liệu

Trung tâm dữ liệu là cơ sở hạ tầng của AI, cung cấp các tài nguyên tính toán, khả năng lưu trữ và băng thông mạng cần thiết cho AI, cho phép các ứng dụng AI chạy và phát triển hiệu quả. Đồng thời, trung tâm dữ liệu cũng phải cung cấp hệ thống làm mát mạnh mẽ để duy trì nhiệt độ phù hợp bởi hàng ngàn máy chủ và chip chạy suốt ngày đêm tạo ra rất nhiều nhiệt lượng. Vì vậy, mức tiêu thụ điện năng của chính trung tâm dữ liệu rất đáng kể.

Theo báo cáo của IEA năm 2022, mức tiêu thụ điện của trung tâm dữ liệu toàn cầu ước tính 460 tỉ KWh điện vào năm 2022, chiếm gần 2% tổng sản lượng điện năng tiêu thụ toàn cầu. Dự báo đến năm 2026, tổng mức tiêu thụ điện tại các trung tâm dữ liệu có thể tăng gấp đôi lên 1.000 terawatt giờ vào năm 2026, gần tương đương với mức tiêu thụ điện hằng năm của toàn Nhật Bản.

Bên cạnh nhu cầu tiêu thụ điện, nhu cầu nước sạch để làm mát cho toàn bộ hệ thống cũng tăng theo. Theo ước tính của những nhà nghiên cứu, nhu cầu vận hành dịch vụ AI sẽ khiến khối lượng nước ngầm khai thác đạt mức 4,2 đến 6,6 tỉ mét khối vào năm 2027. Con số này tương đương một nửa lượng nước mà nước Anh sử dụng hằng năm.

Nhiều nhà quan sát cho rằng AI nên được các tập đoàn công nghệ tận dụng để hỗ trợ chuyển đổi xanh. Theo hãng tin Reuters, các "ông lớn" công nghệ như Amazon, Microsoft và Google đang đầu tư mạnh tay cho những dự án điện mặt trời và điện gió, cũng như thiết kế lại trung tâm dữ liệu để tiết kiệm nước làm mát. 

Nguy cơ gây biến đổi khí hậu

Ông Lữ Vincent Thế Hùng - nhà sáng lập, CEO Công ty CP eduX Global Institute - cho rằng việc sử dụng công cụ AI không "ngốn" điện năng trực tiếp. Quá trình huấn luyện các mô hình AI như GPT-3.5, GPT-4o... mới là nguyên nhân gây tốn điện năng do yêu cầu tài nguyên xử lý vô cùng lớn, đòi hỏi nhiều năng lượng để vận hành. Đây là một trong những nguyên nhân gây nên tình trạng biến đổi khí hậu như trái đất nóng lên, hạn hán, lũ lụt... Bên cạnh đó, các thiết bị xây dựng AI có vòng đời thường ngắn, chỉ khoảng 1-2 năm, nên dự báo chất thải điện tử sẽ tăng mạnh trong thời gian tới.

"Các đơn vị đào tạo AI có thể tạo ra những thuật toán đơn giản và mô hình AI gọn nhẹ hơn nhằm tiết kiệm năng lượng, qua đó cũng giúp giảm thiểu chi phí. Đồng thời, nên sử dụng năng lượng tái tạo như điện mặt trời, điện gió cung cấp cho các hệ thống AI và cần quy định cụ thể về mức tiêu thụ điện tối đa trong vận hành và phát triển công nghệ này" - ông Hùng đề xuất.

Theo một giảng viên ngành công nghệ thông tin, để tiết kiệm điện năng và phát triển AI bền vững, hiệu quả hơn, có thể áp dụng giải pháp điện toán đám mây để tối ưu hóa việc sử dụng tài nguyên khi vận hành các mô hình này. Ngoài ra, cần yêu cầu các doanh nghiệp công nghệ đang sở hữu hệ thống AI cung cấp số liệu sử dụng điện cho hệ thống của họ, từ đó tính toán tiêu chuẩn tiêu thụ năng lượng cho AI phù hợp cho phát triển công nghệ AI trong dài hạn tại Việt Nam.

L.Tỉnh