Trả lời: Trí tuệ nhân tạo (AI) có thể sử dụng rất ít điện năng cho một tác vụ xử lý văn bản đơn giản, nhưng sẽ tiêu thụ nhiều hơn đáng kể khi các yêu cầu dài, đầu ra đa phương thức hoặc hệ thống hoạt động ở quy mô lớn. Quá trình huấn luyện thường tiêu tốn nhiều năng lượng nhất ban đầu, trong khi quá trình suy luận hàng ngày trở nên đáng kể khi số lượng yêu cầu tích lũy.
Những điểm chính cần ghi nhớ:
Ngữ cảnh : Hãy xác định rõ nhiệm vụ, kiểu máy, phần cứng và quy mô trước khi đưa ra bất kỳ ước tính năng lượng nào.
Đào tạo : Hãy coi việc đào tạo người mẫu là sự kiện tốn nhiều năng lượng nhất khi lập kế hoạch ngân sách.
Suy luận : Cần theo dõi sát sao quá trình suy luận lặp đi lặp lại, vì chi phí nhỏ cho mỗi yêu cầu sẽ nhanh chóng tích lũy khi quy mô tăng lên.
Cơ sở hạ tầng : Bao gồm hệ thống làm mát, lưu trữ, mạng lưới và công suất nhàn rỗi trong bất kỳ ước tính thực tế nào.
Hiệu quả : Sử dụng các mô hình nhỏ hơn, lời nhắc ngắn hơn, bộ nhớ đệm và xử lý theo lô để giảm mức tiêu thụ năng lượng.

Những bài viết bạn có thể muốn đọc sau bài này:
🔗 Trí tuệ nhân tạo ảnh hưởng đến môi trường như thế nào?
Giải thích về lượng khí thải carbon, mức tiêu thụ năng lượng và những đánh đổi về tính bền vững của trí tuệ nhân tạo (AI).
🔗 Trí tuệ nhân tạo có gây hại cho môi trường không?
Phân tích những chi phí môi trường tiềm ẩn của các mô hình AI và trung tâm dữ liệu.
🔗 Trí tuệ nhân tạo (AI) tốt hay xấu? Ưu điểm và nhược điểm
Cái nhìn cân bằng về lợi ích, rủi ro, đạo đức và tác động thực tế của trí tuệ nhân tạo.
🔗 Trí tuệ nhân tạo (AI) là gì? Hướng dẫn đơn giản
Tìm hiểu những kiến thức cơ bản về AI, các thuật ngữ quan trọng và những ví dụ thường ngày chỉ trong vài phút.
Vì sao câu hỏi này quan trọng hơn mọi người nghĩ 🔍
Việc sử dụng năng lượng của AI không chỉ là vấn đề môi trường. Nó còn liên quan đến một vài vấn đề thực tế:
-
Chi phí điện năng - đặc biệt đối với các doanh nghiệp thực hiện nhiều yêu cầu AI.
-
Tác động carbon - tùy thuộc vào nguồn điện cung cấp cho máy chủ.
-
Áp lực lên phần cứng - các chip mạnh mẽ tiêu thụ công suất lớn.
-
Quyết định về quy mô - một lời nhắc nhở đơn giản, giá rẻ có thể dẫn đến hàng triệu lời nhắc nhở đắt đỏ.
-
Thiết kế sản phẩm - hiệu quả thường là một tính năng tốt hơn nhiều so với những gì mọi người nhận ra ( Google Cloud , Trí tuệ nhân tạo xanh ).
Nhiều người hỏi "Trí tuệ nhân tạo (AI) tiêu thụ bao nhiêu năng lượng?" vì họ muốn một con số gây sốc. Một con số khổng lồ. Một con số dễ gây chú ý. Nhưng câu hỏi hay hơn là: Chúng ta đang nói về loại hình sử dụng AI nào? Bởi vì điều đó thay đổi tất cả mọi thứ. ( IEA )
Một gợi ý tự động hoàn thành duy nhất? Khá nhỏ.
Huấn luyện một mô hình tiên tiến trên các cụm máy tính khổng lồ? Lớn hơn nhiều.
Một quy trình làm việc AI doanh nghiệp luôn hoạt động liên tục tiếp cận hàng triệu người dùng? Vâng, điều đó cộng dồn lại rất nhanh... giống như những đồng xu nhỏ biến thành tiền thuê nhà. ( DOE , Google Cloud )
Trí tuệ nhân tạo (AI) tiêu thụ bao nhiêu năng lượng? Câu trả lời ngắn gọn ⚡
Đây là phiên bản thực tế.
AI) có thể sử dụng từ một phần rất nhỏ của watt-giờ cho một tác vụ nhẹ đến lượng điện năng khổng lồ cho việc đào tạo và triển khai quy mô lớn. Phạm vi đó nghe có vẻ rộng đến mức buồn cười vì thực tế nó rất rộng. ( Google Cloud , Strubell và cộng sự )
Nói một cách đơn giản:
-
Các tác vụ suy luận đơn giản - thường có chi phí tương đối thấp cho mỗi lần sử dụng.
-
Các cuộc hội thoại dài, sản lượng lớn, tạo hình ảnh, tạo video - tiêu tốn nhiều năng lượng hơn đáng kể.
-
Đào tạo các mô hình lớn - nhà vô địch hạng nặng về mức tiêu thụ điện năng.
-
Vận hành AI ở quy mô lớn suốt cả ngày - nơi mà "chi phí nhỏ cho mỗi yêu cầu" trở thành "tổng chi phí lớn" ( Google Cloud , DOE )
Một nguyên tắc chung hữu ích là:
-
Huấn luyện là sự kiện đòi hỏi năng lượng khổng lồ ngay từ đầu 🏭
-
Suy luận chính là hóa đơn tiền điện nước hàng tháng 💡 ( Strubell và cộng sự , Nghiên cứu của Google )
Vì vậy, khi ai đó hỏi, " Trí tuệ nhân tạo (AI) sử dụng bao nhiêu năng lượng? ", câu trả lời trực tiếp là, "Không phải một con số cụ thể - mà là đủ để hiệu quả trở nên quan trọng, và đủ để quy mô thay đổi toàn bộ câu chuyện." ( IEA , Trí tuệ nhân tạo xanh )
Tôi biết câu này không hấp dẫn như mọi người mong muốn. Nhưng đó là sự thật.
Điều gì tạo nên một phiên bản ước tính năng lượng bằng trí tuệ nhân tạo tốt? 🧠
Một ước tính tốt không chỉ là một con số ấn tượng được đưa ra trên biểu đồ. Một ước tính thực tế cần bao gồm bối cảnh. Nếu không, nó giống như cân sương mù bằng cân phòng tắm. Gần đúng để nghe có vẻ ấn tượng, nhưng không đủ chính xác để tin tưởng. ( IEA , Google Cloud )
Một ước tính năng lượng AI hợp lý nên bao gồm:
-
Loại nhiệm vụ - văn bản, hình ảnh, âm thanh, video, đào tạo, tinh chỉnh
-
Kích thước mô hình - các mô hình lớn hơn thường cần nhiều sức mạnh tính toán hơn.
-
Phần cứng được sử dụng - không phải tất cả các chip đều có hiệu suất như nhau.
-
Thời lượng phiên - các lời nhắc ngắn và quy trình làm việc nhiều bước dài rất khác nhau.
-
Mức độ sử dụng - các hệ thống ở trạng thái không hoạt động vẫn tiêu thụ điện năng
-
Hệ thống làm mát và cơ sở hạ tầng - máy chủ không phải là toàn bộ chi phí.
-
Vị trí và hỗn hợp năng lượng - điện năng không sạch như nhau ở mọi nơi ( Google Cloud , IEA )
Đây là lý do tại sao hai người có thể tranh luận về mức tiêu thụ điện năng của AI và cả hai đều tỏ ra tự tin khi nói về những điều hoàn toàn khác nhau. Một người nói về một phản hồi duy nhất của chatbot. Người kia nói về một quá trình huấn luyện quy mô lớn. Cả hai đều nói "AI", và đột nhiên cuộc trò chuyện đi chệch hướng 😅
Bảng so sánh - những cách tốt nhất để ước tính mức tiêu thụ năng lượng của AI 📊
Đây là một bảng thực tế dành cho bất cứ ai muốn trả lời câu hỏi này mà không biến nó thành một màn trình diễn nghệ thuật.
| Công cụ hoặc phương pháp | Khán giả tốt nhất | Giá | Lý do nó hiệu quả |
|---|---|---|---|
| Ước tính đơn giản theo quy tắc kinh nghiệm | Những độc giả tò mò, các bạn học sinh | Miễn phí | Nhanh, dễ, hơi mờ - nhưng đủ tốt để so sánh sơ bộ |
| Đồng hồ đo công suất phía thiết bị | Những người tự chế tạo, những người đam mê | Thấp | Đo lường lượng điện năng thực tế mà máy tiêu thụ, một con số khá cụ thể và rõ ràng |
| bảng điều khiển đo từ xa GPU | Kỹ sư, nhóm ML | Trung bình | Cung cấp thông tin chi tiết hơn về các tác vụ đòi hỏi nhiều tài nguyên tính toán, mặc dù có thể bỏ sót chi phí vận hành lớn hơn của cơ sở hạ tầng |
| Thanh toán trên nền tảng đám mây + nhật ký sử dụng | Các công ty khởi nghiệp, đội ngũ vận hành | Trung bình đến cao | Kết nối việc sử dụng AI với chi tiêu thực tế - chưa hoàn hảo, nhưng vẫn khá có giá trị |
| Báo cáo năng lượng trung tâm dữ liệu | Nhóm doanh nghiệp | Cao | Cung cấp tầm nhìn vận hành toàn diện hơn, hệ thống làm mát và cơ sở hạ tầng bắt đầu được thể hiện rõ ở đây |
| Đánh giá toàn bộ vòng đời sản phẩm | Các nhóm phát triển bền vững, các tổ chức lớn | Khá cao, đôi khi gây đau | Tốt nhất là dùng cho phân tích chuyên sâu vì nó vượt ra ngoài phạm vi của chính con chip... nhưng nó chậm và khá cồng kềnh |
Không có phương pháp nào hoàn hảo. Đó là điều hơi khó chịu. Nhưng vẫn có nhiều mức độ giá trị. Và thông thường, một thứ hữu dụng sẽ tốt hơn là hoàn hảo. ( Google Cloud )
Yếu tố quan trọng nhất không phải là phép thuật - mà là sức mạnh tính toán và phần cứng 🖥️🔥
Khi mọi người hình dung về mức tiêu thụ năng lượng của AI, họ thường tưởng tượng chính mô hình đó là thứ tiêu thụ điện năng. Nhưng thực tế, mô hình đó là logic phần mềm chạy trên phần cứng. Chính phần cứng mới là nơi mà hóa đơn tiền điện được thể hiện. ( Strubell và cộng sự , Google Cloud )
Các biến số lớn nhất thường bao gồm:
-
Loại GPU hoặc bộ tăng tốc
-
Có bao nhiêu con chip được sử dụng?
-
Chúng hoạt động trong bao lâu?
-
Tải bộ nhớ
-
Kích thước lô và thông lượng
-
Cho dù hệ thống được tối ưu hóa tốt hay chỉ đơn thuần là áp dụng phương pháp vét cạn ( Google Cloud , Lượng tử hóa, Xử lý theo lô và Chiến lược phân phối trong Sử dụng năng lượng LLM )
Một hệ thống được tối ưu hóa cao có thể thực hiện nhiều công việc hơn với ít năng lượng hơn. Một hệ thống cẩu thả có thể lãng phí điện năng một cách đáng kinh ngạc. Bạn biết đấy, một số hệ thống giống như xe đua, một số khác lại giống như xe đẩy hàng gắn tên lửa bằng băng dính 🚀🛒
Và đúng vậy, kích thước mô hình rất quan trọng. Các mô hình lớn hơn thường yêu cầu nhiều bộ nhớ và nhiều tài nguyên tính toán hơn, đặc biệt là khi tạo ra các đầu ra dài hoặc xử lý các suy luận phức tạp. Nhưng các thủ thuật tiết kiệm năng lượng có thể thay đổi cục diện: ( Trí tuệ nhân tạo xanh , Lượng tử hóa, Phân nhóm và Chiến lược phục vụ trong việc sử dụng năng lượng của LLM )
-
lượng tử hóa
-
định tuyến tốt hơn
-
các mô hình chuyên dụng nhỏ hơn
-
bộ nhớ đệm
-
phân lô
-
Lập lịch phần cứng thông minh hơn ( Các chiến lược lượng tử hóa, nhóm và phân phối trong việc sử dụng năng lượng LLM )
Vậy câu hỏi không chỉ là "Mô hình này lớn đến mức nào?" mà còn là "Nó đang được vận hành một cách thông minh đến mức nào?"
Huấn luyện và suy luận - đây là hai khái niệm hoàn toàn khác nhau 🐘🐇
Đây là điểm phân chia gây nhầm lẫn cho hầu hết mọi người.
Đào tạo
Huấn luyện là giai đoạn mà mô hình học các mẫu từ các tập dữ liệu khổng lồ. Quá trình này có thể bao gồm nhiều chip hoạt động trong thời gian dài, xử lý khối lượng dữ liệu khổng lồ. Giai đoạn này tiêu tốn rất nhiều năng lượng, đôi khi là cực kỳ lớn. ( Strubell và cộng sự )
Năng lượng tập luyện phụ thuộc vào:
-
kích thước mô hình
-
kích thước tập dữ liệu
-
số lần chạy huấn luyện
-
thí nghiệm thất bại
-
các lượt tinh chỉnh
-
hiệu quả phần cứng
-
làm mát trên cao ( Strubell và cộng sự , Nghiên cứu của Google )
Và đây là phần mà mọi người thường bỏ qua - công chúng thường hình dung chỉ một lần huấn luyện lớn, thực hiện một lần duy nhất, thế là xong. Trên thực tế, quá trình phát triển có thể bao gồm nhiều lần chạy thử, tinh chỉnh, huấn luyện lại, đánh giá và tất cả các bước lặp đi lặp lại tốn kém nhưng khá đơn giản xung quanh sự kiện chính. ( Strubell và cộng sự , Trí tuệ nhân tạo xanh )
Suy luận
Suy luận là quá trình mô hình phản hồi các yêu cầu thực tế của người dùng. Một yêu cầu có thể không có gì đặc biệt. Nhưng quá trình suy luận diễn ra lặp đi lặp lại hàng triệu lần, thậm chí hàng tỷ lần. ( Nghiên cứu của Google , lượng Hoa Kỳ )
Năng lượng suy luận tăng lên theo:
-
độ dài lời nhắc
-
độ dài đầu ra
-
số lượng người dùng
-
yêu cầu độ trễ
-
các tính năng đa phương thức
-
kỳ vọng về thời gian hoạt động
-
Các bước an toàn và xử lý hậu kỳ ( Google Cloud , Chiến lược lượng tử hóa, xử lý theo lô và phân phối trong việc sử dụng năng lượng của LLM )
Vậy nên, huấn luyện là trận động đất. Suy luận là thủy triều. Một bên thì dữ dội, một bên thì dai dẳng, và cả hai đều có thể làm thay đổi phần nào bờ biển. Có lẽ đây là một phép ẩn dụ khác thường, nhưng nó vẫn hợp lý... ít nhiều.
Những chi phí năng lượng tiềm ẩn mà mọi người thường quên mất 😬
Khi ai đó ước tính mức tiêu thụ năng lượng của AI chỉ bằng cách nhìn vào con chip, họ thường đánh giá thấp hơn thực tế. Không phải lúc nào cũng gây ra hậu quả nghiêm trọng, nhưng đủ để tạo ra sự khác biệt. ( Google Cloud , IEA )
Đây là những mảnh ghép ẩn:
Làm mát ❄️
Máy chủ tạo ra nhiệt. Phần cứng AI mạnh mẽ tạo ra rất nhiều nhiệt. Làm mát là điều bắt buộc. Mỗi watt điện năng tiêu thụ cho quá trình tính toán đều dẫn đến việc sử dụng nhiều năng lượng hơn chỉ để giữ cho nhiệt độ ở mức hợp lý. ( IEA , Google Cloud )
Di chuyển dữ liệu 🌐
Việc di chuyển dữ liệu giữa các thiết bị lưu trữ, bộ nhớ và mạng cũng tiêu tốn năng lượng. Trí tuệ nhân tạo không chỉ đơn thuần là "suy nghĩ". Nó còn liên tục sắp xếp lại thông tin. ( IEA )
Dung lượng nhàn rỗi 💤
Các hệ thống được xây dựng để đáp ứng nhu cầu cao điểm không phải lúc nào cũng hoạt động ở mức nhu cầu cao điểm. Cơ sở hạ tầng không được sử dụng hoặc sử dụng không hiệu quả vẫn tiêu thụ điện năng. ( Google Cloud )
Tính dự phòng và độ tin cậy 🧱
Sao lưu dự phòng, hệ thống chuyển đổi dự phòng, vùng sao chép, các lớp bảo mật - tất cả đều có giá trị, tất cả đều là một phần của bức tranh năng lượng lớn hơn. ( IEA )
Lưu trữ 📦
Dữ liệu huấn luyện, các embedding, nhật ký, điểm kiểm tra, kết quả đầu ra được tạo ra - tất cả đều được lưu trữ ở đâu đó. Lưu trữ thì rẻ hơn tính toán, đúng vậy, nhưng không phải là miễn phí về mặt năng lượng. ( IEA )
Đây là lý do tại sao câu hỏi "Trí tuệ nhân tạo sử dụng bao nhiêu năng lượng?" không thể được trả lời chính xác chỉ bằng cách nhìn vào một biểu đồ hiệu năng duy nhất. Toàn bộ hệ thống đều quan trọng. ( Google Cloud , IEA )
Vì sao một lời nhắc của AI có thể rất nhỏ - còn lời nhắc tiếp theo lại có thể rất lớn 📝➡️🎬
Không phải tất cả các yêu cầu đều giống nhau. Một yêu cầu ngắn gọn về việc viết lại một câu không thể so sánh với việc yêu cầu phân tích dài, một phiên lập trình nhiều bước hoặc tạo hình ảnh độ phân giải cao. ( Google Cloud )
Những yếu tố có xu hướng làm tăng mức tiêu thụ năng lượng cho mỗi lần tương tác:
-
Cửa sổ ngữ cảnh dài hơn
-
Câu trả lời dài hơn
-
Các bước sử dụng và lấy công cụ
-
Nhiều lần xử lý để suy luận hoặc xác thực
-
Tạo hình ảnh, âm thanh hoặc video
-
Khả năng xử lý đồng thời cao hơn
-
Mục tiêu độ trễ thấp hơn ( Google Cloud , Lượng tử hóa, Xử lý theo lô và Chiến lược phân phối trong Sử dụng năng lượng LLM )
Một câu trả lời bằng văn bản đơn giản có thể tương đối rẻ. Một quy trình làm việc đa phương thức khổng lồ thì, ừm, không hề rẻ. Nó hơi giống như việc gọi cà phê so với việc đặt đồ ăn cho một đám cưới. Về mặt kỹ thuật, cả hai đều được tính là "dịch vụ ăn uống". Nhưng hai việc này hoàn toàn khác nhau ☕🎉
Điều này đặc biệt quan trọng đối với các nhóm phát triển sản phẩm. Một tính năng tưởng chừng vô hại khi sử dụng ít có thể trở nên tốn kém khi mở rộng quy mô nếu mỗi phiên sử dụng của người dùng trở nên dài hơn, phong phú hơn và tiêu tốn nhiều tài nguyên tính toán hơn. ( DOE , Google Cloud )
Trí tuệ nhân tạo dành cho người tiêu dùng và trí tuệ nhân tạo dành cho doanh nghiệp không phải là một 🏢📱
Người dùng thông thường sử dụng AI một cách hời hợt có thể cho rằng những lời nhắc nhở thỉnh thoảng xuất hiện mới là vấn đề lớn. Tuy nhiên, thường thì đó không phải là nơi phát sinh năng lượng chính. ( Google Cloud )
Việc sử dụng trong doanh nghiệp sẽ làm thay đổi cách tính toán:
-
hàng nghìn nhân viên
-
phi công phụ luôn hoạt động
-
xử lý tài liệu tự động
-
tóm tắt cuộc gọi
-
phân tích hình ảnh
-
công cụ đánh giá mã
-
Các tác nhân nền chạy liên tục
Đó là lúc tổng lượng tiêu thụ năng lượng bắt đầu trở nên rất quan trọng. Không phải vì mỗi hành động đều gây ra thảm họa, mà vì sự lặp lại sẽ tạo ra hiệu ứng nhân lên. ( DOE , IEA )
Trong quá trình thử nghiệm và đánh giá quy trình làm việc của tôi, đây là điểm khiến mọi người ngạc nhiên. Họ tập trung vào tên model, hoặc bản demo hào nhoáng, mà bỏ qua số lượng. Số lượng thường là yếu tố quyết định thực sự - hoặc là điểm cứu cánh, tùy thuộc vào việc bạn đang tính phí khách hàng hay thanh toán hóa đơn điện nước 😅
Đối với người tiêu dùng, tác động có vẻ trừu tượng. Còn đối với doanh nghiệp, nó trở nên cụ thể rất nhanh chóng:
-
các khoản phí cơ sở hạ tầng lớn hơn
-
áp lực tối ưu hóa lớn hơn
-
nhu cầu ngày càng cao về các mẫu xe nhỏ hơn nếu có thể
-
báo cáo bền vững nội bộ
-
Chú trọng hơn đến bộ nhớ đệm và định tuyến ( Google Cloud , Trí tuệ nhân tạo xanh )
Làm thế nào để giảm mức tiêu thụ năng lượng của AI mà không cần từ bỏ AI 🌱
Phần này rất quan trọng vì mục tiêu không phải là "ngừng sử dụng AI". Thông thường điều đó không thực tế, và thậm chí không cần thiết. Sử dụng hiệu quả hơn mới là con đường thông minh hơn.
Dưới đây là những yếu tố then chốt quan trọng nhất:
1. Hãy sử dụng mô hình nhỏ nhất có thể đáp ứng được yêu cầu
Không phải mọi tác vụ đều cần đến giải pháp nặng nề. Một mô hình nhẹ hơn cho việc phân loại hoặc tóm tắt có thể nhanh chóng giảm thiểu lãng phí. ( Trí tuệ nhân tạo xanh , Google Cloud )
2. Rút ngắn lời nhắc và kết quả đầu ra
Đầu vào chi tiết, đầu ra chi tiết. Các token bổ sung đồng nghĩa với việc tính toán bổ sung. Đôi khi việc rút gọn lời nhắc là cách dễ nhất để đạt được thành công. ( Chiến lược lượng tử hóa, xử lý theo lô và phục vụ trong LLM Energy Use , Google Cloud )
3. Lưu trữ kết quả lặp lại
Nếu cùng một truy vấn cứ liên tục xuất hiện, đừng tạo lại nó mỗi lần. Điều này hiển nhiên đến mức khó tin, nhưng lại thường bị bỏ qua. ( Google Cloud )
4. Nên thực hiện các tác vụ theo lô khi có thể
Việc thực hiện các tác vụ theo lô có thể cải thiện hiệu quả sử dụng và giảm lãng phí. ( Các chiến lược lượng tử hóa, gom nhóm và phân phối trong việc sử dụng năng lượng của LLM )
5. Phân bổ nhiệm vụ một cách thông minh
Chỉ sử dụng các mô hình lớn khi độ tin cậy giảm hoặc độ phức tạp của nhiệm vụ tăng lên. ( Trí tuệ nhân tạo xanh , Google Cloud )
6. Tối ưu hóa cơ sở hạ tầng
Lập kế hoạch tốt hơn, phần cứng tốt hơn, chiến lược làm mát tốt hơn - những thứ tưởng chừng đơn giản nhưng mang lại lợi ích khổng lồ. ( Google Cloud , DOE )
7. Đo đạc trước khi đưa ra giả định
Nhiều nhóm cho rằng họ biết điện năng tiêu thụ đi về đâu. Nhưng khi đo đạc, họ phát hiện ra – phần tiêu tốn nhiều điện năng lại nằm ở một nơi khác. ( Google Cloud )
Công việc tối ưu hiệu quả không hào nhoáng. Nó hiếm khi nhận được sự tán thưởng. Nhưng đó là một trong những cách tốt nhất để làm cho AI trở nên dễ tiếp cận hơn về mặt chi phí và có khả năng bảo vệ tốt hơn ở quy mô lớn 👍
Những hiểu lầm phổ biến về việc sử dụng điện của AI 🚫
Chúng ta hãy cùng làm rõ một vài quan niệm sai lầm vì chủ đề này rất dễ gây nhầm lẫn.
Quan niệm sai lầm 1 - Mọi truy vấn AI đều vô cùng lãng phí
Không nhất thiết. Một số thì khá khiêm tốn. Quy mô và loại nhiệm vụ đóng vai trò rất quan trọng. ( Google Cloud )
Quan niệm sai lầm thứ 2 - Chỉ có huấn luyện mới quan trọng
Không. Suy luận có thể chiếm ưu thế theo thời gian khi mức độ sử dụng rất lớn. ( Nghiên cứu của Google , DOE )
Quan niệm sai lầm thứ 3 - Mô hình lớn hơn luôn đồng nghĩa với kết quả tốt hơn
Đôi khi có, đôi khi hoàn toàn không. Nhiều tác vụ vẫn hoạt động tốt với các hệ thống nhỏ hơn. ( Trí tuệ nhân tạo xanh )
Quan niệm sai lầm thứ 4 - Sử dụng năng lượng đồng nghĩa với tác động carbon một cách tự động
Không hẳn vậy. Lượng carbon còn phụ thuộc vào nguồn năng lượng nữa. ( IEA , Strubell và cộng sự )
Quan niệm sai lầm thứ 5 - Bạn có thể có được một con số chung cho mức tiêu thụ năng lượng của AI
Bạn không thể, ít nhất là không thể theo cách vẫn giữ được ý nghĩa. Hoặc bạn có thể, nhưng nó sẽ bị trung bình hóa đến mức mất đi giá trị. ( IEA )
Đó là lý do tại sao việc hỏi "Trí tuệ nhân tạo sử dụng bao nhiêu năng lượng?" là một câu hỏi thông minh - nhưng chỉ khi bạn sẵn sàng đón nhận một câu trả lời đa chiều thay vì một khẩu hiệu đơn giản.
Vậy... trí tuệ nhân tạo (AI) thực sự tiêu thụ bao nhiêu năng lượng? 🤔
Đây là kết luận dựa trên cơ sở thực tế.
AI sử dụng:
-
một chút , cho một số nhiệm vụ đơn giản
-
nhiều hơn nữa , đối với việc tạo ra nhiều phương thức vận tải phức tạp
-
một lượng rất lớn , dành cho việc huấn luyện mô hình quy mô lớn.
-
một lượng khổng lồ tính tổng cộng , khi hàng triệu yêu cầu tích lũy theo thời gian ( Google Cloud , DOE ).
Nó có hình dạng như vậy.
Điều quan trọng là không nên đơn giản hóa toàn bộ vấn đề thành một con số đáng sợ duy nhất hoặc một cái nhún vai thờ ơ. Việc sử dụng năng lượng của AI là có thật. Nó rất quan trọng. Nó có thể được cải thiện. Và cách tốt nhất để thảo luận về nó là trong bối cảnh cụ thể, chứ không phải là những lời lẽ khoa trương. ( IEA , AI Xanh )
Nhiều cuộc tranh luận công khai thường dao động giữa hai thái cực - một bên là "Trí tuệ nhân tạo về cơ bản là miễn phí", bên kia là "Trí tuệ nhân tạo là một thảm họa điện năng". Thực tế thì bình thường hơn, điều đó khiến nó trở nên hữu ích hơn. Đó là một vấn đề hệ thống. Phần cứng, phần mềm, cách sử dụng, quy mô, làm mát, lựa chọn thiết kế. Có vẻ tầm thường? Một chút. Quan trọng? Rất quan trọng. ( IEA , Google Cloud )
Những điểm chính cần ghi nhớ ⚡🧾
Nếu bạn đến đây để hỏi, " Trí tuệ nhân tạo (AI) tiêu thụ bao nhiêu năng lượng?" , thì đây là câu trả lời:
-
Không có con số nào phù hợp cho tất cả mọi người
-
Việc huấn luyện thường tiêu tốn nhiều năng lượng nhất ngay từ giai đoạn đầu
-
Suy luận trở thành yếu tố quan trọng ở quy mô lớn
-
Kích thước máy, phần cứng, khối lượng công việc và hệ thống làm mát đều quan trọng
-
Những cải tiến nhỏ có thể tạo ra sự khác biệt lớn đến bất ngờ
-
Câu hỏi thông minh nhất không chỉ là "bao nhiêu", mà còn là "cho nhiệm vụ nào, trên hệ thống nào, ở quy mô nào?" ( IEA , Google Cloud )
Vậy nên, đúng vậy, trí tuệ nhân tạo (AI) sử dụng năng lượng thực sự. Đủ để đáng được quan tâm. Đủ để biện minh cho việc cải tiến kỹ thuật tốt hơn. Nhưng không phải theo cách đơn giản, chỉ dựa trên một con số duy nhất.
Câu hỏi thường gặp
Trí tuệ nhân tạo (AI) tiêu tốn bao nhiêu năng lượng cho một thao tác xử lý duy nhất?
Không có con số chung nào cho một lời nhắc đơn lẻ, vì mức tiêu thụ năng lượng phụ thuộc vào kiểu máy, phần cứng, độ dài của lời nhắc, độ dài của đầu ra và bất kỳ công cụ bổ sung nào được sử dụng. Một phản hồi văn bản ngắn có thể tương đối khiêm tốn, trong khi một tác vụ đa phương thức dài có thể tiêu thụ nhiều năng lượng hơn đáng kể. Câu trả lời ý nghĩa nhất không phải là một con số đơn lẻ, mà là bối cảnh xung quanh nhiệm vụ đó.
Tại sao các ước tính về mức tiêu thụ năng lượng của AI lại khác nhau nhiều đến vậy?
Các ước tính khác nhau vì mọi người thường so sánh những thứ rất khác nhau dưới nhãn hiệu AI. Một ước tính có thể mô tả phản hồi của chatbot đơn giản, trong khi ước tính khác có thể bao gồm việc tạo hình ảnh, video hoặc huấn luyện mô hình quy mô lớn. Để một ước tính có ý nghĩa, nó cần có ngữ cảnh như loại tác vụ, kích thước mô hình, phần cứng, mức độ sử dụng, hệ thống làm mát và vị trí.
Việc huấn luyện AI hay vận hành AI hàng ngày tốn nhiều năng lượng hơn?
Quá trình huấn luyện thường tiêu tốn lượng năng lượng lớn ban đầu, vì nó có thể liên quan đến nhiều chip hoạt động trong thời gian dài trên các tập dữ liệu khổng lồ. Suy luận là chi phí phát sinh liên tục mỗi khi người dùng gửi yêu cầu, và ở quy mô lớn, chi phí này cũng có thể trở nên rất lớn. Trên thực tế, cả hai đều quan trọng, mặc dù chúng quan trọng theo những cách khác nhau.
Điều gì khiến một yêu cầu AI tiêu tốn nhiều năng lượng hơn hẳn so với yêu cầu khác?
Cửa sổ ngữ cảnh dài hơn, đầu ra dài hơn, các bước suy luận lặp lại, các lệnh gọi công cụ, các bước truy xuất và tạo đa phương thức đều có xu hướng làm tăng mức tiêu thụ năng lượng cho mỗi tương tác. Mục tiêu về độ trễ cũng rất quan trọng, bởi vì yêu cầu phản hồi nhanh hơn có thể làm giảm hiệu quả. Một yêu cầu viết lại nhỏ và một quy trình mã hóa hoặc xử lý hình ảnh dài đơn giản là không thể so sánh được.
Khi đặt câu hỏi về lượng năng lượng mà AI tiêu thụ, mọi người thường bỏ qua những chi phí năng lượng tiềm ẩn nào?
Nhiều người chỉ tập trung vào con chip, nhưng điều đó bỏ qua hệ thống làm mát, truyền dữ liệu, lưu trữ, dung lượng nhàn rỗi và các hệ thống đảm bảo độ tin cậy như sao lưu hoặc vùng dự phòng. Các lớp hỗ trợ này có thể làm thay đổi đáng kể tổng mức tiêu thụ năng lượng. Đó là lý do tại sao chỉ riêng một bài kiểm tra hiệu năng hiếm khi phản ánh đầy đủ bức tranh về năng lượng.
Liệu mô hình AI lớn hơn luôn tiêu thụ nhiều năng lượng hơn?
Các mô hình lớn hơn thường yêu cầu nhiều tài nguyên tính toán và bộ nhớ hơn, đặc biệt là đối với các đầu ra dài hoặc phức tạp, vì vậy chúng thường tiêu thụ nhiều năng lượng hơn. Nhưng lớn hơn không tự động có nghĩa là tốt hơn cho mọi công việc, và việc tối ưu hóa có thể thay đổi đáng kể bức tranh tổng thể. Các mô hình chuyên dụng nhỏ hơn, lượng tử hóa, xử lý theo lô, bộ nhớ đệm và định tuyến thông minh hơn đều có thể cải thiện hiệu quả.
Liệu việc sử dụng AI dành cho người tiêu dùng có phải là vấn đề năng lượng chính, hay AI dành cho doanh nghiệp mới là vấn đề lớn hơn?
Mức tiêu thụ năng lượng của người dùng thông thường có thể tích lũy dần, nhưng vấn đề lớn hơn về năng lượng thường xuất hiện trong các triển khai doanh nghiệp. Các hệ thống như trợ lý ảo luôn hoạt động, xử lý tài liệu, tóm tắt cuộc gọi, xem xét mã và các tác vụ nền tạo ra nhu cầu sử dụng lặp đi lặp lại trên một lượng lớn người dùng. Vấn đề thường không nằm ở một hành động đột ngột mà là ở khối lượng sử dụng liên tục theo thời gian.
AI tiêu thụ bao nhiêu năng lượng khi tính cả trung tâm dữ liệu và hệ thống làm mát?
Khi bao gồm cả hệ thống tổng thể, câu trả lời sẽ trở nên thực tế hơn và thường lớn hơn so với ước tính chỉ dựa trên chip. Trung tâm dữ liệu cần điện năng không chỉ cho tính toán mà còn cho làm mát, mạng lưới, lưu trữ và duy trì dung lượng dự phòng. Đó là lý do tại sao thiết kế cơ sở hạ tầng và hiệu quả hoạt động của cơ sở vật chất lại quan trọng gần như tương đương với thiết kế mô hình.
Cách thiết thực nhất để đo lường mức tiêu thụ năng lượng của AI trong một quy trình làm việc thực tế là gì?
Phương pháp tốt nhất phụ thuộc vào người đo và mục đích đo. Một quy tắc chung có thể giúp so sánh nhanh chóng, trong khi đồng hồ đo công suất, dữ liệu đo từ xa của GPU, nhật ký thanh toán đám mây và báo cáo trung tâm dữ liệu cung cấp thông tin chi tiết về hoạt động ngày càng mạnh mẽ hơn. Đối với công việc bền vững nghiêm túc, cái nhìn toàn diện về vòng đời sản phẩm sẽ hiệu quả hơn nữa, mặc dù nó chậm hơn và đòi hỏi nhiều tài nguyên hơn.
Làm thế nào các nhóm có thể giảm mức tiêu thụ năng lượng của AI mà không làm mất đi các tính năng hữu ích của AI?
Những lợi ích lớn nhất thường đến từ việc sử dụng mô hình nhỏ nhất mà vẫn đáp ứng được yêu cầu, rút ngắn các lời nhắc và đầu ra, lưu trữ kết quả lặp lại, nhóm các tác vụ lại với nhau và chỉ định các tác vụ khó hơn cho các mô hình lớn hơn. Tối ưu hóa cơ sở hạ tầng cũng rất quan trọng, đặc biệt là lập lịch và hiệu quả phần cứng. Trong nhiều quy trình, việc đo lường trước giúp các nhóm tránh tối ưu hóa sai vấn đề.
Tài liệu tham khảo
-
Cơ quan Năng lượng Quốc tế (IEA) - Nhu cầu năng lượng từ trí tuệ nhân tạo - iea.org
-
Bộ Năng lượng Hoa Kỳ (DOE) - DOE công bố báo cáo mới đánh giá sự gia tăng nhu cầu điện năng tại các trung tâm dữ liệu - energy.gov
-
Google Cloud - Đo lường tác động môi trường của suy luận AI - cloud.google.com
-
Google Research - Tin tốt về lượng khí thải carbon của quá trình huấn luyện máy học - research.google
-
Nghiên cứu của Google - Dấu chân carbon của quá trình huấn luyện máy học sẽ ổn định và sau đó giảm dần - research.google
-
arXiv - Trí tuệ nhân tạo xanh - arxiv.org
-
arXiv - Strubell và cộng sự. - arxiv.org
-
arXiv - Chiến lược lượng tử hóa, phân nhóm và phân phối trong việc sử dụng năng lượng của LLM - arxiv.org