UNESCO cho biết trong một báo cáo rằng, việc kết hợp các truy vấn ngắn hơn và sử dụng các mô hình cụ thể hơn có thể cắt giảm mức tiêu thụ năng lượng của AI tới 90% mà không làm giảm hiệu suất.
Giám đốc điều hành của OpenAI, Sam Altman, gần đây đã tiết lộ rằng, mỗi yêu cầu được gửi đến ứng dụng AI phổ biến ChatGPT tiêu thụ trung bình 0,34 Wh điện, gấp từ 10 đến 70 lần một tìm kiếm trên Google.
Với việc ChatGPT nhận được khoảng một tỷ yêu cầu mỗi ngày, tương đương với 310 GWh hàng năm. Con số này cũng tương đương với mức tiêu thụ điện hàng năm của 3 triệu người ở Ethiopia.
Hơn nữa, UNESCO tính toán rằng nhu cầu năng lượng AI tăng gấp đôi sau mỗi 100 ngày khi các công cụ AI tạo sinh được đưa vào cuộc sống.

Báo cáo của UNESCO cảnh báo rằng: "Sự tăng trưởng theo cấp số nhân về sức mạnh tính toán để chạy các mô hình này đang gây áp lực ngày càng lớn lên các hệ thống năng lượng toàn cầu, tài nguyên nước và khoáng sản quan trọng, làm dấy lên mối lo ngại về tính bền vững của môi trường, khả năng tiếp cận công bằng và sự cạnh tranh giành các nguồn tài nguyên hạn chế".
Tuy nhiên, chúng ta có thể giảm gần 90% lượng điện sử dụng bằng cách giảm độ dài của truy vấn hoặc lời nhắc mà không làm giảm hiệu suất.
Các mô hình AI như ChatGPT là các mô hình đa năng được thiết kế để phản hồi về nhiều chủ đề khác nhau, nghĩa là nó phải sàng lọc một lượng thông tin khổng lồ để xây dựng và đánh giá các phản hồi.
Việc sử dụng các mô hình AI chuyên biệt nhỏ hơn giúp giảm đáng kể lượng điện cần thiết để tạo ra phản hồi. Tương tự như vậy là cắt giảm lời nhắc cắt từ 300 xuống còn 150 từ cũng giúp giảm tiêu thụ năng lượng.