CHI PHÍ ẨN ĐẰNG SAU SỰ BÙNG NỔ A.I.: BÓC LỘT XÃ
HỘI VÀ MÔI TRƯỜNG
![]() |
Shutterstock |
Các cuộc thảo luận chính thống về trí tuệ nhân tạo (AI) đã bị chi phối bởi một số mối quan tâm
chính, chẳng hạn như liệu AI siêu thông minh có quét sạch loài người hay liệu AI có cướp đi công việc của chúng ta hay
không. Nhưng ta lại ít chú ý đến nhiều tác động môi trường và xã hội khác
của việc “tiêu thụ” AI, điều được cho là cũng quan trọng không kém.
Mọi thứ chúng ta tiêu thụ đều có “ngoại ứng” tương ứng – tức những tác động
gián tiếp từ việc tiêu dùng này. Ví dụ, ô nhiễm công nghiệp là một ngoại ứng nổi tiếng có tác động tiêu cực đến
con người và môi trường.
Các dịch vụ trực tuyến mà chúng ta sử dụng hằng ngày dĩ nhiên cũng có các ngoại ứng, nhưng dường như mức độ nhận thức của công chúng về những điều này còn thấp hơn nhiều (so với sức ảnh hưởng thực sự). Khi mà AI được sử dụng rầm rộ khắp nơi, ta không thể bỏ qua những nhân tố này nữa.
Tác động môi trường của việc sử dụng
AI
Vào năm 2019, nhóm chuyên gia cố vấn
của Pháp The Shift Project đã ước tính rằng việc sử dụng các công nghệ kỹ thuật
số tạo ra nhiều khí thải carbon hơn cả ngành hàng không. Và mặc dù AI hiện được ước tính đóng góp ít hơn 1% tổng lượng khí
thải carbon, nhưng quy mô thị trường AI được dự đoán sẽ tăng gấp 9 lần vào năm 2030.
Các công cụ như ChatGPT được xây dựng trên các hệ thống
tính toán tiên tiến được gọi là các mô hình ngôn ngữ lớn (LLM). Mặc dù
chúng ta truy cập các mô hình này trực tuyến nhưng chúng vẫn được vận hành và
huấn luyện tại các trung tâm dữ liệu vật lý trên khắp thế giới, vốn tiêu thụ lượng
tài nguyên đáng kể.
Năm ngoái, công ty AI Hugging Face
đã công bố ước tính lượng
khí thải carbon của LLM tên là BLOOM của chính họ (một mô hình có độ phức tạp
tương đương GPT-3 của
OpenAI).
Khi tính cả tác động của việc khai
thác nguyên liệu thô, sản xuất, huấn luyện, triển khai và xử lý ở cuối vòng đời,
việc phát triển và sử dụng GPT-3 gây hậu quả (phát thải) tương đương với
60 chuyến bay từ New York đến London.
Hugging Face cũng ước tính vòng đời
của GPT-3 sẽ tạo ra lượng khí thải lớn gấp 10 lần, do các trung tâm dữ liệu
cung cấp năng lượng cho mô hình này chạy trên một lưới điện có cường độ phát thải
carbon lớn hơn. Đây là còn chưa tính đến các tác động về mặt nguyên liệu
thô, sản xuất và xử lý liên quan đến GTP-3.
Sản phẩm LLM mới nhất của
OpenAI, GPT-4, được đồn đại là có hàng nghìn tỷ tham số và có lẽ ngốn nhiều năng lượng hơn nhiều.
Ngoài ra, việc vận hành các mô hình
AI đòi hỏi một lượng nước lớn. Các trung tâm dữ liệu sử dụng các tháp nước
để làm mát các máy chủ tại chỗ, nơi các mô hình AI được huấn luyện và triển
khai. Google gần đây đã bị chỉ trích vì
kế hoạch xây dựng trung tâm dữ liệu mới ở Uruguay, nơi bị hạn hán nghiêm trọng, dự án này, theo Bộ Môi trường Uruguay (mặc dù Bộ trưởng Bộ Công nghiệp
nước này đã phản đối các số liệu trên), dự tính sẽ cần 7,6 triệu lít nước mỗi
ngày để làm mát các máy chủ. Nước cũng cần cho sản xuất điện phục vụ việc
vận hành các trung tâm dữ liệu.
Trong một bản thảo được đăng trong năm nay,
Pengfei Li và các đồng nghiệp đã trình bày phương pháp luận để đo lượng dấu
chân nước [water footprint] của các mô hình AI. Họ thực hiện công trình
này nhằm đáp lại sự thiếu minh bạch trong cách các công ty đánh giá dấu chân nước
liên quan đến việc sử dụng và huấn luyện AI.
Họ ước tính việc huấn luyện GPT-3 cần
khoảng 210.000 đến 700.000 lít nước (tương đương với lượng nước dùng để sản xuất
từ 300 đến 1.000 chiếc ô tô). Với một cuộc trò chuyện có từ 20 đến 50
câu hỏi, ước tính ChatGPT sẽ “uống” hết 500 ml nước.
Tác động xã hội của việc sử dụng AI
LLM thường cần lượng lớn dữ liệu đầu
vào từ con người trong giai đoạn huấn luyện. Công việc này chủ yếu được
thuê ngoài cho các nhà thầu độc lập, những người phải đối mặt với điều kiện làm việc bấp bênh ở các quốc gia có thu nhập thấp,
điều đã dẫn đến những chỉ trích về kiểu “công xưởng bóc lột kỹ thuật số”.
Vào tháng 1, Time đã đưa
tin về việc
các công nhân người Kenya ký hợp đồng gán nhãn dữ liệu dạng văn bản để phát hiện
“sự độc hại” của ChatGPT được trả ít hơn 2 đô la Mỹ mỗi giờ trong khi phải tiếp
xúc với nội dung rõ ràng là gây sang chấn tinh thần ra sao.
Các LLM cũng có thể tạo tin giả và tuyên truyền. Nếu không được kiểm soát, AI có khả năng bị sử dụng để thao túng
dư luận, và rộng hơn là làm suy yếu các tiến trình dân chủ. Trong một thử nghiệm gần đây, các nhà nghiên cứu tại Đại học Stanford nhận thấy những thông điệp do
AI tạo ra luôn đầy thuyết phục trong mắt người đọc về các vấn đề mang thời sự
như đánh thuế carbon và cấm vũ khí tấn công.
Không phải ai cũng có thể thích ứng
với sự bùng nổ của AI. Việc áp dụng AI trên quy mô lớn có khả năng làm trầm
trọng thêm tình trạng bất bình đẳng giàu nghèo trên toàn cầu. Điều này không chỉ
gây ra sự gián đoạn đáng kể cho thị trường việc làm – mà đặc biệt còn có thể đẩy những lao động
với kinh nghiệm nhất định và trong các ngành cụ thể ra rìa.
Có giải pháp nào không?
Cách AI tác động đến chúng ta theo
thời gian sẽ phụ thuộc vào vô số nhân tố. Các mô hình AI thế hệ mới trong
tương lai có thể được thiết kế để sử dụng ít năng lượng hơn đáng kể, nhưng khó mà chắc liệu chúng
có thật sẽ như vậy hay không.
Khi nói đến các trung tâm dữ liệu,
thì vị trí xây dựng, kiểu phát điện và thời điểm chúng được sử dụng trong ngày
có thể ảnh hưởng đáng kể đến tổng mức tiêu thụ năng
lượng và nước. Tối ưu hóa các tài nguyên điện
toán này có thể mang lại mức giảm tiêu thụ đáng kể. Các công ty bao gồm Google, Hugging Face và Microsoft đề
cao vai trò của các dịch vụ AI và đám mây mà họ cung cấp trong việc quản lý sử
dụng tài nguyên để đạt hiệu quả tốt hơn.
Ngoài ra, với tư cách là người tiêu
thụ trực tiếp hoặc gián tiếp các dịch vụ AI, điều quan trọng là tất cả chúng ta
cần ý thức rằng mọi truy vấn chatbot và yêu cầu tạo hình ảnh đều tốn nước và
năng lượng, đồng thời có thể ảnh hưởng tới việc làm của con người.
Sự phổ biến ngày càng tăng của AI cuối
cùng có thể kích khởi sự phát triển của các tiêu chuẩn và chứng nhận bền vững. Những thứ sẽ giúp người dùng hiểu và so
sánh những tác động của các dịch vụ AI cụ thể, cho phép họ chọn những dịch vụ
đã được chứng nhận. Điều này sẽ tương tự như Hiệp ước
Trung tâm Dữ liệu Trung hòa Khí hậu, trong đó các nhà điều hành trung tâm dữ liệu
châu Âu đã đồng ý đưa các trung tâm dữ liệu đạt được trung hòa khí hậu vào năm
2030.
Chính phủ cũng sẽ dự phần. Nghị
viện Châu Âu đã thông qua dự thảo luật để giảm thiểu rủi ro khi sử
dụng AI. Và hồi đầu năm nay, thượng viện Hoa Kỳ đã lắng nghe các chứng cứ
từ nhiều chuyên gia về cách làm thế nào để điều tiết một cách hiệu quả và giảm
thiểu tác hại của AI. Trung Quốc cũng đã công bố các quy tắc về việc sử dụng AI tạo sinh, yêu cầu đánh giá bảo mật đối với các
sản phẩm cung cấp dịch vụ cho công chúng.
Xem thêm: EU phê duyệt dự
thảo luật để điều tiết AI – luật sẽ hoạt động như sau
Tác giả:
![]() |
Carl Higgs |
![]() |
Afshin Jafari |
![]() |
Ascelin Gordon |
Nghiên cứu viên cao cấp, Đại học RMIT
Afshin Jafari
Nghiên
cứu viên, Đại học RMIT
Carl Higgs
Nghiên
cứu viên, Trung tâm Nghiên cứu Đô thị, Đại học RMIT
Tuyên
bố công khai
Ascelin
Gordon làm việc tại Đại học RMIT. Ông nhận hỗ trợ tài chính từ Hội đồng
Nghiên cứu Úc, Bộ Kế hoạch và Môi trường tiểu bang New South Wales (NSW) và Ủy
ban Bảo tồn Đa dạng sinh học NSW.
Afshin
Jafari làm việc tại Đại học RMIT.
Carl
Higgs làm việc tại Đại học RMIT và nhận hỗ trợ tài chính từ các khoản tài trợ của
Hội đồng Nghiên cứu Y tế và Sức khỏe Quốc gia.
Huỳnh Thị Thanh Trúc
dịch
Nguồn: The hidden cost of the AI boom: social and environmental exploitation, The Conversation, Jul 19, 2023.