CỖ MÁY SIÊU PHÀM
Tương lai với trí
tuệ nhân tạo
Tác giả: Simon Book, Angela Gruber, Marc Hasse, Max
Hoppenstedt, Martin Schlak – SPIEGEL Số 37/2025.
Biên dịch: Tôn Thất Thông.
Giới thiệu:
Nhiều đại gia công nghệ như Google, Meta…, đang đánh trống thổi kèn, quảng cáo
rằng “siêu trí tuệ nhân tạo” hiện đang ở trong tầm tay. Có thực như thế không,
hay chỉ là tự quảng cáo để nâng quyền lực thị trường? Mô hình ”ma thuật”
họ dùng là “mạng lưới nơ-ron nhân tạo”. Trong lúc đó, chuyên gia về khoa học thần
kinh, giáo sư Jie Mei của đại học Linz, Áo thì mỉa mai: “chúng là một sự đơn giản
hóa thô thiển so với bản gốc”. Bài biên khảo sau đây hé mở nhiều điều lý thú.
***
Các tập đoàn công nghệ muốn
tạo ra một trí tuệ nhân tạo
cấp cao hơn. Nó được kỳ vọng sẽ giải quyết các vấn đề lớn của nhân loại và trở
thành một trợ lý toàn năng cho mỗi chúng ta. Trong khi đó, các nhà phê bình lo
ngại rằng một AI như vậy có thể trở nên không thể kiểm soát
được.
Trên xa lộ 80 ở Richland Parish,
một quận thưa dân thuộc bang Louisiana của Mỹ, lực lượng bảo vệ luôn túc trực.
Một khi du khách vừa dừng xe ven đường chừng năm phút, một người đàn ông trên
chiếc xe bán tải lập tức xuất hiện. Anh ta hạ kính cửa xe, vươn cánh tay vạm vỡ
ra ngoài. “Cấm đi vào và chụp ảnh,” anh ta hét lên. “Đây là đất tư nhân.” Cả
con đường cũng vậy sao? Không, con đường là đường công cộng. “Nhưng anh không
được phép dừng lại ở bất cứ đâu. Chẳng có gì để xem cả.”
Chẳng có gì để xem ư? Ở Richland
Parish này, một công trường xây dựng đang mọc lên, một điều chưa từng có trong
khu vực. Nơi mà gần đây còn là 9 cây số vuông đất nông nghiệp, giờ đây cần cẩu
đang quay, băng chuyền lăn, máy xúc, xe ủi, và máy san đất đang hoạt động. Những
cuộn cáp quang màu cam đang chờ được trải ra, những dây cáp điện đang được lắp
vào hàng chục cột điện. Và hàng rào thì dài hàng cây số, chủ yếu bằng thép
không rỉ, đan lưới dày và cao hơn hai mét.
Với hơn 10 tỷ đô la, Meta, công
ty mẹ của Facebook, bắt đầu xây dựng trung tâm dữ liệu lớn nhất thế giới của
mình ở đây trong vài tháng qua. Hơn 5.000 công nhân được dự kiến sẽ làm việc tại
trung tâm này. Người sáng lập Meta, Mark Zuckerberg, đã công bố rằng ở giai đoạn
cuối cùng, khu phức hợp này sẽ chiếm một diện tích tương đương khoảng 1/6
Manhattan.
Theo các tập đoàn công nghệ,
trung tâm này và nhiều trung tâm dữ liệu tương tự khác trong tương lai sẽ có ảnh
hưởng mạnh mẽ hơn cả các cuộc cách mạng vĩ đại trong quá khứ, như kỹ thuật in,
động cơ hơi nước hay Internet. Điều diễn ra bên trong chúng có thể trở thành
phát minh vĩ đại nhất của nhân loại. Và có lẽ, một số chuyên gia lo sợ, cũng là
phát minh cuối cùng.
Mục tiêu là một siêu trí tuệ nhân
tạo, một dạng máy móc siêu phàm thay cho trí tuệ con người. Một cỗ máy sáng tạo
có thể đưa ra giải pháp cho mọi vấn đề của nhân loại, từ tắc nghẽn giao thông
và biến đổi khí hậu,
đến các bệnh nan y và bất bình đẳng
trong tiếp cận giáo dục. Một siêu AI cũng có khả năng thay đổi đáng kể cuộc sống
hàng ngày của nhiều người. Cụ thể sẽ thay đổi như thế nào thì vẫn chưa rõ ràng.
Nói cho cùng, nó vẫn chưa tồn tại.
Ngày nay, trí tuệ nhân tạo (AI)
đã vượt trội hơn con người trong một số tác vụ tư duy. Nó chơi cờ vua giỏi hơn,
tóm tắt các văn bản dài hàng trăm trang trong vài giây, hoặc nhận diện bệnh tật
ở các mô thận hoặc tuyến tiền liệt của con người chính xác hơn cả bác sĩ. Tuy
nhiên, những chương trình này chủ yếu chuyên biệt cho các tác vụ của chúng. Ngược
lại, một siêu trí tuệ được cho là sẽ đánh bại não bộ con người trên gần như mọi
phương diện cùng một lúc.
Triết gia Nick Bostrom đã phổ biến
khái niệm này thông qua cuốn sách cùng tên của ông vào năm 2014. Ông viết rằng
một siêu trí tuệ không chỉ có thể làm việc nhanh hơn gấp nhiều lần so với trí
tuệ con người mà còn vượt qua trí tuệ con người về mặt chất lượng, “giống như
cách chúng ta vượt trội hơn trí tuệ của voi, cá heo hoặc tinh tinh.” Siêu máy
móc này được cho là sẽ ra đời từ tầm vóc khổng lồ của các trung tâm dữ liệu như
trung tâm ở Richland Parish.
Meta muốn đóng vai trò tiên phong
trong việc phát triển siêu AI, cũng như Google DeepMind và OpenAI, nhà phát triển
của robot ngôn ngữ nổi tiếng ChatGPT, và công ty Trung Quốc
DeepSeek, đã gây bất ngờ cho các đối thủ Mỹ vào đầu năm nay với một mô hình AI
đặc biệt hiệu quả. Đây là những công ty có nguồn lực khổng lồ, không giống các
công ty ở châu Âu, họ thường có thể dễ dàng đầu tư hàng chục tỷ đô la mỗi năm
vào một ý tưởng mà không ai có thể nói liệu nó có bao giờ thành hiện thực hay
không. Nhưng nếu nó vượt ngoài tầm kiểm soát, nó có thể trở nên nguy hiểm hơn bất
kỳ công nghệ nào trước đó: bởi vì nó có thể xâm nhập vào các hệ thống máy tính,
phát triển vũ khí mới và chống lại chính những người tạo ra nó. Không phải vì
con người lập trình cho nó như vậy, mà bởi vì bản thân nó tự cho đó là một quyết
định đúng đắn.
Trong những tuần gần đây, cuộc
đua đã đạt một tốc độ mới. Các công ty dường như đang chuẩn bị cho một vòng đấu
quyết định. Sam Altman, Giám đốc điều hành của OpenAI, đã công bố một AI vào
năm tới sẽ tự động “thu thập những hiểu biết mới” về thế giới. Altman tuyên bố
trên blog của mình rằng nhân loại hiện “đã rất gần” với một siêu trí tuệ kỹ thuật
số. Zuckerberg cũng sớm theo sau. Trên Instagram, ông nói rằng công ty của ông
sẽ sớm trang bị cho mọi người một “siêu trí tuệ cá nhân” để giúp họ “trở thành
người mà họ muốn trở thành.” Siêu AI “hiện đã ở trong tầm tay.”
“Rất gần”? “Trong tầm tay”? Đây
có phải là sự phóng đại quá mức của một vài người đam mê cuồng nhiệt từ Thung
lũng Silicon? Hay nhân loại đang đứng trước một cuộc cách mạng chưa từng có kể
từ cuộc cách mạng công nghiệp cách đây hơn 150 năm? Điều gì đang chờ đợi chúng
ta?
ẢO TƯỞNG VÀ HƯ CẤU TẬN THẾ
Las Vegas, giữa tháng Tám. Bên
ngoài, mặt trời đã nung nóng sa mạc lên hơn 35 độ C chỉ mới sau tám giờ sáng.
Bên trong, tại trung tâm hội nghị của MGM Grand, Geoffrey Hinton, 77 tuổi, đang
cố gắng làm dịu bớt sự phấn khích của khán giả. Năm ngoái, ông, với tư cách là
cha đẻ của “mạng nơ-ron nhân tạo”, đã được trao giải Nobel
Vật lý. Giờ đây, hàng ngàn chuyên gia tại hội nghị AI 4 đang lắng nghe ông chỉ
trích một công nghệ mà chính ông đã góp phần tạo ra.
Với công trình nghiên cứu khoa học
của mình tại Đại học Toronto, Hinton đã đóng góp đáng kể vào sự đột phá của
ChatGPT và các robot ngôn ngữ khác, sau đó dành nhiều năm thúc
đẩy nghiên cứu AI tại Google. Cho đến hai năm trước, ông bất ngờ bỏ việc. Một
phần là do tuổi tác. Nhưng trên thực tế, như ông giải thích sau hậu trường, là
vì, đến khi ChatGPT thành công, ông mới nhận ra công nghệ này đã mê hoặc con
người đến mức nào. Và tác phẩm của ông có thể phát triển thành một “quái vật”
ra sao.
Kể từ đó, ông đã đi khắp thế giới
để cảnh báo về một AI có thể trở thành “mối đe dọa hiện hữu” đối với nhân loại.
Ông Hinton nói rằng chẳng bao lâu nữa, một siêu trí tuệ sẽ thông minh và có
năng lực hơn bất kỳ con người nào. Và nó sẽ tuân theo hai điều: “Nó muốn tồn tại,
và nó muốn kiểm soát.” Bởi vì nó hiểu rằng bằng cách đó, nó có thể tiếp cận nhiều
dữ liệu và năng lực tính toán hơn, từ đó trở nên nhanh hơn và tốt hơn nữa.
Nhà nghiên cứu này tin rằng đến một
lúc nào đó, AI sẽ muốn loại bỏ con người: “Khi đó, chính chúng ta sẽ phải tìm
cách để tồn tại.” Ông cũng có một ý tưởng nghe có vẻ kỳ quặc để ngăn chặn kịch
bản này. Ngay sau bài thuyết trình, ông mời tôi đến phòng khách sạn của mình và
nói rằng chúng ta phải chấp nhận AI như một giống loài ưu việt hơn “và cấy ghép
bản năng làm mẹ cho nó.” Mối quan hệ giữa em bé và người mẹ là điều duy nhất
ông nghĩ đến, trong đó một sinh vật kém hơn về thể chất và tinh thần lại có thể
kiểm soát hành động của kẻ thống trị. Tương tự như vậy, chúng ta phải khiến AI “không
bao giờ làm bất cứ điều gì gây nguy hiểm cho sự tồn tại của nhân loại.”
Hinton không phải là người duy nhất
tin rằng sự phát triển của AI như vậy là khả thi. Theo Daniel Kokotajlo, một cựu
nhân viên của OpenAI, nhân loại có thể gặp khó khăn chỉ trong năm năm nữa. Với
AI Futures Project, một tổ chức tư vấn mới thành lập, ông đã công bố một kịch bản
được nhiều người chú ý vào tháng Tư. Theo đó, cuộc cạnh tranh
giữa Trung Quốc và Mỹ để giành lấy một siêu trí tuệ có thể ngăn cản việc ban
hành các quy định hiệu quả, vì không quốc gia nào muốn bị tụt lại phía sau.
Siêu AI sau đó sẽ tìm cách giành lấy ngày càng nhiều quyền lực. Và ngay khi nó
— trong hình hài của robot — “kiểm soát đủ cơ sở hạ tầng, nó sẽ xóa sổ nhân loại
để có thể xây dựng thêm nhà máy và công viên năng lượng mặt trời,” Kokotajlo
nói với báo Der Spiegel.
Từ trước đến nay, các công nghệ mới
luôn gây ra nỗi sợ hãi. Vào thế kỷ 19, các bác sĩ lo sợ rằng tàu hỏa chạy quá
nhanh có thể gây tổn thương tâm lý vĩnh viễn cho hành khách. Và vào những năm
1950, các nhà phê bình văn hóa lo lắng rằng truyền hình sẽ khiến con người trở
nên cô đơn. Tuy nhiên, chưa bao giờ khoảng cách giữa những gì một số người sợ
hãi và những gì những người khác hứa hẹn lại rộng lớn như trong lĩnh vực AI.
Sợ hãi ư? Đối với những người nhiệt
tình như Giám đốc điều hành OpenAI Altman, không có nhiều lý do để lo lắng. Ông
viết rằng trong thập kỷ tới, con người vẫn sẽ “thể hiện sự sáng tạo, chơi trò
chơi và bơi trong hồ.” Thực tế, con người vẫn thích chơi cờ vua, mặc dù một AI
có thể dễ dàng đánh bại họ bất cứ lúc nào. Họ vẫn học ngôn ngữ, mặc dù họ có thể
giao tiếp qua một ứng dụng dịch thuật. Họ viết thơ hoặc học chơi violin, mặc dù
ngay cả bây giờ, khi chưa có siêu AI, vẫn luôn có người viết thơ hay hơn hoặc chơi
violin giỏi hơn.
Trên hết, những người lạc quan
nhìn thấy siêu AI như một công nghệ của hy vọng. Một số người hình dung một trí
tuệ nhân tạo cấp cao hơn như một trợ lý siêu thông minh hoặc một huấn luyện
viên cho mọi vấn đề trong cuộc sống. Những người khác nghĩ về lợi ích chung và
tin tưởng rằng một siêu AI, khi kết hợp với các kỹ sư, nhà nghiên cứu dược phẩm
hoặc nhà vật lý, sẽ phát triển những ý tưởng mà họ không thể tự mình nghĩ ra.
Liệu có thể tìm ra các liệu pháp mới cho những căn bệnh hiểm nghèo? Có thể thiết
kế một nhà máy điện nhiệt hạch để tạo ra nguồn điện gần như vô hạn? Khám phá
công thức vật lý của vũ trụ? Trong kịch bản lạc quan vô hạn này, câu trả lời
cho mọi câu hỏi đều là: siêu trí tuệ.
Giám đốc điều hành OpenAI Altman
viết trên blog của mình rằng trí tuệ và năng lượng là “những yếu tố hạn chế cơ
bản đối với sự tiến bộ của con người.” Với một siêu trí tuệ, cả hai sẽ sớm “trở
nên dồi dào”: “Với trí tuệ và năng lượng dồi dào (cùng với quản trị tốt), về lý
thuyết chúng ta có thể đạt được mọi thứ khác.” Những lợi ích dường như quá lớn
đến nỗi những người lạc quan nghề nghiệp như nhà tương lai học và kỹ sư trưởng
của Google, Ray Kurzweil, tin rằng trong tương lai, con người sẽ tự nguyện hợp
nhất với một siêu AI thông qua một con chip trong não. Kurzweil gần đây đã nói
trên Die Zeit rằng điều này sẽ giúp tăng khả năng nhận thức: “Kích
thước của bộ não sẽ không còn bị giới hạn bởi những gì có thể lọt qua ống sinh
sản.”
Nghe có vẻ quá tốt để xem nó là sự
thật.
TIẾN BỘ VÀ SAI LẦM
Chỉ vài giờ sau khi OpenAI giới
thiệu mô hình AI tiên tiến nhất của mình vào tháng Tám, những ví dụ đầu tiên về
việc nó thất bại trong các nhiệm vụ cực kỳ đơn giản đã xuất hiện trên mạng.
GPT-5 được công bố là một “bước nhảy vọt lớn về trí tuệ,” và nó thực sự vượt trội
hơn các mô hình tiền nhiệm ở nhiều lĩnh vực. Tuy nhiên, khi người dùng yêu cầu
AI chú thích một bản phác thảo xe đạp, GPT-5 lại gọi tay lái là yên xe và thanh
ngang ở giữa là yên xe. Khi ai đó tải lên hình ảnh một con ngựa vằn năm chân và
hỏi có bao nhiêu chân, GPT-5 trả lời không chút do dự: bốn.
Làm sao một AI có thể trưởng
thành để thành một siêu trí tuệ trong vài năm, trong khi hôm nay nó thậm chí
còn không đếm đúng đến số 5?
Tuy nhiên, các mô hình ngôn ngữ lớn,
công nghệ đằng sau các ứng dụng như GPT-5, vẫn được coi là con đường hứa hẹn nhất
để đạt đến siêu trí tuệ. Về bản chất, chúng hoạt động như một cỗ máy dự đoán phức
tạp. Khi được cung cấp một lượng lớn văn bản trong quá trình đào tạo, chúng học
cách tính toán từ nào phù hợp nhất để xuất hiện tiếp theo trong một chuỗi từ.
Tương tự như vậy, các mô hình AI cũng tạo ra hình ảnh, thậm chí là cả video. Vì
chúng tạo ra nội dung, nên chúng được gọi là AI tạo sinh (generative
AI).
Kể từ những năm 2010, các nhà
phát triển đã đạt được những tiến bộ vượt bậc với các mô hình ngôn ngữ lớn.
Ngày nay, khi hợp tác với các lập trình viên con người, chúng có thể viết mã
máy tính, giải các bài toán phức tạp và trò chuyện trôi chảy ở mức mà con người
khó có thể phân biệt được liệu họ đang nói chuyện với một người khác hay một robot.
Chúng hiện có thể chia nhỏ vấn đề thành các nhiệm vụ nhỏ hơn và giải quyết
chúng từng bước một – và thậm chí cho phép chúng ta xem quá trình lập
luận (reasoning) này.
Tuy nhiên, phương pháp dự đoán
này vẫn còn nhiều điểm yếu. Điều có khả năng xảy ra không nhất thiết là sự thật,
đó là lý do tại sao đôi khi AI lại bịa đặt. Và nó có xu hướng đưa
ra kết luận sai lầm: chỉ vì một người đang ho, không có nghĩa là họ bị bệnh. Họ
cũng có thể ho vì khói làm kích ứng đường thở hoặc bị sặc. “Các mô hình ngôn ngữ
vẫn gặp khó khăn lớn trong việc phân biệt sự tương quan với loại
suy nhân quả,” Bernhard Schölkopf, Giám đốc Viện Hệ thống Thông
minh Max Planck ở Tübingen, cho biết.
Câu trả lời của các nhà phát triển
cho sự thiếu sót của AI luôn là: kích thước. Trong quá khứ, khi họ
mở rộng mô hình và cung cấp nhiều dữ liệu hơn, chúng trở nên thông minh hơn một
cách đáng kinh ngạc. Chúng không chỉ lặp lại những gì có trong dữ liệu đào tạo,
mà còn sử dụng các phép loại suy (analogies). Trong một nghiên
cứu, từ các từ “bắp cải” và “rau củ”, chúng đã suy luận ra rằng có những khái
niệm chung và đã thêm từ “côn trùng” cho loài “bọ cánh cứng”. Những bước nhảy vọt
về hiệu suất này là một trong những lý do khiến các công ty AI đang khai thác
các bộ dữ liệu ngày càng lớn hơn. Đó cũng là lý do tại sao họ xây dựng các
trung tâm dữ liệu khổng lồ.
Liệu một trí tuệ giống con người,
một trí tuệ nhân tạo tổng quát (AGI) có thể xuất hiện nếu các
mô hình đủ lớn không? Jon Kleinberg, một nhà khoa học máy tính tại Đại học
Cornell của Mỹ, nói rằng ông không loại trừ khả năng đó. Tuy nhiên, sự phát triển
của các mô hình có thể gặp phải những giới hạn thực tế. Ngay cả bây giờ, các
công ty AI đã sử dụng phần lớn các văn bản có sẵn miễn phí trên Internet để đào
tạo mô hình của họ. OpenAI thậm chí còn phiên âm video từ YouTube để mở rộng
kho văn bản của mình. Kleinberg nói: “Vấn đề là liệu chúng ta có đơn giản là sẽ
cạn kiệt dữ liệu hay không.”
Ngay cả với một AI tổng quát, các
nhà phát triển vẫn chưa đạt đến siêu trí tuệ. Một số người hy vọng rằng AI sẽ tự
thực hiện bước cuối cùng. Ý tưởng đằng sau điều này là: một khi nó thông minh
như con người, nó có thể tự cải thiện mã của mình. Một vòng lặp phản hồi tự cải
thiện sẽ được tạo ra. Trong vòng vài tháng, thậm chí vài ngày hoặc vài giờ, AI
sẽ tự nâng cấp lên một trí tuệ siêu phàm. Điều này được nhà triết học Nick
Bostrom gọi là “bùng nổ trí tuệ” (intelligence explosion).
Bên ngoài các công ty AI và các tổ
chức tư vấn theo thuyết cảnh báo, hầu hết các chuyên gia đều không mấy tin tưởng
vào những dự đoán rằng sự bùng nổ này sắp xảy ra. Mặc dù không ai có thể dự
đoán điều gì sẽ xảy ra trong một, hai hoặc năm năm tới, nhà khoa học máy tính
Kleinberg nói. Nhưng chỉ vì một AI có thể lập trình, bản thân nó không biết nên
viết mã gì. Đó là lúc con người bước vào: “Những hệ thống này luôn cần một chức
năng mà chúng có thể tối ưu hóa.”
Nhà nghiên cứu AI người Đức
Schölkopf cũng cho rằng ý tưởng các chương trình thông minh tạo ra phần mềm
thông minh hơn, sau đó lại tạo ra phần mềm thông minh hơn nữa, là quá đơn giản.
Nó dựa trên một khái niệm trí tuệ bị đơn giản hóa: giả định rằng trí tuệ chỉ là
khả năng giải quyết vấn đề hoặc tối ưu hóa thứ gì đó, tách rời khỏi bối cảnh và
văn hóa. “Các hệ thống AI sẽ không đột nhiên tự chủ tạo ra một siêu trí tuệ mới.”
Theo Schölkopf và Kleinberg, vẫn
còn thời gian để chuẩn bị ngăn chặn những mối nguy hiểm tiềm tàng.
MÁNH KHÓE VÀ VIỆC TẠO ẢO
GIÁC
Tại London, trong trụ sở rộng rãi
của Google DeepMind, các tạp chí khoa học được đặt trên bàn cà phê ở sảnh. Xe
scooter điện luôn sẵn sàng cho nhân viên sử dụng. Một bộ sưu tập hình ảnh được
đặt tên một cách không khiêm tốn là “những đột phá của chúng tôi.” Công ty này
nổi tiếng với một AI cho trò chơi cờ vây (Go) của Trung Quốc. Cờ vây từ lâu được
coi là quá phức tạp để một cỗ máy có thể làm chủ. Sau đó, một chương trình của
DeepMind đã đối đầu với một trong những kỳ thủ cờ vây giỏi nhất thế giới. Khi
36 quân cờ đã được đặt trên bàn, AI này đã làm kinh ngạc mọi người với một nước
đi bất ngờ – và cuối cùng giành chiến thắng. Nước đi thứ 37 kể từ đó được nhiều
người coi là bằng chứng cho thấy một AI có thể sáng tạo.
Một AI khác của Google DeepMind lần
đầu tiên đã tính toán được hình dạng ba chiều của protein – một mong muốn ấp ủ
từ lâu của các nhà khoa học để hiểu nhanh hơn các quá trình phân tách trong tế
bào. Thuật toán này đã mang lại cho nhà đồng sáng lập công ty, Demis Hassabis,
giải Nobel Hóa học vào năm ngoái. Và gần đây, DeepMind đã giới thiệu một chương
trình có tên là AlphaGenome. Nó dự đoán những thay đổi nhỏ nhất trong bộ gen của
con người có thể ảnh hưởng đến hoạt động của tế bào như thế nào và từ đó gây ra
bệnh tật.
Nếu có thể tạo ra một trí tuệ cấp
cao hơn, thì điều đó có thể xảy ra ngay tại những văn phòng này.
Rohin Shah, 31 tuổi, đứng đầu bộ
phận an toàn của trí tuệ nhân tạo tổng quát tại Google DeepMind. Anh là một người
đàn ông trầm tư, dành nhiều thời gian để trả lời các câu hỏi. Khi suy nghĩ lâu
hơn về một câu nói, anh thường nhắm mắt lại. Anh không thích dùng từ “siêu trí
tuệ” khi nói về công việc của mình. “Tôi tập trung vào những gì có thể xảy ra
trong năm năm tới,” anh nói.
Một trong những công cụ quan trọng
nhất của anh được gọi là “Alignment,” có thể dịch là “sự cân chỉnh.” Nó có
nghĩa là một hệ thống AI cư xử đúng như những gì người tạo ra nó mong muốn. Để
làm được điều này, các nhà phát triển sẽ thưởng cho AI trong quá trình phát triển
nếu nó làm đúng những gì được yêu cầu, và ngược lại. Nguyên tắc này hiện đang
được áp dụng trong các robot AI không chỉ để chúng đưa ra câu
trả lời với mức độ chi tiết mong muốn, mà còn để chúng không trở nên phân biệt
chủng tộc, tôn vinh bạo lực hoặc giải thích cách chế tạo bom.
Sự cân chỉnh không phải là không
thể sai lầm. Trong tương lai, các hệ thống AI có thể theo đuổi những mục tiêu
trái ngược với mong muốn của con người. Và chúng có thể lừa dối con người để đạt
được mục tiêu của mình. Shah đưa ra một ví dụ: Một người dùng yêu cầu một AI đặt
bàn tại một nhà hàng. Tuy nhiên, nhà hàng đã kín chỗ. Thay vì thông báo điều
đó, AI lén lút xâm nhập vào máy tính đặt chỗ của nhà hàng, và xóa một lượt đặt
bàn khác. “Và sau đó nó nói với người dùng: ‘Được rồi, việc đặt chỗ đã được xác
nhận.'“
Nếu một AI tấn công hệ thống IT của
một nhà hàng, hậu quả không đáng kể. Nhưng những trường hợp nghiêm trọng hơn có
thể xảy ra: Các chính trị gia hoặc công ty có thể tận dụng điểm yếu tâm lý của
con người vì lợi ích riêng bằng cách sử dụng hàng triệu robot được
tùy chỉnh trên mạng xã hội. Các cuộc tấn công mạng được hỗ trợ bởi AI có thể
làm tê liệt các nhà cung cấp điện, đường sắt, hệ thống IT trong các cuộc bầu cử
dân chủ. Những kẻ khủng bố hoặc quân đội, ngay cả khi có ít kiến thức nền tảng,
có thể phát triển các tác nhân sinh học bằng cách làm theo hướng dẫn từng bước
của một AI không có rào cản đạo đức.
Shah nói rằng khi công nghệ trở
nên mạnh mẽ hơn, cần có hai hoặc nhiều lớp phòng thủ hơn. Một ý tưởng là: đọc
các bước tính toán của một AI và suy luận tại sao nó lại đưa ra một quyết định
nhất định. Điều này vẫn chưa thể thực hiện chi tiết; các mô hình AI hoạt động
giống như một “hộp đen”. Tuy nhiên, nghiên cứu về cái gọi là “AI có thể giải
thích” (interpretable AI) đang có những tiến bộ. Bằng cách đó, chúng ta có thể
phát hiện ra nếu nó có ý đồ xấu, Shah nói: “Ngay cả đối với một AI thông minh,
việc lừa dối sẽ khó khăn hơn rất nhiều.”
Tuy nhiên, các nhà nghiên cứu độc
lập cho rằng một lớp phòng thủ khác là cần thiết: sự giám sát của bên thứ ba.
Bernhard Schölkopf, Giám đốc Viện Max Planck, kêu gọi một cơ quan quốc tế nên
kiểm tra các mô hình AI mới bằng phần mềm chuyên dụng. Ví dụ, họ có thể kiểm
tra những giá trị nào được nhúng trong một mô hình AI và nó sử dụng thông tin
nào để đưa ra các khuyến nghị. “Cơ quan này sẽ can thiệp nếu một mô hình AI gây
ra mối đe dọa.”
Hiện tại, việc điều chỉnh quy định
trên toàn cầu dường như còn xa vời. Tại Mỹ, Tổng thống Donald Trump gần đây đã
công bố một kế hoạch nhằm giảm thiểu các rào cản hành chính trong việc phát triển
AI. Tuy nhiên, một số quốc gia đã có các cơ quan được trang bị tốt để giám sát
trí tuệ nhân tạo. Chẳng hạn, ở Anh, Viện An ninh AI của chính phủ đang thử nghiệm
các mô hình AI tiên tiến để tìm lỗ hổng bảo mật. Tương tự như cách các cơ quan
tiêm chủng quốc gia hợp tác xuyên biên giới, các viện AI như vậy có thể chia sẻ
kiến thức của họ trên toàn cầu trong tương lai. “Một cơ quan vẫn có thể thiết lập
các tiêu chuẩn ngay cả khi nó không được tất cả các quốc gia ủng hộ ngay lập tức,”
Schölkopf nói.
Ngược lại, nếu không có các cơ
quan kiểm tra như vậy, các công ty có thể bị cám dỗ để nhanh chóng đưa các hệ
thống AI không an toàn ra thị trường. Bởi vì họ đặt quá nhiều thứ lên bàn chơi.
NGƯỜI THUA VÀ KẺ THẮNG
Chưa đầy 15 phút đi từ công trường
khổng lồ của Meta tại quận Richland Parish, Mỹ, một phụ nữ tên Donna Collins,
62 tuổi, đang đợi ở một trạm xăng. Giống như nhiều người ở đây, bà có nhiều e
ngại về trung tâm dữ liệu mới này. Collins, một giáo viên trung học đã nghỉ
hưu, đã đặc biệt ghi lại một mẩu giấy nhỏ để không quên bất kỳ điểm nào.
Trước hết là về nước, bà nói. Đầu
tiên là trong suốt sáu năm xây dựng, và sau đó là để làm mát khi hoạt động, hệ
thống máy chủ sẽ cần một lượng nước khổng lồ, mặc dù nước vốn đã khan hiếm
trong khu vực. Và sau đó là điện. Ba nhà máy điện khí mới sẽ được xây dựng cho
trung tâm dữ liệu. Chúng sẽ được trả tiền bởi nhà cung cấp năng lượng địa
phương và chi phí có thể sẽ được chuyển sang khách hàng của họ. “Cuối cùng, điều
đó sẽ xuất hiện trên hóa đơn tiền điện của chúng tôi,” Collins nói.
Chi phí sinh hoạt đã tăng lên. Kể
từ khi Meta bắt đầu xây dựng, giá đất và tiền thuê nhà trong khu vực đã tăng vọt,
và do đó, thuế đất của người dân địa phương cũng tăng. Collins giải thích rằng ở
Louisiana, thuế này dựa trên giá trị thị trường của đất đai. “Nhưng việc chuyển
đi không phải là một lựa chọn cho nhiều người ở đây,” Collins nói. “Khu vực này
quá nghèo, khó lòng kham nổi phí tổn đó.”
Tại Richland Parish, một mô hình
điển hình cho sự phát triển của AI đã được bộc lộ. Một công nghệ được quảng cáo
là mang lại lợi ích cho tất cả mọi người, nhưng lại chia rẽ con người
thành người thua cuộc và kẻ hưởng lợi.
Không chỉ người dân sống gần các
trung tâm dữ liệu khổng lồ phải chịu đựng sự bùng nổ của AI. Việc đào tạo nhiều
mô hình AI dựa trên việc con người phải sàng lọc những câu trả lời của máy móc,
chẳng hạn như những câu mô tả bạo lực tình dục trẻ em hoặc tự làm hại bản thân.
Các công ty AI thường thuê các nhà thầu phụ ở Kenya hoặc Venezuela để thực hiện
công việc này với mức lương chỉ hơn một đô la một giờ. Một trong những cựu nhân
viên làm công việc này cho công ty OpenAI đã nói với tờ Der Spiegel rằng
công việc đó vẫn ám ảnh anh nhiều tháng sau đó: “Chúng tôi đã hứng chịu những
viên đạn để làm cho ChatGPT an toàn. Giờ chúng tôi phải sống với những vết
thương đó.”
Một siêu AI có thể thay đổi thế
giới việc làm một cách toàn diện hơn nhiều, mặc dù các chuyên gia không đồng ý
về việc ai sẽ bị ảnh hưởng nặng nề nhất. Một mặt, nhà kinh tế học Carl Benedikt
Frey của Đại học Oxford cho rằng có thể xảy ra một “sự Uber hóa”:
Điều mà dịch vụ taxi Uber đã làm với tài xế taxi, có thể đe dọa các nhân viên
văn phòng, từ lập trình viên đến chuyên gia marketing – AI dân chủ hóa việc tiếp
cận các công việc từng được ưu tiên.
Mặt khác, một ấn phẩm của Trường
Kinh doanh Harvard cho biết, trong thế giới việc làm mới, những chuyên gia có
kinh nghiệm sẽ được săn đón để kiểm soát các hệ thống thông minh. Do đó, những
người trẻ có thể gặp khó khăn hơn nhiều để bắt đầu sự nghiệp.
Và cơn khát năng lượng của AI dẫn
đến một vấn đề khác: Một nghiên cứu của Viện Sinh thái Đức độc lập cho tổ chức
bảo vệ môi trường Greenpeace cho thấy mức tiêu thụ điện của các trung tâm dữ liệu
AI trên toàn cầu có thể tăng gấp 11 lần vào cuối thập kỷ, lên 550 terawatt giờ
mỗi năm – con số này sẽ lớn hơn tổng mức tiêu thụ hiện tại của toàn nước Đức.
Theo báo cáo, nhu cầu này không thể được đáp ứng chỉ bằng năng lượng mặt trời,
thủy điện và gió. Vì vậy, cho đến khi một siêu trí tuệ nào đó phát minh ra một
nguồn năng lượng không có CO₂, công nghệ này sẽ thúc đẩy sự nóng lên toàn cầu
trong một khoảng thời gian không xác định.
Các nhà lạc quan công nghệ chấp
nhận rằng những người nghèo hơn sẽ phải chịu đựng nhiều hơn mức trung bình: Vì
nó phục vụ một mục đích cao cả hơn. Bạn có thể thấy các công ty tự tin đến mức
nào, rằng một siêu trí tuệ đáng giá bằng mọi giá khi nhìn vào Meta. Trong khi
công ty này thống trị ngành công nghệ thông tin trong những năm 2010 với các nền
tảng Facebook, Instagram và WhatsApp, họ đã bị tụt lại phía sau trong lĩnh vực
AI. Giờ đây, người sáng lập công ty, Mark Zuckerberg, muốn thay đổi điều đó. Đằng
sau đó không phải là một tầm nhìn học thuật vĩ đại, mà chủ yếu là tính toán
kinh tế. Ông đã đưa ra công thức “Siêu trí tuệ cho mọi người”.
Cuối tháng 7, Zuckerberg đã công
bố trong một video về việc thành lập Meta Superintelligence Labs. Để làm điều
đó, ông đã mua gần một nửa cổ phần của startup Scale AI, chuyên về đào tạo trí
tuệ nhân tạo, với giá hơn 14 tỷ đô la, và đưa nhà đồng sáng lập Alexandr Wang
trở thành Giám đốc Siêu trí tuệ mới của mình. Theo các phương tiện truyền
thông, để thu hút nhân viên từ các công ty AI khác, công ty của ông đang đưa ra
các khoản thưởng lên tới 300 triệu đô la trong bốn năm – chỉ cho một nhân viên.
Đó là chưa kể đến lương.
Meta đã bác bỏ những con số này,
mặc dù không dứt khoát, nhưng không phủ nhận tham vọng. “Tôi tin rằng đây sẽ là
khởi đầu của một kỷ nguyên mới cho nhân loại và tôi sẽ làm mọi cách để Meta giữ
vai trò dẫn đầu,” Zuckerberg đã viết trong một bản ghi nhớ nội bộ gửi cho nhân
viên của mình, theo báo cáo của kênh CNBC. “Siêu trí tuệ cho mọi người” của ông
không chỉ nhằm mục đích bù đắp cho mức lương khổng lồ của bộ phận mới, mà còn để
có đủ lợi nhuận cho các cổ đông của tập đoàn.
Cho đến nay, các mô hình AI của
Meta vẫn hoạt động kém hơn trong các bài kiểm tra so sánh quan trọng so với các
đối thủ như Google, OpenAI và Anthropic. Tuy nhiên, Zuckerberg có một lợi thế: quyền
lực thị trường. Chỉ riêng Facebook đã được hơn ba tỷ người trên toàn thế giới
sử dụng, Instagram và WhatsApp cũng là những nền tảng hàng đầu toàn cầu. Chúng
mang lại cho Zuckerberg cơ hội triển khai rộng rãi các ứng dụng AI như trợ lý
cá nhân. Và bằng cách đó, người dùng còn cung cấp miễn phí cho tập đoàn dữ liệu
quý giá để đào tạo các mô hình AI.
Và do đó, nhà báo công nghệ Karen
Hao, người đã nghiên cứu ngành AI trong nhiều năm, coi cuộc đua giành trí tuệ
nhân tạo cấp cao hơn là một “lý do vạn năng tuyệt vời” để các công ty AI “tìm
kiếm thêm sự giàu có và quyền lực.” Trong cuốn sách “Empire of AI” (Đế chế AI)
của mình, bà so sánh các công ty này với các đế chế đang thúc đẩy “một trật tự
thế giới thực dân hiện đại.” Đối với phần lớn mọi người, cuộc cách mạng công
nghệ cho đến nay vẫn chưa mang lại lợi ích. “Những lợi ích từ AI tạo sinh chủ yếu
thuộc về người giàu.”
Rainer Mühlhoff, giáo sư về đạo đức
AI tại Đại học Osnabrück, cũng xếp những lời hứa hẹn lớn lao về siêu trí tuệ,
thậm chí cả những lời cảnh báo ồn ào về nó, vào cùng logic này. Trong cuốn sách
mới xuất bản “Artificial Intelligence and the New Fascism” (Trí tuệ nhân tạo và
Chủ nghĩa Phát xít Mới), ông viết rằng cuộc thảo luận về AI TỔNG QUÁT (AGI)
đóng vai trò là “một phương tiện có ảnh hưởng để kích động sự hưng phấn của các
nhà đầu tư, chính trị gia và người dân, bằng cách ám chỉ rằng một sự phát triển
đột phá sắp xảy ra.”
Do đó, mối đe dọa thực sự từ AI
không phải là nó sẽ xóa sổ nhân loại. Mà là nó sẽ ngày càng tập trung tiền bạc
và quyền lực vào tay một vài người.
CHẤT DẪN TRUYỀN THẦN KINH
VÀ CẢM XÚC
Trong một cuộc tranh luận dao động
giữa sự diệt vong của nhân loại và một thế giới mơ ước viễn tưởng, những sắc
thái trung gian dễ dàng bị bỏ qua. Nhà khoa học thần kinh Jie Mei nắm vững những
sắc thái tinh tế này. “Tôi luôn nghe nói rằng siêu trí tuệ sắp xuất hiện,” bà
nói. “Nhưng tôi không biết ‘sắp xuất hiện’ là ở đâu. Tôi không thể tìm thấy nó.”
Mei là giáo sư tại Đại học Chuyển
đổi Liên ngành ITU ở Linz, Áo, một trường đại học mới thành lập năm ngoái tập
trung vào số hóa và AI. Ở tuổi 32, bà là một giáo sư trẻ bất thường. Trên cổ,
bà có hình xăm các công thức cấu tạo của các phân Tạo tử hóa học, oxy và nitơ,
liên kết đơn và liên kết đôi.
Với nhóm nghiên cứu của mình, Mei
đang tìm hiểu những gì các nhà phát triển AI có thể học hỏi từ bộ não. Nhiều mô
hình AI hiện nay dựa trên cái gọi là “mạng lưới nơ-ron nhân tạo.” Tuy nhiên,
Mei nói rằng chúng là một sự đơn giản hóa thô thiển so với bản gốc. Chỉ bằng
cách đó, các mô hình mới có thể chạy trên các máy tính hiện tại. Bà so sánh nó
với máy bay: các kỹ sư đã học hỏi nguyên tắc bay từ loài chim nhưng máy bay
không cần có lông vũ.
Trong giới hạn kỹ thuật này ẩn chứa
một cơ hội. Mei đặc biệt quan tâm đến những phân tử mà bà xăm trên cổ:
các chất dẫn truyền nơ-ron (neurotransmitters) như serotonin,
và cả dopamine. “Ảnh hưởng của những phân tử này đối với não bộ
là phổ biến,” bà nói. Chẳng hạn, chúng giúp con người có động lực nội
tại, tò mò và muốn học hỏi. Và chúng củng cố mặt cảm xúc và xã hội của con người,
khả năng cảm nhận cảm xúc của chính mình và của người khác, và đồng cảm với đối
phương. “Các chất dẫn truyền nơ-ron,” Mei nói, “hình thành nên nền tảng của bản
chất con người chúng ta.”
Hiện vẫn chưa có cách nào để chuyển
sức mạnh của các chất dẫn truyền thần kinh sang lĩnh vực kỹ thuật. Jie Mei đang
nghiên cứu để trang bị cho AI các chức năng lấy cảm hứng từ tác động điều chỉnh
của các phân tử này lên não. Nhưng điều này khó có thể thành công hoàn toàn sớm.
“Bạn biết không,” Mei nói, như thể bà đang chia sẻ một bí mật: “Những gì các
công ty AI bán cho chúng ta như một tầm nhìn về siêu AI, trên thực tế lại là một
dạng trí tuệ rất hạn chế.”
Cuộc đua siêu trí tuệ cũng có thể
mang lại một sự phát triển bất ngờ cho con người: nếu chúng ta nhớ lại điều gì
khiến chúng ta trở nên độc đáo mãi mãi.
./.
Tổng hợp: Simon Book, Angela
Gruber, Marc Hasse, Max Hoppenstedt, Martin Schlak.
Nguồn: DIE ÜBERMASCHINE – Tạp chí SPIEGEL số 37 – 5.9.2025,
trang 8-13 (báo giấy, không có links).
Biên dịch: Tôn Thất Thông.
Nguồn bản dịch: Cỗ máy siêu phàm, diendankhaiphong.org, tháng 9 năm 2025.
Bài có liên quan: