14.3.24

Hãy tập trung vào những rủi ro hữu hình của AI thay vì cứ suy đoán về những khả năng một mối đe dọa hiện sinh phát sinh từ các khả năng này

HÃY TẬP TRUNG VÀO NHỮNG RỦI RO HỮU HÌNH CỦA A.I. THAY VÌ CỨ SUY ĐOÁN VỀ NHỮNG KHẢ NĂNG MỘT MỐI ĐE DỌA HIỆN SINH PHÁT SINH TỪ CÁC KHẢ NĂNG NÀY

Shutterstock/gopixa

Trong vài tháng qua, do việc áp dụng rộng rãi các công cụ dựa trên AI tạo sinh như chatbot và các chương trình tạo ảnh tự động, trí tuệ nhân tạo (AI) đã gia nhập cuộc đối thoại toàn cầu. Các nhà khoa học và kỹ thuật viên AI nổi tiếng đã đưa ra các quan ngại về những rủi ro hiện sinh giả định do những phát triển này gây ra.

Sau nhiều thập kỷ làm việc trong lĩnh vực trí tuệ nhân tạo, chúng tôi không khỏi bất ngờ trước mức độ phổ biến tăng vọt lẫn chủ nghĩa giật gân ăn theo nó. Chúng tôi viết bài này không phải để chống lại (sự bùng nổ AI), mà nhằm cân bằng nhận thức của công chúng vốn dường như bị chi phối một cách không tương xứng bởi những nỗi sợ hãi về các mối đe dọa hiện sinh mang tính thuần túy tư biện liên quan đến AI.

Chúng tôi không có quyền bảo ai đó không thể hoặc không nên lo lắng về những rủi ro kỳ quặc hơn này. Với tư cách là thành viên của Phòng thí nghiệm Châu Âu về các Hệ thống Học tập và Trí thông minh (European Laboratory for Learning and Intelligent Systems – ELLIS), một tổ chức nghiên cứu tập trung vào học máy, rõ ràng việc chúng tôi nên làm là xem xét những rủi ro (kì quặc) đấy, đặc biệt là trong bối cảnh các tổ chức chính phủ đang cân nhắc các hành động pháp lý với ý kiến đầu vào từ các công ty công nghệ.

AI là gì?

AI là một chuyên ngành trong khoa học máy tính hoặc kỹ thuật đã thành hình từ những năm 1950. Khát vọng của ngành là xây dựng các hệ thống tính toán thông minh, lấy trí tuệ con người làm tham chiếu. Tựa như trí tuệ con người vốn phức tạp và đa dạng, có nhiều lĩnh vực trong trí tuệ nhân tạo hướng tới mô phỏng các khía cạnh khác nhau của trí tuệ nhân loại, từ nhận thức đến lý luận, lập kế hoạch và ra quyết định.

Tùy thuộc vào cấp độ năng lực, các hệ thống AI có thể được chia thành ba cấp:

1. AI hẹp hay yếu, dùng để chỉ các hệ thống AI có khả năng thực hiện các nhiệm vụ cụ thể hoặc giải quyết các vấn đề riêng biệt, ngày nay các AI hẹp này thường có mức hiệu suất vượt trội so với con người. Tất cả các hệ thống AI hiện nay đều là AI hẹp. Ví dụ các chatbot như chatGPT, trợ lý giọng nói như Siri và Alexa, hay những hệ thống nhận dạng hình ảnh và thuật toán đề xuất.

2. AI tổng quát hoặc AI mạnh, đề cập đến các hệ thống AI thể hiện mức độ thông minh tương tự như con người, bao gồm khả năng hiểu, học và áp dụng kiến ​​thức trong nhiều nhiệm vụ và kết hợp các khái niệm như ý thức. AI tổng quát phần lớn vẫn còn là giả thuyết và cho đến nay vẫn chưa đạt được.

3. Siêu AI, dùng để chỉ các hệ thống AI có trí thông minh vượt trội so với trí thông minh của con người trong mọi tác vụ. Theo định nghĩa, chúng ta không thể hiểu được loại trí thông minh này tựa như một con kiến ​​không thể hiểu được trí thông minh của con người. Siêu AI là một khái niệm thậm chí còn mang tính suy đoán hơn cả AI tổng quát.

AI có thể áp dụng được vào bất kỳ lĩnh vực nào từ giáo dục đến giao thông vận tải, chăm sóc sức khỏe, luật pháp hay sản xuất. Vì vậy, nó đang làm thay đổi sâu sắc mọi mặt của xã hội. Ngay cả ở dạng “AI hẹp”, trí tuệ nhân tạo vẫn có tiềm năng đáng kể để tạo ra tăng trưởng kinh tế bền vững và giúp chúng ta giải quyết những thách thức cấp bách nhất của thế kỷ 21, chẳng hạn như biến đổi khí hậu, đại dịchbất bình đẳng.

Những thách thức đặt ra bởi các hệ thống AI ngày nay

Việc áp dụng các hệ thống ra quyết định dựa trên trí tuệ nhân tạo trong thập kỷ qua trong nhiều lĩnh vực, từ truyền thông xã hội đến thị trường lao động, cũng đặt ra những rủi ro và thách thức xã hội đáng kể cần được hiểu rõ và giải quyết.

Sự xuất hiện gần đây của các mô hình bộ chuyển đổi đã được tiền huấn luyện có tính tạo sinh (Generative Pre-trained Transformer - GPT) lớn, năng suất cao có khả năng cao làm trầm trọng thêm nhiều thách thức hiện có trong khi tạo ra những thách thức mới đáng được quan tâm cẩn thận. Quy mô và tốc độ áp dụng các công cụ AI chưa từng có của hàng trăm triệu người trên toàn thế giới đang gia tăng áp lực lên các hệ thống quản lý và xã hội của chúng ta.

Có một số thách thức cực kỳ quan trọng chúng ta nên ưu tiên (giải quyết):

  • Việc thao túng hành vi của con người bằng các thuật toán AI với những hậu quả có nguy cơ gây tổn thất nặng nề về mặt xã hội thông qua lan truyền thông tin sai lệch, hình thành dư luận và (ảnh hưởng lên) những kết quả của các tiến trình dân chủ.
  • Những thiên kiến ​​và phân biệt đối xử trong thuật toán không chỉ kéo dài mà còn làm trầm trọng thêm các định kiến, khuôn mẫu phân biệt đối xử hoặc thậm chí là sự áp bức.
  • Sự thiếu minh bạch cả trong các mô hình lẫn những cách sử dụng chúng.
  • Việc vi phạm quyền riêng tư và việc sử dụng một lượng lớn dữ liệu huấn luyện mà không có sự đồng ý hoặc thù lao cho những người tạo ra chúng.
  • Việc bóc lột công nhân viết chú giải, huấn luyện và sửa lỗi cho các hệ thống AI, nhiều người trong số họ đang sống ở các nước đang phát triển với đồng lương ít ỏi.
  • Lượng khí thải carbon khổng lồ của các trung tâm dữ liệu đồ sộ và mạng nơ-ron cần có để xây dựng các hệ thống AI này.
  • Sự thiếu trung thực trong các hệ thống AI tạo sinh khiến nội dung sinh ra trông đáng tin (hình ảnh, văn bản, âm thanh, video…) dù không tương ứng với thế giới thực.
  • Sự mong manh của những mô hình lớn này, chúng có thể phạm sai lầm và bị đánh lừa.
  • Thay thế việc làm và nghề nghiệp của con người.
  • Sự tập trung quyền lực vào tay một nhóm độc quyền gồm những người kiểm soát các hệ thống AI ngày nay.

AI có thực sự là một rủi ro hiện sinh đối với nhân loại?

Thật không may, thay vì tập trung vào những rủi ro hữu hình này, cuộc bàn luận công khai – đáng chú ý nhất là những bức thư ngỏ gần đây – chủ yếu tập trung vào những rủi ro hiện sinh giả định của AI.

Rủi ro hiện sinh đề cập đến một sự kiện hoặc kịch bản tiềm năng miêu tả mối đe dọa đối với sự tồn tại liên tục của loài người với những hậu quả có thể gây tổn hại hoặc phá hủy nền văn minh nhân loại và do đó dẫn đến sự tuyệt chủng của loài chúng ta. Một thảm họa toàn cầu (chẳng hạn như sự va chạm của tiểu hành tinh hoặc một đại dịch), sự hủy diệt của hành tinh có thể sống được (do biến đổi khí hậu, phá rừng hoặc cạn kiệt các nguồn tài nguyên quan trọng như nước và không khí sạch) hoặc chiến tranh hạt nhân trên toàn thế giới là ví dụ về các rủi ro hiện sinh.

Thế giới của chúng ta chắc chắn phải đối mặt với một số rủi ro, và những diễn biến trong tương lai rất khó dự đoán. Trước sự bất trắc này, chúng ta cần xếp hạng ưu tiên cho những nỗ lực của mình. Vì thế, khả năng xa vời về một siêu trí tuệ mất kiểm soát cần được xem xét theo bối cảnh (hiện nay), bao hàm trạng huống có 3,6 tỷ người trên thế giới rất dễ bị tổn thương do biến đổi khí hậu; khoảng 1 tỷ người sống bằng số tiền dưới 1 đô la Mỹ một ngày; hay 2 tỷ người bị ảnh hưởng bởi xung đột. Đây là những con người có thực, những sinh mệnh đang gặp nguy hiểm nghiêm trọng hiện nay, một mối nguy chắc chắn không phải do siêu AI gây ra.

Việc tập trung vào một rủi ro hiện sinh giả định khiến chúng ta không chú ý đến những thách thức nghiêm trọng đã được ghi nhận mà AI đặt ra ngày nay, không bao gồm các quan điểm khác nhau của cộng đồng nghiên cứu rộng lớn hơn và góp phần gây ra sự hoảng loạn không cần thiết trong dân chúng.

Xã hội chắc chắn sẽ được hưởng lợi từ việc đưa vào sự đa dạng, phức tạp và sắc thái cần thiết của những vấn đề này, cũng như từ việc thiết kế các giải pháp hành động cụ thể và phối hợp để giải quyết các thách thức AI ngày nay, bao gồm cả sự điều tiết. Giải quyết những thách thức này đòi hỏi sự cộng tác và tham gia của các bộ phận bị ảnh hưởng nhiều nhất trong xã hội cùng với chuyên môn kỹ thuật và quản trị cần thiết. Đã đến lúc ta phải hành động ngay với sự tham vọng và khôn ngoan – thông qua sự hợp tác.

Tác giả:

Nuria Oliver

Giám đốc Quỹ ELLIS Alicante và giáo sư danh dự tại Đại học Alicante

Bernhard Schölkopf

Viện Hệ thống Thông minh Max Planck

Florence d'Alché-Buc

Giáo sư, Viễn thông Paris – Institut Mines-Telecom

Nada Lavrač

Tiến sĩ, Ủy viên Hội đồng Nghiên cứu tại Khoa Công nghệ Tri thức, Viện Jožef Stefan và Giáo sư, Đại học Nova Gorica

Nicolò Cesa-Bianchi

Giáo sư, Đại học Milan

Sepp Hochreiter

Đại học Johannes Kepler Linz

Serge Belongie

Giáo sư, Đại học Copenhagen

Tuyên bố công khai

ELLIS Alicante nhận tiền từ Generalitat Valenciana, Banc Sabadell Foundation, Balearia Foundation và Esperanza Pertusa Foundation, cũng như các khoản đóng góp từ các cá nhân và pháp nhân khác nhau.

Bernhard Schölkopf nhận tiền từ Hiệp hội Max Planck, DFG, BMBF (Bộ Khoa học Đức), ETH Zürich, bang liên bang Baden-Wuerttemberg, quỹ Hector, quỹ Koerber, CIFAR

Florence d'Alché-Buc nhận được sự hỗ trợ từ ANR, Hi! Paris và Chủ tịch Telecom Paris về Trí tuệ nhân tạo và Khoa học dữ liệu cho Công nghiệp và dịch vụ.

Nicolò Cesa-Bianchi nhận được sự hỗ trợ từ dự án FAIR (Nghiên cứu trí tuệ nhân tạo trong tương lai), được tài trợ bởi chương trình NextGenerationEU trong chương trình PNRR-PE-AI.

Serge Belongie nhận được hỗ trợ từ Trung tâm Tiên phong về AI, Quỹ Nghiên cứu Quốc gia Đan Mạch (DNRF) cấp số P1.

Nada Lavrač và Sepp Hochreiter không làm việc, tư vấn, sở hữu cổ phần trong hoặc nhận tài trợ từ bất kỳ công ty hoặc tổ chức nào có thể hưởng lợi từ bài viết này và không có sự trực thuộc nào ngoài giới chuyên môn của mình.

Huỳnh Thị Thanh Trúc dịch

Nguồn: Let’s focus on AI’s tangible risks rather than speculating about its potential to pose an existential threat, The Conversation, Jun 21, 2023.

Print Friendly and PDF