24.5.23

Các triết gia đã nghiên cứu “phản thực tế” trong nhiều thập kỷ. Liệu chúng có giúp ta mở khóa những bí ẩn của AI không?

CÁC TRIẾT GIA ĐÃ NGHIÊN CỨU “PHẢN THỰC TẾ” TRONG NHIỀU THẬP KỶ. LIỆU CHÚNG CÓ GIÚP TA MỞ KHÓA NHỮNG BÍ ẨN CỦA AI KHÔNG?

Xuất bản: 26 tháng 1 năm 2023 7:04 chiều theo giờ GMT

Phản thực tế là tuyên bố về những gì sẽ xảy đến, nếu một việc nào đó đã diễn ra theo cách khác. Chẳng hạn, chúng ta có thể hỏi thế giới sẽ như thế nào nếu Internet chưa bao giờ được phát triển. Ảnh: Shutterstock

Trí tuệ nhân tạo đang được triển khai ngày càng nhiều trên khắp thế giới để hỗ trợ đưa ra các quyết định trong cuộc sống, dù cho đó là quyết định cho vay của ngân hàngchẩn đoán y tế hay việc cơ quan thực thi pháp luật Hoa Kỳ dự đoán khả năng tái phạm của tội phạm.

Tuy nhiên, nhiều hệ thống AI là các hộp đen: chẳng ai hiểu chúng hoạt động ra sao. Chính điều này đã dẫn đến nhu cầu về “AI có thể giải thích được” [explainable AI], để chúng ta có thể hiểu tại sao một mô hình AI lại cho ra một kết quả cụ thể và những thiên kiến nào có thể đã góp phần tạo ra kết quả này.

AI có thể giải thích là một nhánh đang lớn mạnh trong nghiên cứu AI. Nhưng có lẽ còn ít người biết đến vai trò của triết học trong sự phát triển này.

Cụ thể, một ý tưởng được gọi là “giải thích phản thực tế” thường được đưa ra như một giải pháp cho các vấn đề về hộp đen. Nhưng một khi bạn hiểu triết lý đằng sau đó, bạn có thể bắt đầu hiểu ra vì sao nó không được như mong đợi.

Tại sao lời giải thích lại quan trọng

Khi AI được sử dụng để đưa ra những quyết định đảo lộn đời sống, những người bị ảnh hưởng xứng đáng nhận được lời giải thích về cách đi đến quyết định đó. Điều này gần đây đã được công nhận thông qua Quy định bảo vệ dữ liệu chung của Liên minh châu Âu, quy định này hỗ trợ quyền được giải thích của một cá nhân.

Nhu cầu về giải thích cũng được nhấn mạnh trong tình huống Robodebt ở Úc, tại đây, một thuật toán được dùng để dự đoán mức nợ cho các cá nhân nhận an sinh xã hội. Hệ thống đã mắc hàng đống sai lầm, khiến những người không có nợ nần gì trở thành con nợ.

Chỉ khi thuật toán được giải thích đầy đủ thì sự nhầm lẫn mới được xác định – nhưng khi đó thì thiệt hại là chuyện đã rồi. Hậu quả tai hại đến mức một ủy ban hoàng gia đã được thành lập vào tháng 8 năm 2022.

Trong trường hợp Robodebt, thuật toán khả nghi khá đơn giản và có thể giải thích được. Chúng ta không nên mong đợi điều này sẽ luôn xảy ra trong tương lai. Các mô hình AI dùng học máy để xử lý dữ liệu hiện giờ tinh vi hơn nhiều.

Hộp đen to đùng, đập ngay vào mắt

Giả sử một người tên Sara đăng ký vay tiền. Ngân hàng yêu cầu cô cung cấp các thông tin bao gồm tình trạng hôn nhân, mức nợ, thu nhập, số tiền tiết kiệm, địa chỉ nhà và tuổi.

Sau đó, ngân hàng đưa thông tin này vào hệ thống AI, hệ thống này sẽ trả về điểm tín dụng. Điểm đầu ra thấp và được dùng để từ chối cho Sara vay, nhưng cả Sara và nhân viên ngân hàng đều không biết tại sao hệ thống lại cho điểm Sara thấp như vậy.

Không giống như Robodebt, thuật toán được sử dụng trong trường hợp này có thể cực kỳ phức tạp và không dễ giải thích. Do đó, không dễ để biết liệu nó có phạm sai lầm hay không và Sara không có cách nào để có được thông tin mà cô ấy cần để phản đối quyết định đó.

Kịch bản này không hoàn toàn chỉ là giả thuyết: ở Hoa Kỳ, các quyết định cho vay có khả năng được giao cho các thuật toán xử lý và có nguy cơ thực sự là chúng sẽ mã hóa thiên kiến. Để giảm thiểu rủi ro, chúng ta phải cố gắng giải thích cách chúng hoạt động.

Cách tiếp cận phản thực tế

Nói rộng ra, có hai hướng tiếp cận AI có thể giải thích được. Một liên quan đến việc bẻ khóa hệ thống và nghiên cứu các thành phần bên trong để thấy rõ cách thức hoạt động của nó. Nhưng điều này thường không khả thi do sự phức tạp tuyệt đối của nhiều hệ thống AI.

Cách tiếp cận khác là mặc kệ hệ thống chưa mở được, thay vào đó nghiên cứu đầu vào và đầu ra của nó, tìm kiếm các khuôn mẫu. Phương pháp “đối chứng” thuộc cách tiếp cận này.

Phản thực tế là những tuyên bố về điều gì sẽ xảy ra nếu mọi thứ đã diễn ra theo cách khác. Trong ngữ cảnh AI, điều này có nghĩa là xem đầu ra từ một hệ thống AI có thể khác như thế nào nếu nó nhận được các đầu vào khác nhau. Sau đó, chúng ta có thể sử dụng điều này để giải thích lý do tại sao hệ thống tạo ra kết quả như nó đã thực hiện.

Một ví dụ về phản thực tế là hỏi xem thế giới sẽ như thế nào nếu Internet chưa bao giờ được phát triển. Ảnh: Shutterstock

Giả sử ngân hàng cung cấp cho hệ thống AI của mình thông tin khác (đã được điều chỉnh) về Sara. Từ đó, ngân hàng tìm ra thay đổi nhỏ nhất mà Sara cần có để nhận được kết quả đạt chuẩn là tăng thu nhập của cô ấy.

Sau đó, ngân hàng rõ ràng có thể sử dụng điều này như một lời giải thích: Khoản vay của Sara đã bị từ chối vì thu nhập của cô ấy quá thấp. Nếu thu nhập của cô ấy cao hơn, cô ấy đã vay được.

Những lời giải thích phản thực tế như vậy đang được xem xét nghiêm túc như một cách để đáp ứng nhu cầu về AI có thể giải thích được, cả trong các trường hợp đăng ký khoản vay lẫn sử dụng AI để thực hiện các khám phá khoa học.

Tuy nhiên, như các nhà nghiên cứu đã lập luận, cách tiếp cận phản thực tế là không thỏa đáng.

Tương quan và giải thích

Khi chúng ta xem xét các thay đổi đối với đầu vào của hệ thống AI và cách chúng chuyển thành đầu ra, chúng ta xoay xở để thu thập thông tin về các mối tương quan. Nhưng, như một câu ngạn ngữ cổ đã nói, mối tương quan không phải là quan hệ nhân quả.

Điều này có vấn đề vì nghiên cứu trong triết học cho thấy quan hệ nhân quả có mối liên hệ chặt chẽ với lời giải thích. Chúng ta cần biết nguyên nhân để giải thích tại sao một sự kiện xảy ra.

Trên cơ sở này, ngân hàng có thể đã sai lầm khi nói với Sara rằng khoản vay của cô đã bị từ chối vì thu nhập của cô quá thấp. Tất cả những gì ngân hàng thực sự có thể nói một cách tự tin là thu nhập và điểm tín dụng có mối tương quan với nhau – và Sara vẫn không nhận được lời giải thích nào cho kết quả tồi tệ của mình.

Cái cần thiết ở đây là một phương pháp để biến thông tin về các phản thực tế và những mối tương quan thành thông tin giải thích.

Tương lai của AI có thể giải thích

Theo thời gian, chúng ta có thể chờ đợi AI sẽ được sử dụng nhiều hơn trong các quyết định tuyển dụng, đơn xin thị thực, thăng chức và các quyết định tài trợ của tiểu bang và liên bang, cùng những thứ khác.

Việc thiếu lời giải thích cho những quyết định này có nguy cơ làm gia tăng đáng kể sự bất công mọi người phải chịu. Rốt cuộc, nếu không có lời giải thích, chúng ta không thể sửa lỗi khi sử dụng AI. May mắn thay, triết học có thể hỗ trợ.

Giải thích vốn là chủ đề trung tâm của nghiên cứu triết học trong thế kỷ qua. Các nhà triết học đã thiết kế một loạt các phương pháp để trích xuất thông tin giải thích từ một biển các mối tương quan, và đã phát triển các lý thuyết tinh vi về cách thức hoạt động của việc giải thích.

Phần lớn công trình này đã tập trung vào mối quan hệ giữa các phản chứng và giải thích. Tôi cũng đã tự mình triển khai nghiên cứu về vấn đề này. Tận dụng những hiểu biết sâu sắc mang tính triết học, chúng ta có thể phát triển các cách tiếp cận tốt hơn đối với AI có thể giải thích được.

Tuy nhiên, hiện tại, không có đủ sự giao thoa giữa triết học và khoa học máy tính về chủ đề này. Nếu chúng ta không muốn né tránh giải quyết vấn đề bất công, chúng ta sẽ cần một cách tiếp cận thống nhất hơn để kết hợp nghiên cứu trong các lĩnh vực trên.

Tác giả

Sam Baron
Sam Baron

Phó Giáo sư, Triết học Khoa học, Đại học Công giáo Úc.

Tuyên bố công khai

Sam Baron nhận tài trợ từ Hội đồng Nghiên cứu Úc.

Huỳnh Thị Thanh Trúc dịch

Nguồn: Philosophers have studied ‘counterfactuals’ for decades. Will they help us unlock the mysteries of AI?, Theconversation, Jan 26, 2023.

Print Friendly and PDF