Xuất bản: 26 tháng 1 năm 2023 7:04 chiều theo giờ GMT
Trí tuệ nhân tạo đang được triển khai ngày càng nhiều trên khắp thế giới để hỗ trợ đưa
ra các quyết định trong cuộc sống, dù cho đó là quyết định cho vay của ngân hàng, chẩn đoán y tế hay việc cơ quan thực thi pháp luật Hoa Kỳ dự
đoán khả năng tái phạm của tội phạm.
Tuy nhiên, nhiều hệ thống AI là các hộp đen: chẳng ai
hiểu chúng hoạt động ra sao. Chính điều này đã dẫn đến nhu cầu về “AI có
thể giải thích được” [explainable AI], để chúng ta có thể hiểu tại sao một
mô hình AI lại cho ra một kết quả cụ thể và những thiên kiến nào có thể đã góp phần
tạo ra kết quả này.
AI có thể giải thích là một nhánh đang lớn mạnh trong
nghiên cứu AI. Nhưng có lẽ còn ít người biết đến vai trò của triết học
trong sự phát triển này.
Cụ thể, một ý tưởng được gọi là “giải thích phản thực tế” thường được đưa ra như một giải pháp cho các vấn đề về hộp đen. Nhưng một khi bạn hiểu triết lý đằng sau đó, bạn có thể bắt đầu hiểu ra vì sao nó không được như mong đợi.
Tại sao lời giải thích lại quan trọng
Khi AI được sử dụng để đưa ra những quyết định đảo lộn
đời sống, những người bị ảnh hưởng xứng đáng nhận được lời giải thích về cách
đi đến quyết định đó. Điều này gần đây đã được công nhận thông
qua Quy định bảo vệ dữ liệu chung của Liên minh châu Âu, quy định này
hỗ trợ quyền được giải thích của một cá nhân.
Nhu
cầu về giải thích cũng được nhấn mạnh trong tình
huống Robodebt ở Úc, tại đây, một thuật toán được dùng để dự đoán mức nợ
cho các cá nhân nhận an sinh xã hội. Hệ thống đã mắc hàng đống sai lầm,
khiến những người không có nợ nần gì trở thành con nợ.
Chỉ
khi thuật toán được giải thích đầy đủ thì sự nhầm lẫn mới được xác định – nhưng
khi đó thì thiệt hại là chuyện đã rồi. Hậu quả tai hại đến mức một ủy
ban hoàng gia đã được thành lập vào tháng 8 năm 2022.
Trong
trường hợp Robodebt, thuật toán khả nghi khá đơn giản và có thể giải thích được. Chúng
ta không nên mong đợi điều này sẽ luôn xảy ra trong tương lai. Các mô hình
AI dùng học máy để xử lý dữ liệu hiện giờ tinh vi hơn nhiều.
Hộp
đen to đùng, đập ngay vào mắt
Giả
sử một người tên Sara đăng ký vay tiền. Ngân hàng yêu cầu cô cung cấp các
thông tin bao gồm tình trạng hôn nhân, mức nợ, thu nhập, số tiền tiết kiệm, địa
chỉ nhà và tuổi.
Sau
đó, ngân hàng đưa thông tin này vào hệ thống AI, hệ thống này sẽ trả về điểm
tín dụng. Điểm đầu ra thấp và được dùng để từ chối cho Sara vay, nhưng cả
Sara và nhân viên ngân hàng đều không biết tại sao hệ thống lại cho điểm Sara
thấp như vậy.
Không
giống như Robodebt, thuật toán được sử dụng trong trường hợp này có thể cực kỳ
phức tạp và không dễ giải thích. Do đó, không dễ để biết liệu nó có phạm
sai lầm hay không và Sara không có cách nào để có được thông tin mà cô ấy cần để
phản đối quyết định đó.
Kịch
bản này không hoàn toàn chỉ là giả thuyết: ở Hoa Kỳ, các quyết định cho vay có
khả năng được giao cho các thuật toán xử lý và có nguy cơ thực sự là chúng sẽ mã hóa
thiên kiến. Để giảm thiểu rủi ro, chúng ta phải cố gắng giải thích cách
chúng hoạt động.
Cách
tiếp cận phản thực tế
Nói
rộng ra, có hai
hướng tiếp cận AI có thể giải thích được. Một liên quan đến việc bẻ
khóa hệ thống và nghiên cứu các thành phần bên trong để thấy rõ cách thức hoạt
động của nó. Nhưng điều này thường không khả thi do sự phức tạp tuyệt đối
của nhiều hệ thống AI.
Cách
tiếp cận khác là mặc kệ hệ thống chưa mở được, thay vào đó nghiên cứu đầu vào
và đầu ra của nó, tìm kiếm các khuôn mẫu. Phương pháp “đối chứng” thuộc
cách tiếp cận này.
Phản thực tế là những tuyên bố về điều gì sẽ xảy ra nếu mọi thứ đã diễn ra theo cách khác. Trong ngữ cảnh AI, điều này có nghĩa là xem đầu ra từ một hệ thống AI có thể khác như thế nào nếu nó nhận được các đầu vào khác nhau. Sau đó, chúng ta có thể sử dụng điều này để giải thích lý do tại sao hệ thống tạo ra kết quả như nó đã thực hiện.
Một ví dụ về phản thực tế là hỏi xem thế giới sẽ như thế nào nếu Internet chưa bao giờ được phát triển. Ảnh: Shutterstock |
Giả sử ngân hàng cung cấp cho hệ thống AI của mình
thông tin khác (đã được điều chỉnh) về Sara. Từ đó, ngân hàng tìm ra thay
đổi nhỏ nhất mà Sara cần có để nhận được kết quả đạt chuẩn là tăng thu nhập của
cô ấy.
Sau đó, ngân hàng rõ ràng có thể sử dụng điều này như
một lời giải thích: Khoản vay của Sara đã bị từ chối vì thu nhập của cô ấy quá
thấp. Nếu thu nhập của cô ấy cao hơn, cô ấy đã vay được.
Những lời giải thích phản thực tế như vậy đang được xem xét nghiêm túc như một cách để đáp ứng nhu cầu về AI có thể giải
thích được, cả trong các trường hợp đăng ký khoản vay lẫn sử dụng AI để thực hiện các khám phá khoa học.
Tuy nhiên, như các nhà nghiên cứu đã lập luận, cách tiếp
cận phản thực tế là không thỏa đáng.
Tương quan và giải thích
Khi chúng ta xem xét các thay đổi đối với đầu vào của hệ
thống AI và cách chúng chuyển thành đầu ra, chúng ta xoay xở để thu thập thông
tin về các mối tương quan. Nhưng, như một câu ngạn ngữ cổ đã nói, mối
tương quan không phải là quan hệ nhân quả.
Điều này có vấn đề vì nghiên cứu trong triết học cho
thấy quan hệ nhân quả có mối liên hệ chặt chẽ với lời giải thích. Chúng ta cần biết nguyên nhân để giải thích tại sao
một sự kiện xảy ra.
Trên cơ sở này, ngân hàng có thể đã sai lầm khi nói với
Sara rằng khoản vay của cô đã bị từ chối vì thu nhập của cô quá thấp. Tất
cả những gì ngân hàng thực sự có thể nói một cách tự tin là thu nhập và điểm
tín dụng có mối tương quan với nhau – và Sara vẫn không nhận được lời giải
thích nào cho kết quả tồi tệ của mình.
Cái cần thiết ở đây là một phương pháp để biến thông
tin về các phản thực tế và những mối tương quan thành thông tin giải thích.
Tương lai của AI có thể giải thích
Theo thời gian, chúng ta có thể chờ đợi AI sẽ được sử
dụng nhiều hơn trong các quyết định tuyển dụng, đơn xin thị thực, thăng chức và
các quyết định tài trợ của tiểu bang và liên bang, cùng những thứ khác.
Việc thiếu lời giải thích cho những quyết định này có
nguy cơ làm gia tăng đáng kể sự bất công mọi người phải chịu. Rốt cuộc, nếu
không có lời giải thích, chúng ta không thể sửa lỗi khi sử dụng AI. May mắn
thay, triết học có thể hỗ trợ.
Giải thích vốn là chủ đề trung tâm của nghiên cứu triết
học trong thế kỷ qua. Các
nhà triết học đã thiết kế một loạt các phương pháp để trích xuất thông tin giải
thích từ một biển các mối tương quan, và đã phát triển các lý thuyết tinh vi về
cách thức hoạt động của việc giải thích.
Phần lớn công trình này đã tập trung vào mối quan hệ
giữa các phản chứng và giải thích. Tôi cũng
đã tự mình triển khai nghiên cứu về vấn đề này. Tận dụng những hiểu biết sâu sắc mang tính triết học,
chúng ta có thể phát triển các cách tiếp cận tốt hơn đối với AI có thể giải
thích được.
Tuy nhiên, hiện tại, không có đủ sự giao thoa giữa triết
học và khoa học máy tính về chủ đề này. Nếu chúng ta không muốn né tránh
giải quyết vấn đề bất công, chúng ta sẽ cần một cách tiếp cận thống nhất hơn để
kết hợp nghiên cứu trong các lĩnh vực trên.
Tác giả
Sam Baron |
Phó Giáo sư, Triết học Khoa học, Đại học Công giáo Úc.
Tuyên bố công khai
Sam Baron nhận tài trợ từ Hội đồng Nghiên cứu Úc.
Huỳnh Thị Thanh Trúc dịch
Nguồn: Philosophers have studied ‘counterfactuals’ for decades. Will they help us unlock the mysteries of AI?, Theconversation, Jan 26, 2023.