27.5.18

Bên trong hộp đen

BÊN TRONG HỘP ĐEN

Con người có thể sẽ không bao giờ hiểu được lí do tại sao các lĩnh vực của Trí tuệ Nhân tạo (AI) hoạt động. Đừng hoảng sợ.

Con người cũng bí hiểm như thế. Các quy tắc và quy định hiện hành cũng có thể áp dụng đối với trí tuệ nhân tạo.
Có một chuyện cười cũ rích mà giới phi công hay kể với nhau rằng một đoàn bay lí tưởng bao gồm máy tính, người phi công và chú chó. Nhiệm vụ của máy tính là điều khiển máy bay. Người phi công có trách nhiệm chăm sóc chú chó. Còn chú chó, nhiệm vụ của nó là cắn người phi công ngay tức khắc nếu anh này động chạm đến máy tính.

Việc máy tính đảm nhiệm những công việc phức tạp thì chẳng có gì mới. Nhưng sự tiến bộ đột phá gần đây của học máy (machine learning), một lĩnh vực con của Trí tuệ Nhân tạo, đã cho phép máy tính giải quyết nhiều vấn đề mà trước đây là vượt quá khả năng của chúng. Kết quả của sự bùng nổ AI là việc máy tính đang len lỏi vào mọi ngóc ngách của đời sống từ chẩn đoán y khoa và bảo hiểm cho đến xe tự hành.
Nhưng, có một trở ngại. Học máy hoạt động bằng cách giúp cho máy tính có khả năng tự dạy cho chính nó, tức làm cho việc lập trình của chúng tương ứng với nhiệm vụ đang thực hiện. Con người nỗ lực để hiểu chính xác cái cách mà các chương trình tự-viết thực hiện những gì chúng muốn (xem bài báo này). Khi các thuật toán xử lí những công việc tầm thường, chẳng hạn như chơi cờ hoặc gợi ý phim để xem, vấn đề “hộp đen” này có thể bỏ qua mà không sợ rủi ro. Khi chúng quyết định ai được vay tiền, ai được trả tự do có điều kiện trước thời hạn, hoặc quyết định cách lái xe trong một thành phố đông đúc, điều này tiềm ẩn mối nguy hại. Và khi sự việc đi chệch hướng – ngay cả với hệ thống tốt nhất, cũng khó tránh khỏi điều này sẽ không xảy ra – thì khách hàng, nhà quản lí và tòa án sẽ muốn biết lí do tại sao lại xảy ra như thế.
Mounir Mahjoubi
Đối với một số người, đây là lí do cần phải kiềm soát AI. Mounir Mahjoubi, Bộ trưởng Bộ Kinh tế Kĩ thuật số nước Pháp, nói rằng chính phủ [Pháp] không nên sử dụng bất cứ thuật toán nào mà không thể giải thích rõ ràng việc ra quyết định của nó. Nhưng đó là một phản ứng thái quá. Mặc dù AI có viễn tưởng xán lạn, những khó khăn được đặt ra bởi những chiếc máy tính thông minh không phải là chưa có tiền lệ. Xã hội đã có nhiều kinh nghiệm đối phó với các vấn đề mà các hộp đen đặt ra; trong đó vấn đề phổ biến nhất chính là con người. Sự xuất hiện những vấn đề mới sẽ đặt ra thách thức, nhưng đó không phải là thứ không thể vượt qua. Để đối phó với những sai sót ở nơi con người, xã hội đã phát triển một loạt các cơ chế mô phỏng khả thi, được gọi là luật, quy tắc và quy định. Với một chút điều chỉnh nhỏ, các cơ chế trên cũng có thể áp dụng tốt đối với máy móc.

Có tư duy cởi mở

Hãy bắt đầu với con người. Chúng còn khó hiểu hơn cả chương trình máy tính. Cho dù đã sử dụng những máy quét não đắt tiền nhất để nhìn sâu vào não bộ của mình, các nhà khoa học cũng không thể hiểu được những gì mà họ thấy. Và mặc dầu con người có đưa ra các lời giải thích cho hành vi của riêng họ, nhưng chúng thường không chính xác. Đó không chỉ tại vì con người hay nói dối và che đậy. Ngay cả những người trung thực nhất cũng chỉ tiếp cận một cách hạn chế đối với những gì đang diễn ra trong tiềm thức của họ. Những lời giải thích mà họ đưa ra như là sự lí tính hóa (rationalisation) có tính hồi tưởng quá khứ hơn là tổng kết tất cả quá trình phức tạp mà não bộ của họ thực hiện. Bản thân học máy cũng minh chứng cho điều này. Nếu con người có thể giải thích những khuôn mẫu tư duy của riêng mình, thì họ đã có thể lập trình cho máy móc để tái tạo trực tiếp suy nghĩ đó, thay vì buộc chúng phải tự dạy cho chúng thông qua phương thức thử và sai của học máy.
Bỏ qua triết lí cao siêu, con người đã xử lí các nhiệm vụ phức tạp cùng với máy tính từ hàng thập kỉ qua. Ngoài việc điều khiển máy bay, máy tính đã giám sát các tài khoản ngân hàng để phòng tránh gian lận và phân định các yêu cầu bảo hiểm. Bài học rút ra từ những ứng dụng trên là, ở bất cứ nơi đâu có thể, con người cũng cần phải giám sát máy móc. Đối với tất cả các chuyện kể hài hước trên, các thành viên của đoàn bay có vai trò rất quan trọng trong việc xử lí các tình huống nằm ngoài khả năng của trí tuệ nhân tạo. Khi máy tính ngày càng phổ biến, các công ty và chính phủ cần phải đảm bảo rằng tuyến phòng thủ đầu tiên chính là con người thật vốn có thể chi phối các thuật toán khi cần thiết.
Ngay cả khi con người không “nằm trong phạm vi điều chỉnh”, như đối với xe tự hành hoàn toàn, luật về trách nhiệm pháp lí ngày nay có thể hữu ích. Tòa án nỗ lực quy trách nhiệm khi cả thuật toán lẫn người lập trình ra nó đều không thể giải thích được nguyên nhân của các hoạt động của nó. Nhưng thật không cần thiết phải biết chính xác những gì đang diễn ra trong bộ não — dù là bộ não silicon [một con chip vi xử lí silicon hoạt động như não người – ND] hay bộ não có tính đa dạng sinh học — để xác định liệu có thể tránh được một sự cố hay không. Thay vào đó, tòa án có thể đặt câu hỏi tương tự rằng liệu một cách thức hành động khác biệt sẽ có thể ngăn chặn được lỗi lầm hay không. Nếu vậy, tính trách nhiệm pháp lí có thể quy cho người nào, người bán sản phẩm hay người vận hành hệ thống.
Có những lo ngại khác. Máy móc được dạy dựa trên dữ liệu cũ sẽ phải nỗ lực để thích ứng với những hoàn cảnh mới, chẳng hạn như việc thay đổi các thái độ văn hóa. Có những ví dụ về những thuật toán, sau khi được con người dạy, cuối cùng chúng cũng biết phân biệt đối xử dựa trên chủng tộc và giới tính. Nhưng sự lựa chọn không phải là giữa những thuật toán có định kiến và những con người có công tâmMà lựa chọn là giữa những người có thiên lệch nhận thức và những máy móc có thiên lệch nhận thức mà họ tạo ra. Sự phán xét của một người phân biệt chủng tộc có thể không được chỉnh sửa trong nhiều năm trời. Một thuật toán tư vấn cho các quan toà có thể được áp dụng cho hàng nghìn trường hợp mỗi năm. Điều này sẽ thải ra rất nhiều dữ liệu, từ đó có thể nhanh chóng phát hiện và sửa chữa những thiên lệch nhận thức.
AI nhất định phải bị một số vấn đề — làm sao mà lại không được chứ? Nhưng nó cũng hứa hẹn những lợi ích đặc biệt và những khó khăn mà nó đặt ra không phải là điều chưa từng có. Con người nên tìm kiếm dữ liệu, giống như máy móc vẫn làm. Các nhà quản lí nên bắt đầu với một thứ nhẹ nhàng (light touch) và yêu cầu sửa chữa nhanh chóng khi có điều gì sai lầm. Nếu những hộp đen mới tỏ ra rắc rối, đó sẽ là thời điểm phải siết chặt các quy tắc.
Bài báo này xuất hiện trên mục the Leaders [những Nhà lãnh đạo] trong phiên bản báo in dưới tiêu đề “Peering into the black box” [Nhìn sâu vào hộp đen].
Đoàn Minh Thiên Ý, Nguyễn Việt Anh dịch
Nguồn: Insidethe black box, Economist, Feb 15, 2018.
Print Friendly and PDF