25.12.18

Chúng ta biết nên truyền đạo đức cho AI. Nhưng đạo đức nào?


CHÚNG TA BIẾT NÊN TRUYỀN ĐẠO ĐỨC CHO AI. NHƯNG ĐẠO ĐỨC NÀO?


 
Các máy móc có khả năng nhận thức đặt ra nhiều vấn đề đạo đức cần xem xét cẩn thận. Hình ảnh: hãng tin REUTERS

Trí tuệ nhân tạo (AI) dựa vào nguồn dữ liệu lớn và học máy cho vô số ứng dụng của nó, từ các phương tiện tự hành đến giao dịch thuật toán, và từ các hệ hỗ trợ ra quyết định lâm sàng đến khai phá dữ liệu. Sự sẵn có của dữ liệu dồi dào là điều thiết yếu cho sự phát triển của AI. Với dân số và khu vực kinh doanh lớn, mà cả hai đều sử dụng các nền tảng và công cụ số hóa đến một mức độ chưa từng có, Trung Quốc có thể tận hưởng một lợi thế trong AI. Thêm vào đó, Trung Quốc có ít ràng buộc trong việc sử dụng thông tin thu thập được từ dấu chân điện tử mà mọi người và các công ty lưu lại hơn. Ấn Độ cũng đã thực hiện một loạt các bước tương tự để số hóa nền kinh tế của mình, bao gồm mã thông báo nhận dạng sinh trắc học, phi tiền tệ hoá và một hệ thống thuế hàng hóa và dịch vụ tích hợp.

Nhưng vụ bê bối gần đây về việc sử dụng dữ liệu cá nhân và xã hội của Facebook và Cambridge Analytica đã đưa những cân nhắc đạo đức trở nên đáng chú ý. Và đó mới chỉ là khởi đầu. Khi các ứng dụng AI yêu cầu lượng dữ liệu lớn hơn để giúp máy học và thực hiện các nhiệm vụ cho tới nay được dành riêng cho con người, các công ty đang phải đối mặt với sự giám sát công khai ngày càng tăng, ít nhất là ở một số nơi trên thế giới. Tesla và Uber đã giảm bớt những nỗ lực của mình trong việc phát triển các phương tiện tự hành sau những tai nạn được mô tả rộng rãi. Làm thế nào để chúng ta đảm bảo việc sử dụng AI có đạo đức và có trách nhiệm? Làm thế nào để chúng ta làm tăng nhận thức về các trách nhiệm như vậy, khi thế giới chưa có một quy chuẩn chung về AI?

Các tiêu chuẩn đạo đức để đánh giá AI và các công nghệ liên quan của nó vẫn còn trong giai đoạn trứng nước. Các công ty cần bắt đầu các thảo luận nội bộ cũng như những tranh biện bên ngoài với các bên liên quan then chốt để tránh rơi vào các tình huống khó khăn.



Hãy xem xét sự khác biệt giữa các tiêu chuẩn đạo đức học nghĩa vụ (deontological ethics) và đạo đức học mục đích (teleological ethics). Đạo đức học nghĩa vụ tập trung vào ý định và phương tiện, trong khi đạo đức học mục đích thì tập trung vào mục đích và kết quả. Ví dụ, trong trường hợp xe tự hành, mục đích của một hệ thống vận chuyển hoàn hảo mà hiệu quả và thân thiện với môi trường có thể là đủ để biện minh cho việc thu thập dữ liệu quy mô lớn về việc lái xe trong các điều kiện khác nhau, cũng như thử nghiệm dựa trên các ứng dụng của AI.

Ngược lại, can thiệp lâm sàng và đặc biệt là các thử nghiệm y khoa khó có thể biện minh trên căn cứ mục đích luận. Với lịch sử khủng khiếp về thử nghiệm y khoa trên các đối tượng là con người không có sự ngờ vực, các công ty và các nhà nghiên cứu AI cũng sẽ khôn ngoan sử dụng một cách tiếp cận mang tính nghĩa vụ để phán xét đạo đức của các hoạt động của họ trên cơ sở ý định và phương tiện hơn là trên các mục đích.

Một thước đo hữu ích khác được gọi là quy tắc đạo đức vàng, khuyến khích bạn đối xử với người khác theo cách bạn muốn được đối xử. Khó khăn trong việc áp dụng nguyên tắc này cho lĩnh vực đang phát triển của AI nằm tại hố sâu ngăn cách hàng tỷ người mà dữ liệu được tích lũy và phân tích với hàng tỷ người hưởng lợi từ đó. Dữ liệu đơn giản tổng gộp theo những cách khiến cho việc áp dụng trực tiếp quy tắc vàng hầu như không thích đáng.

Hãy xem xét một bộ tiêu chuẩn đạo đức cuối cùng: thuyết tương đối văn hóa so với chủ nghĩa phổ quát. Thuyết tương đối văn hoá khuyến khích chúng ta đánh giá hành động thông qua lăng kính của các giá trị và tiêu chuẩn của một nền văn hóa nhất định, trong khi chủ nghĩa phổ quát thúc giục mọi người sống theo một tiêu chuẩn được đồng ý chung. Sự so sánh này giúp giải thích, ví dụ, cuộc đụng độ hiện tại giữa quan niệm châu Âu và quan niệm của người Mỹ về quyền riêng tư về dữ liệu, vốn đang tạo thành bối cảnh cạnh tranh toàn cầu cho các công ty như Google và Facebook, trong số nhiều công ty khác. Các thị trường mới nổi như Trung Quốc và Ấn Độ trong nhiều năm qua đã đề xuất thuyết tương đối văn hóa là nguyên tắc dẫn đường, vì họ cảm thấy nó mang lại lợi thế cho họ, đặc biệt là tránh các quy định không cần thiết có thể làm chậm sự phát triển của họ như là các cường quốc công nghệ.

Các tiêu chuẩn đạo đức có khả năng trở nên quan trọng trong việc định hình sự cạnh tranh toàn cầu tương tự như các tiêu chuẩn công nghệ kể từ những năm 1980. Với sự cạnh tranh và sự thèm khát dữ liệu mà AI đòi hỏi, điều này có thể sẽ đòi hỏi các công ty đặt ra những câu hỏi rất khó khăn cho từng chi tiết về những gì họ làm để phát triển. Trong quá trình chúng tôi làm việc với các khách hàng toàn cầu, chúng tôi đang xem xét vai trò của đạo đức trong việc thực hiện AI. Cách mà ngành công nghiệp và xã hội giải quyết những vấn đề này sẽ rất quan trọng đối với việc áp dụng AI trong thế giới số.

Tuy nhiên, để AI đạt được những hứa hẹn, nó sẽ cần đến tính dự đoán được và sự đáng tin cậy. Hai điều này có liên hệ với nhau. Các giải pháp có thể dự đoán cho các vấn đề phức tạp mà AI tạo ra, chẳng hạn như trách nhiệm giải trình và việc sử dụng dữ liệu được cho phép, sẽ khuyến khích đầu tư và sử dụng AI. Tương tự, tiến trình với AI đòi hỏi người tiêu dùng phải tin tưởng vào công nghệ, tác động của nó đối với họ, và cách nó sử dụng dữ liệu của họ. Cách xử lí có thể đoán trước được và minh bạch tạo điều kiện cho sự tin tưởng này.

Máy móc thông minh cho phép các quy trình nhận thức cấp cao như tư duy, nhận thức, học tập, giải quyết vấn đề và ra quyết định. AI bày ra các cơ hội bổ sung và hỗ trợ cho trí thông minh của con người và làm phong phú thêm cách thức hoạt động của ngành công nghiệp và chính phủ.

Tuy nhiên, khả năng tạo ra các máy móc có khả năng nhận thức với AI làm nảy sinh nhiều vấn đề đạo đức cần xem xét cẩn thận. Hệ quả của các máy móc có khả năng nhận thức có thể đưa ra các quyết định độc lập là gì? Nó có nên được cho phép không? Làm cách nào để ta khiến chúng chịu trách nhiệm về kết quả? Chúng ta có cần kiểm soát, điều chỉnh và theo dõi việc học của chúng không?

Một hành lang pháp lý mạnh mẽ sẽ là cần thiết để đối phó với những vấn đề quá phức tạp hoặc thay đổi nhanh chóng để được giải quyết đầy đủ theo pháp luật. Nhưng chỉ quy trình chính trị và pháp lý sẽ không đủ. Để niềm tin phát triển, một quy tắc đạo đức sẽ không kém phần quan trọng.

Chính phủ nên khuyến khích thảo luận xung quanh vấn đề đạo đức của AI và đảm bảo tất cả các bên liên quan đều tham gia. Kết hợp với khu vực tư nhân, những nhóm người tiêu dùng và giới học thuật sẽ cho phép phát triển một bộ quy tắc đạo đức theo kịp các phát triển công nghệ, xã hội và chính trị.

Các nỗ lực của chính phủ cần được tiến hành trong sự hợp tác với những nỗ lực hiện có để nghiên cứu và thảo luận về đạo đức trong AI. Có rất nhiều sáng kiến ​​như vậy có thể được khuyến khích, bao gồm tại Alan Turing Institute [Viện Alan Turing], Leverhulme Centre for the Future of Intelligence [Trung tâm Leverhulme cho Tương lai của Trí tuệ], World Economic Forum Centre for the Fourth Industrial Revolution [Trung tâm Diễn đàn Kinh tế Thế giới về Cách mạng Công nghiệp 4.0], Royal Society [Hội Hoàng gia] và tổ chức phi lợi nhuận Partnership on Artificial Intelligence to Benefit People and Society [Tổ chức Trí tuệ Nhân tạo để làm lợi cho Con người và Xã hội].

Nhưng những cơ hội này đi kèm với những thách thức đạo đức liên quan:

Ra quyết định và trách nhiệm: Khi sử dụng AI tăng lên, sẽ trở nên khó khăn hơn để quy trách nhiệm của các quyết định. Nếu sai lầm gây hại xảy ra, ai sẽ chịu rủi ro?

Minh bạch: Khi các hệ thống học máy phức tạp được sử dụng để đưa ra các quyết định quan trọng, có thể khó mà lần ra được các nguyên nhân đằng sau một quá trình hành động cụ thể. Giải thích rõ ràng cho các suy luận của máy là cần thiết để xác định trách nhiệm giải trình.

Thiên lệch [nhận thức]: Hệ thống học máy có thể củng cố các thiên lệch [nhận thức] hiện tại trong các hệ thống ra quyết định. Cần phải cẩn thận để đảm bảo rằng AI phát triển không phân biệt đối xử.

Giá trị con người: Không lập trình, hệ thống AI không có giá trị mặc định hay “lẽ thường”. Tiêu chuẩn BS 8611 của Anh về “thiết kế và ứng dụng robot và hệ thống robot có đạo đức” cung cấp một số hướng dẫn hữu ích: “Robot không nên được thiết kế chỉ hoặc chủ yếu để giết hoặc gây hại cho con người. Con người, không phải robot, là những tác nhân có trách nhiệm; phải có thể tìm ra ai chịu trách nhiệm cho robot và hành vi của nó.”

Bảo vệ dữ liệu và IP: Tiềm năng của AI bắt nguồn từ quyền truy cập vào các tập dữ liệu lớn. Điều gì sẽ xảy ra khi một hệ thống AI được đào tạo trên một tập dữ liệu, sau đó áp dụng các bài học cho một tập dữ liệu mới?

AI có trách nhiệm đảm bảo sự chú ý đến các nguyên tắc và giá trị đạo đức, để đảm bảo rằng đạo đức cơ bản của con người không bị tổn hại. Đã có một số cáo buộc gần đây của các doanh nghiệp khai thác AI một cách phi đạo đức. Tuy nhiên, Amazon, Google, Facebook, IBM và Microsoft đã thiết lập một quan hệ đối tác phi lợi nhuận để xây dựng các hành động tốt nhất về công nghệ trí tuệ nhân tạo, nâng cao hiểu biết của công chúng, và để phục vụ như một nền tảng về trí thông minh nhân tạo.

Các tác giả

Mauro F. Guillén, Anthony L. Davis Giám đốc Viện Lauder, Tiến sĩ Felix Zandman Giáo sư Quản lý Quốc tế, Trường Wharton, Đại học Pennsulvania

Srikar Reddy, Giám đốc điều hành và Phó Tổng giám đốc, Công ty TNHH Phần mềm Sonata và công ty TNHH Công nghệ thông tin Sonata

Quan điểm trong bài viết này là của riêng các tác giả chứ không phải của Diễn đàn Kinh tế Thế giới (WEF).

Đoàn Trọng SangNguyễn Thị Trà Giang dịch

Nguồn: We know ethics should inform AI. But which ethics?, World Economic Forum, Jul 26, 2018.
Print Friendly and PDF