6.6.24

'AI đạo đức' là gì và làm thế nào các công ty có thể đạt được nó?

'A.I. ĐẠO ĐỨC' LÀ GÌ VÀ LÀM THẾ NÀO CÁC CÔNG TY CÓ THỂ ĐẠT ĐƯỢC NÓ?

Trong trường hợp không có hướng dẫn pháp lý, các công ty cần thiết lập các quy trình nội bộ để sử dụng AI có trách nhiệm. Oscar Wong/Getty Images

Việc gấp rút triển khai các công nghệ AI thế hệ mới mạnh mẽ, chẳng hạn như ChatGPT, đã gióng lên hồi chuông cảnh báo về khả năng gây hại và lạm dụng. Phản ứng lạnh nhạt của luật pháp đối với các mối đe dọa như vậy đã đặt ra những yêu cầu rằng các công ty phát triển các công nghệ này cần triển khai AI “một cách có đạo đức”.

Nhưng chính xác thì điều đó nghĩa là sao?

Câu trả lời đơn giản là điều chỉnh các hoạt động của doanh nghiệp với một hoặc nhiều trong số hàng chục bộ nguyên tắc đạo đức AI mà chính phủ, các nhóm nhiều bên liên quan và các học giả đã đưa ra. Nhưng nói thì dễ hơn làm.

Chúng tôi và các đồng nghiệp của mình đã dành hai năm để phỏng vấn và khảo sát các chuyên gia về đạo đức AI trong nhiều lĩnh vực khác nhau để cố gắng hiểu xem họ cố tìm cách đạt được AI có đạo đức bằng cách nào – và họ có thể bỏ sót gì. Chúng tôi đã học được rằng việc theo đuổi đạo đức AI trên thực tế không phải là áp các nguyên tắc đạo đức vào các hành động của công ty mà là triển khai các cấu trúc và quy trình quản lý cho phép một tổ chức phát hiện và giảm thiểu các mối đe dọa.

Đây có thể là một tin đáng thất vọng đối với các tổ chức đang tìm kiếm hướng dẫn rõ ràng để tránh các vùng xám, và đối với người tiêu dùng đang hy vọng về các tiêu chuẩn rõ ràng và có tính bảo vệ. Nhưng nó chỉ ra sự hiểu biết tốt hơn về cách các công ty có thể theo đuổi AI có đạo đức.

Vật lộn với những bất trắc về đạo đức

Nghiên cứu của chúng tôi, là cơ sở cho một cuốn sách sắp xuất bản, tập trung vào những người chịu trách nhiệm quản lý các vấn đề về đạo đức AI tại các công ty lớn sử dụng AI. Từ cuối năm 2017 đến đầu năm 2019, chúng tôi đã phỏng vấn 23 nhà quản lý như vậy. Các chức danh của họ trải dài từ nhân viên về quyền riêng tư và cố vấn quyền riêng tư cho đến một chức danh còn mới vào thời điểm đó nhưng giờ đã ngày càng phổ biến: nhân viên đạo đức dữ liệu. Các cuộc trò chuyện của chúng tôi với các nhà quản lý đạo đức AI này có thể đúc kết thành bốn ý chính.

Đầu tiên, đi cùng với nhiều lợi ích thì việc sử dụng AI trong kinh doanh có những rủi ro đáng kể và các công ty biết điều này. Các nhà quản lý đạo đức AI bày tỏ lo ngại về quyền riêng tưthao túng, thiên kiến [bias], độ minh bạch [opacity], bất bình đẳng và dịch chuyển lao động. Trong một ví dụ nổi tiếng, Amazon đã phát triển một công cụ AI để phân loại sơ yếu lý lịch và huấn luyện nó tìm những ứng viên tương tự như những người mà họ đã thuê trước đây. Sự thống trị của nam giới trong ngành công nghệ tức là hầu hết nhân viên của Amazon là nam giới. Do đó, công cụ này đã học được rằng cần từ chối các ứng viên nữ. Không thể khắc phục sự cố, Amazon cuối cùng đã phải hủy bỏ dự án.

AI tạo sinh làm dấy lên lo lắng về thông tin sai lệch và ngôn từ kích động thù địch ở quy mô lớn cũng như chiếm đoạt tài sản trí tuệ.

Thứ hai, các công ty theo đuổi AI có đạo đức chủ yếu là vì các lý do chiến lược. Họ muốn duy trì niềm tin từ khách hàng, đối tác kinh doanh và nhân viên. Và họ muốn đón đầu, hoặc chuẩn bị, cho các quy định sắp tới. Vụ bê bối Facebook-Cambridge Analytica, trong đó Cambridge Analytica đã sử dụng dữ liệu người dùng Facebook, được chia sẻ mà không có sự đồng thuận (của người dùng), để phỏng đoán các loại tâm lý của người dùng và nhắm mục tiêu các quảng cáo chính trị thao túng vào họ, cho thấy rằng việc sử dụng phân tích nâng cao một cách phi đạo đức có thể làm sứt mẻ uy tín của công ty hoặc thậm chí, như trường hợp của chính Cambridge Analytica, hủy hoại nó. Thay vào đó, các công ty mà chúng tôi đã trao đổi đều mong muốn được coi là người quản lý có trách nhiệm đối với dữ liệu của mọi người.

Thách thức mà các nhà quản lý đạo đức AI phải đối mặt là tìm ra cách tốt nhất để đạt được “AI có đạo đức”. Trước tiên, họ xem xét các nguyên tắc đạo đức AI, đặc biệt là những nguyên tắc bắt nguồn từ đạo đức sinh học hoặc nhân quyền, nhưng rồi họ thấy chúng không đủ. Vấn đề không chỉ nằm ở việc có nhiều bộ nguyên tắc cạnh tranh nhau. Mà còn ở chỗ, công lý, sự công bằng, lòng tốt, quyền tự chủ và các nguyên tắc tương tự khác đều có thể gây tranh cãi, có nhiều cách diễn giải khác nhau và thậm chí còn có thể mâu thuẫn lẫn nhau.

Điều này dẫn đến ý chính thứ ba của chúng tôi: Các nhà quản lý cần nhiều hơn là các nguyên tắc AI cấp cao để quyết định phải làm gì trong các tình huống cụ thể. Một nhà quản lý về đạo đức AI đã mô tả việc cố gắng chuyển đổi các nguyên tắc về quyền con người thành một bộ câu hỏi mà các nhà phát triển có thể tự hỏi mình để tạo ra các hệ thống phần mềm AI có đạo đức hơn. “Chúng tôi dừng lại sau 34 trang câu hỏi,” nhà quản lý nói.

Thứ tư, các chuyên gia vật lộn với những bất trắc về đạo đức đã chuyển sang cơ cấu tổ chức và các thủ tục để đưa ra phán đoán về cách hành xử. Một phần trong số này rõ là không đủ. Nhưng số còn lại, dù hầu hết vẫn đang trong quá trình phát triển, lại hữu ích hơn, chẳng hạn:

  • Tuyển dụng một nhân viên giám sát đạo đức AI để xây dựng và giám sát chương trình.
  • Thành lập một ủy ban đạo đức AI nội bộ để cân nhắc và ra quyết định về các vấn đề khó khăn.
  • Tạo ra các danh sách kiểm tra đạo đức dữ liệu và yêu cầu các nhà khoa học dữ liệu tuyến đầu hoàn thành chúng.
  • Tiếp cận với các học giả, các bộ điều chỉnh trước đây và những người ủng hộ các quan điểm thay thế.
  • Tiến hành đánh giá tác động thuật toán giống như kiểu (đánh giá) được dùng trong quản trị môi trường và quyền riêng tư.

Đạo đức như việc ra quyết định có trách nhiệm

Ý tưởng chính nổi lên từ nghiên cứu của chúng tôi là: Các công ty đang tìm cách sử dụng AI một cách có đạo đức không nên mong đợi sẽ khám phá ra được một bộ nguyên tắc đơn giản mang lại câu trả lời chính xác từ góc nhìn toàn tri của Thượng đế. Thay vào đó, họ nên tập trung vào nhiệm vụ rất con người là cố gắng đưa ra quyết định có trách nhiệm trong một thế giới có hiểu biết hữu hạn và hoàn cảnh luôn thay đổi, ngay cả khi một số quyết định cuối cùng có thể không hoàn hảo.

Trong trường hợp không có các yêu cầu pháp lý rõ ràng, các công ty, giống như các cá nhân, chỉ có thể cố gắng hết sức để tự nhận thức xem AI ảnh hưởng đến con người và môi trường như thế nào, đồng thời theo sát các mối quan tâm của công chúng cũng như các nghiên cứu và các ý tưởng mới nhất của chuyên gia. Họ cũng có thể tìm kiếm ý kiến đóng góp từ một nhóm lớn và đa dạng các bên liên quan và nghiêm túc tham gia vào (việc xây dựng và thực hiện) các nguyên tắc đạo đức cấp cao.

Ý tưởng đơn giản này thay đổi cuộc thảo luận theo những cách quan trọng. Nó khuyến khích các chuyên gia về đạo đức AI bớt dồn năng lượng vào việc xác định và áp dụng các nguyên tắc AI – dù chúng vẫn là một phần của câu chuyện – và tập trung nhiều hơn vào việc áp dụng các cấu trúc và quy trình ra quyết định để đảm bảo rằng họ cân nhắc các tác động, quan điểm và kỳ vọng của công chúng vốn nên là những yếu tố định hướng cho các quyết định kinh doanh của họ.

Trong phiên điều trần trước ủy ban Thượng viện vào tháng 5 năm 2023, Giám đốc điều hành OpenAI Sam Altman đã kêu gọi giám sát chặt chẽ hơn, bao gồm các điều kiện cấp phép, đối với các công ty phát triển phần mềm AI. Ảnh AP/Patrick Semansky

Cuối cùng, chúng tôi tin rằng các luật và quy định sẽ cần cung cấp các chuẩn đối sánh trọng yếu để các tổ chức hướng tới. Tuy nhiên, các cấu trúc và quy trình ra quyết định có trách nhiệm là điểm khởi đầu và nên, theo thời gian, giúp xây dựng kiến thức cần thiết để tạo ra các tiêu chuẩn pháp lý khả dụng trọng yếu và có tính bảo vệ.

Thật vậy, luật và chính sách sắp tới về AI tập trung vào quy trình. Thành phố New York đã thông qua luật yêu cầu các công ty kiểm tra các hệ thống AI của họ để tìm các thiên kiến có hại trước khi sử dụng các hệ thống này để đưa ra quyết định tuyển dụng. Các thành viên của Quốc hội đã đưa ra các dự luật yêu cầu các doanh nghiệp thực hiện các đánh giá tác động thuật toán trước khi sử dụng AI (khi ra quyết định quyết định) để cho vay, tuyển dụng, bảo hiểm và các quyết định quan trọng khác. Những luật này nhấn mạnh các quy trình giúp chặn trước các mối đe dọa tiềm ẩn của AI.

Một số nhà phát triển AI tạo sinh đã chọn cách tiếp cận rất khác. Sam Altman, Giám đốc điều hành của OpenAI, ban đầu giải thích rằng, khi phát hành ChatGPT ra công chúng, công ty đã cố gắng cho chatbot “tiếp xúc đủ nhiều với thế giới thực để có thể “phát hiện ra một số trường hợp dùng (chatbot) sai mục đích mà bạn chưa hề nghĩ tới nhờ đó ta có thể xây dựng các công cụ tốt hơn.” Đối với chúng tôi, đó không phải là AI có trách nhiệm. Mà là đang coi con người như đám chuột lang trong một thí nghiệm đầy rủi ro.

Lời kêu gọi của Altman tại phiên điều trần của Thượng viện vào tháng 5 năm 2023 về quy định của chính phủ đối với AI cho thấy độ nhận thức cao hơn về vấn đề này. Nhưng chúng tôi tin rằng anh ấy đã đi quá xa trong việc đẩy cho chính phủ những trách nhiệm mà vốn dĩ các nhà phát triển AI sáng tạo cũng phải gánh vác. Duy trì lòng tin của công chúng và tránh gây tổn hại cho xã hội sẽ đòi hỏi các công ty phải đối mặt với trách nhiệm của mình một cách đầy đủ hơn.

Tác giả

Dennis Hirsch

Piers Norris Turner
Dennis Hirsch

Giáo sư Luật và Khoa học Máy tính; Giám đốc, Chương trình Dữ liệu và Quản trị; giảng viên nòng cốt, Translational Data and Analytics Institute (TDAI), Đại học Bang Ohio

Piers Norris Turner

Phó Giáo sư Triết học & Điều phối viên PPE; Giám đốc, Trung tâm Đạo đức và Giá trị Con người, Đại học Bang Ohio

Tuyên bố công khai

Dennis Hirsch và nhóm nghiên cứu đã nhận được tài trợ nội bộ từ Viện Rủi ro tại Đại học Kinh doanh Fisher và tài trợ bên ngoài từ Facebook cho dự án nghiên cứu được đề cập trong bài viết.

Nghiên cứu của Piers Turner về đạo đức dữ liệu được tài trợ một phần bởi khoản trợ cấp từ Facebook và từ Viện Rủi ro tại Đại học Kinh doanh Fisher.

Huỳnh Thị Thanh Trúc dịch

Nguồn: What is 'ethical AI' and how can companies achieve it?, The Conversation, May 25, 2023.

Print Friendly and PDF