'A.I. ĐẠO ĐỨC' LÀ GÌ VÀ LÀM THẾ NÀO CÁC CÔNG TY CÓ THỂ ĐẠT ĐƯỢC NÓ?
Trong trường hợp không có hướng dẫn pháp lý, các công ty cần thiết lập các quy trình nội bộ để sử dụng AI có trách nhiệm. Oscar Wong/Getty Images |
Việc gấp rút triển khai các công nghệ AI thế hệ mới mạnh mẽ, chẳng hạn như ChatGPT, đã gióng
lên hồi chuông cảnh báo về khả năng gây hại và lạm dụng. Phản ứng lạnh nhạt của luật pháp đối với các mối đe dọa như vậy
đã đặt ra những yêu cầu rằng các công ty phát triển các công nghệ này cần triển
khai AI “một cách có đạo đức”.
Nhưng chính xác thì điều đó nghĩa là sao?
Câu trả lời đơn giản là điều chỉnh các hoạt động của
doanh nghiệp với một hoặc nhiều trong số hàng chục bộ nguyên tắc đạo đức AI mà chính phủ, các nhóm nhiều bên liên quan và
các học giả đã đưa ra. Nhưng nói thì dễ hơn làm.
Chúng tôi và các đồng nghiệp của mình đã dành hai năm để phỏng vấn và khảo sát các
chuyên gia về đạo đức AI trong
nhiều lĩnh vực khác nhau để cố gắng hiểu xem họ cố tìm cách đạt được AI có đạo
đức bằng cách nào – và họ có thể bỏ sót gì. Chúng tôi đã học được rằng việc
theo đuổi đạo đức AI trên thực tế không phải là áp các nguyên tắc đạo đức vào
các hành động của công ty mà là triển khai các cấu trúc và quy trình quản lý
cho phép một tổ chức phát hiện và giảm thiểu các mối đe dọa.
Đây có thể là một tin đáng thất vọng đối với các tổ chức đang tìm kiếm hướng dẫn rõ ràng để tránh các vùng xám, và đối với người tiêu dùng đang hy vọng về các tiêu chuẩn rõ ràng và có tính bảo vệ. Nhưng nó chỉ ra sự hiểu biết tốt hơn về cách các công ty có thể theo đuổi AI có đạo đức.
Vật lộn với những bất trắc về đạo đức
Nghiên cứu của chúng tôi, là cơ sở cho một cuốn sách sắp xuất bản, tập trung vào những người chịu trách nhiệm quản lý
các vấn đề về đạo đức AI tại các công ty lớn sử dụng AI. Từ cuối năm 2017
đến đầu năm 2019, chúng tôi đã phỏng vấn 23 nhà quản lý như vậy. Các chức
danh của họ trải dài từ nhân viên về quyền riêng tư và cố vấn quyền riêng tư
cho đến một chức danh còn mới vào thời điểm đó nhưng giờ đã ngày càng phổ biến:
nhân viên đạo đức dữ liệu. Các cuộc trò chuyện của chúng tôi với các nhà
quản lý đạo đức AI này có thể đúc kết thành bốn ý chính.
Đầu tiên, đi cùng với nhiều lợi ích thì việc sử dụng
AI trong kinh doanh có những rủi ro đáng kể và các công ty biết điều này. Các nhà quản
lý đạo đức AI bày tỏ lo ngại về quyền riêng tư, thao túng, thiên kiến [bias], độ minh bạch [opacity], bất bình đẳng và dịch chuyển lao động. Trong một ví dụ nổi tiếng, Amazon đã phát triển một công cụ AI
để phân loại sơ yếu lý lịch và
huấn luyện nó tìm những ứng viên tương tự như những người mà họ đã thuê trước
đây. Sự thống trị của nam giới trong ngành công nghệ tức là hầu hết nhân
viên của Amazon là nam giới. Do đó, công cụ này đã học được rằng cần từ chối
các ứng viên nữ. Không thể khắc phục sự cố, Amazon cuối cùng đã phải hủy bỏ
dự án.
AI tạo sinh làm dấy lên lo lắng về thông tin sai lệch và ngôn từ kích động thù địch ở quy mô lớn cũng như chiếm đoạt tài sản trí tuệ.
Thứ hai, các công ty theo đuổi AI có đạo đức chủ yếu là
vì các lý do chiến lược. Họ muốn duy trì niềm tin từ khách hàng, đối tác
kinh doanh và nhân viên. Và họ muốn đón đầu, hoặc chuẩn bị, cho các quy định
sắp tới. Vụ bê bối Facebook-Cambridge Analytica, trong đó Cambridge Analytica đã sử dụng dữ liệu người
dùng Facebook, được chia sẻ mà không có sự đồng thuận (của người dùng), để phỏng đoán các loại tâm lý của người
dùng và nhắm mục tiêu các quảng
cáo chính trị thao túng vào họ, cho thấy rằng việc sử dụng phân tích nâng cao một
cách phi đạo đức có thể làm sứt mẻ uy tín của công ty hoặc thậm chí, như trường hợp của chính
Cambridge Analytica, hủy hoại nó. Thay vào đó, các công ty mà chúng tôi đã
trao đổi đều mong muốn được coi là người quản lý có trách nhiệm đối với dữ liệu
của mọi người.
Thách thức mà các nhà quản lý đạo đức AI phải đối mặt
là tìm ra cách tốt nhất để đạt được “AI có đạo đức”. Trước tiên, họ xem
xét các nguyên tắc đạo đức AI, đặc biệt là những nguyên tắc bắt nguồn từ đạo đức
sinh học hoặc nhân quyền, nhưng rồi họ thấy chúng không đủ. Vấn đề không
chỉ nằm ở việc có nhiều bộ nguyên tắc cạnh tranh nhau. Mà còn ở chỗ, công lý, sự công bằng, lòng
tốt, quyền tự chủ và các nguyên tắc tương tự khác đều có thể gây tranh cãi, có
nhiều cách diễn giải khác nhau và thậm chí còn có thể mâu thuẫn lẫn nhau.
Điều này dẫn đến ý chính thứ ba của chúng tôi: Các nhà
quản lý cần nhiều hơn là các nguyên tắc AI cấp cao để quyết định phải làm gì
trong các tình huống cụ thể. Một nhà quản lý về đạo đức AI đã mô tả việc cố
gắng chuyển đổi các nguyên tắc về quyền con người thành một bộ câu hỏi mà các
nhà phát triển có thể tự hỏi mình để tạo ra các hệ thống phần mềm AI có đạo đức
hơn. “Chúng tôi dừng lại sau 34 trang câu hỏi,” nhà quản lý nói.
Thứ tư, các chuyên gia vật lộn với những bất trắc về đạo
đức đã chuyển sang cơ cấu tổ chức và các thủ tục để đưa ra phán đoán về cách
hành xử. Một phần trong số này rõ là không đủ. Nhưng số còn lại, dù hầu
hết vẫn đang trong quá trình phát triển, lại hữu ích hơn, chẳng hạn:
- Tuyển dụng một nhân viên giám sát đạo đức AI để
xây dựng và giám sát chương trình.
- Thành lập một ủy ban đạo đức AI nội bộ để cân nhắc và ra quyết định về các vấn đề khó khăn.
- Tạo ra các danh sách kiểm tra đạo đức dữ liệu và yêu cầu các nhà khoa học dữ liệu tuyến đầu hoàn thành chúng.
- Tiếp cận với các học giả, các bộ điều chỉnh trước
đây và những người ủng hộ các quan điểm thay thế.
- Tiến hành đánh giá tác động thuật toán giống như
kiểu (đánh giá) được dùng trong quản trị môi trường và quyền riêng tư.
Đạo đức như việc ra quyết định có trách nhiệm
Ý tưởng chính nổi lên từ nghiên cứu của chúng tôi là: Các công ty đang tìm cách sử dụng AI một
cách có đạo đức không nên mong đợi sẽ khám phá ra được một bộ nguyên tắc đơn giản
mang lại câu trả lời chính xác từ góc nhìn toàn tri của Thượng đế. Thay
vào đó, họ nên tập trung vào nhiệm vụ rất con người là cố gắng đưa ra quyết định
có trách nhiệm trong một thế giới có hiểu biết hữu hạn và hoàn cảnh luôn thay đổi,
ngay cả khi một số quyết định cuối cùng có thể không hoàn hảo.
Trong trường hợp không có các yêu cầu pháp lý rõ ràng,
các công ty, giống như các cá nhân, chỉ có thể cố gắng hết sức để tự nhận thức
xem AI ảnh hưởng đến con người và môi trường như thế nào, đồng thời theo sát
các mối quan tâm của công chúng cũng như các nghiên cứu và các ý tưởng mới nhất
của chuyên gia. Họ cũng
có thể tìm kiếm ý kiến đóng góp từ một nhóm lớn và đa dạng các bên liên quan
và nghiêm túc tham gia vào (việc xây dựng và thực hiện) các nguyên tắc đạo đức
cấp cao.
Ý tưởng đơn giản này thay đổi cuộc thảo luận theo những cách quan trọng. Nó khuyến khích các chuyên gia về đạo đức AI bớt dồn năng lượng vào việc xác định và áp dụng các nguyên tắc AI – dù chúng vẫn là một phần của câu chuyện – và tập trung nhiều hơn vào việc áp dụng các cấu trúc và quy trình ra quyết định để đảm bảo rằng họ cân nhắc các tác động, quan điểm và kỳ vọng của công chúng vốn nên là những yếu tố định hướng cho các quyết định kinh doanh của họ.
Trong phiên điều trần trước ủy ban Thượng viện vào tháng 5 năm 2023, Giám đốc điều hành OpenAI Sam Altman đã kêu gọi giám sát chặt chẽ hơn, bao gồm các điều kiện cấp phép, đối với các công ty phát triển phần mềm AI. Ảnh AP/Patrick Semansky |
Cuối cùng, chúng tôi tin rằng các luật và quy định sẽ
cần cung cấp các chuẩn đối sánh trọng yếu để các tổ chức hướng tới. Tuy
nhiên, các cấu trúc và quy trình ra quyết định có trách nhiệm là điểm khởi đầu và
nên, theo thời gian, giúp xây dựng kiến thức cần thiết để tạo ra các tiêu chuẩn
pháp lý khả dụng trọng yếu và có tính bảo vệ.
Thật vậy, luật và chính sách sắp tới về AI tập trung
vào quy trình. Thành phố New York đã thông qua luật yêu cầu các công ty kiểm tra các hệ thống AI của
họ để tìm các thiên kiến có hại trước khi sử dụng các hệ thống này để đưa ra
quyết định tuyển dụng. Các thành viên của Quốc hội đã đưa ra các dự luật yêu cầu các doanh nghiệp thực hiện các đánh giá tác động thuật
toán trước khi sử dụng AI (khi ra quyết định quyết định) để cho vay, tuyển dụng,
bảo hiểm và các quyết định quan trọng khác. Những luật này nhấn mạnh các quy
trình giúp chặn trước các mối đe dọa tiềm ẩn của AI.
Một số nhà phát triển AI tạo sinh đã chọn cách tiếp cận
rất khác. Sam Altman, Giám đốc điều hành của OpenAI, ban đầu giải thích rằng,
khi phát hành ChatGPT ra công chúng, công ty đã cố gắng cho chatbot “tiếp xúc đủ nhiều với thế
giới thực để có thể “phát hiện ra
một số trường hợp dùng (chatbot) sai mục đích mà bạn chưa hề nghĩ tới nhờ đó ta
có thể xây dựng các công cụ tốt hơn.” Đối với chúng tôi, đó không phải là
AI có trách nhiệm. Mà là đang coi con người như đám chuột lang trong một
thí nghiệm đầy rủi ro.
Lời kêu gọi của Altman tại phiên điều trần của Thượng viện
vào tháng 5 năm 2023 về quy định của chính phủ đối với AI cho thấy độ nhận thức cao hơn về vấn
đề này. Nhưng chúng tôi tin rằng anh ấy đã đi quá xa trong việc đẩy cho
chính phủ những trách nhiệm mà vốn dĩ các nhà phát triển AI sáng tạo cũng phải gánh
vác. Duy trì lòng tin của công
chúng và tránh gây tổn hại cho xã hội sẽ đòi hỏi các công ty phải đối mặt với
trách nhiệm của mình một cách đầy đủ hơn.
Tác giả
Dennis Hirsch |
Piers Norris Turner |
Giáo sư Luật và Khoa học Máy tính; Giám đốc, Chương trình Dữ liệu và Quản trị; giảng viên nòng cốt, Translational Data and Analytics Institute (TDAI), Đại học Bang Ohio
Piers Norris Turner
Phó Giáo sư Triết học & Điều phối viên
PPE; Giám đốc, Trung tâm Đạo đức và Giá trị Con người, Đại học Bang Ohio
Tuyên bố công khai
Dennis Hirsch và nhóm nghiên cứu đã nhận được tài trợ
nội bộ từ Viện Rủi ro tại Đại học Kinh doanh Fisher và tài trợ bên ngoài từ
Facebook cho dự án nghiên cứu được đề cập trong bài viết.
Nghiên cứu của Piers Turner về đạo đức dữ liệu được
tài trợ một phần bởi khoản trợ cấp từ Facebook và từ Viện Rủi ro tại Đại học
Kinh doanh Fisher.
Huỳnh Thị Thanh Trúc dịch
Nguồn: What is 'ethical AI' and how can companies achieve it?, The Conversation, May 25, 2023.