1.10.22

Đây là lý do vì sao không thể xem trí tuệ nhân tạo là một công cụ đơn thuần

ĐÂY LÀ LÝ DO VÌ SAO KHÔNG THỂ XEM TRÍ TUỆ NHÂN TẠO LÀ MỘT CÔNG CỤ ĐƠN THUẦN

Chừng nào trí tuệ nhân tạo chưa được điều tiết một cách thích đáng, thì không thể xem trí tuệ nhân tạo là một công cụ, bởi vì nó chứa đựng một tầm nhìn thế giới có ý nghĩa quyết định đối với các mối quan hệ xã hội. (Shutterstock)

Tác giả

Sandrine Lambert, nghiên cứu sinh tiến sĩ về nhân học, Đại học Laval

Karine Gentelet, giáo sư và chủ nhiệm Abeona-ENS-OBVIA về công bằng xã hội và trí tuệ nhân tạo, Đại học Quebec ở Outaouais (UQO) trong giai đoạn 2020-2022

Chủ đề về trí tuệ nhân tạo (AI), ngoài những nỗ lực cần thiết trong việc định nghĩa và làm rõ, thường rất phân cực. Một số người xem công nghệ này chứa đầy những cơ hội cho một thế giới và một tương lai tốt đẹp hơn, một số khác thì lại coi AI như là một sự xác thực về việc nhân loại sẽ kết thúc trong cảnh cơ hàn rách rưới, vì thiếu khả năng kiểm soát khi đối mặt với một ảo tưởng mạnh như thế.

Trong số các lập luận bảo vệ tiềm năng của AI, trong khi vẫn thừa nhận những lệch lạc và khả năng phân biệt đối xử, chúng ta thấy ý tưởng này được chia sẻ rộng rãi, cho rằng AI cuối cùng cũng chỉ là một công cụ. Điều này ngụ ý rằng tác động, phạm vi và ảnh hưởng của công nghệ này sẽ phụ thuộc vào những cách chúng ta sử dụng nó.

Nhưng liệu có đơn giản như thế không? Không hẳn.

Trong vai trò là những nhà nữ nghiên cứu về các tác động xã hội của trí tuệ nhân tạo và đặc biệt về công bằng xã hội, chúng tôi muốn làm sáng tỏ vấn đề này.

Những robot xã hội?

Đầu tiên, AI là hơn cả một công cụ, bởi vì sự phát triển của nó, trên hết, phản ánh một tầm nhìn nào đó về thế giới và các mối quan hệ tương tác giữa con người và xã hội. Ví dụ, SoftBank Robotics, công ty sản xuất những robot có dạng người NAO và Pepper, được chế tạo bằng cách sử dụng các hệ thống AI được phát triển đặc biệt để nhận diện khuôn mặt với việc đeo một mặt nạ, đang đầu tư rất nhiều vào lĩnh vực y tế, đặc biệt để hỗ trợ người cao tuổi.

Một phiên bản đơn giản hơn của robot NAO, có tên gọi là Zora, được các nhà phát triển ra nó đảm bảo là có 100% trí tuệ con người”, có thể kích thích, giải trí, cung cấp thông tin, huấn luyện và giúp người cao tuổi nhảy múa. Về điểm này, đó là một công cụ. Tuy nhiên, quyết định đưa robot này vào môi trường sống có tiềm năng đưa ra ánh sáng sự thất bại của việc tính đến yếu tố con người đối với người cao tuổi.

Vào thời điểm cắt giảm ngân sách các bệnh viện và nhà ở dành cho người cao tuổi theo logic về khả năng sinh lợi, thật khó để không xem những robot đó như là một giải pháp công nghệ trước tình trạng cắt giảm nguồn nhân lực. Người ta thấy ở đó một lựa chọn xã hội.

Isaac Asimov (1920-1992)

Việc xem các vật tạo tác này là “robot xã hội” hoặc mong muốn chúng có một “chiều kích đạo lý” không hề làm thay đổi vấn đề. Chiều kích đạo lý của robot đã được tác giả các tác phẩm viễn tưởng, Isaac Asimov, đề cập vào năm 1942, trong 3 định luật về robot học của ông. Theo định luật số 1,

Một con robot không được gây hại cho con người, và cũng không để cho con người gặp phải nguy hiểm vì sự bị động của nó.

Những ý định tốt và những tuyên bố về nguyên tắc là chưa đủ thuyết phục, bởi vì ngày nay, trí tuệ nhân tạo biểu lộ và củng cố một biểu trưng của thế giới, mà ở đó sự đoàn kết của con người và cấu trúc xã hội có vẻ như đang bị xói mòn.

Vấn đề công bằng xã hội

Thứ hai, nếu một số người khẳng định rằng đó chỉ là một công cụ, thì điều này giả định rằng mỗi người trong chúng ta đều có thể tận hưởng việc sử dụng nó và các quyền cơ bản con người sẽ không bị tác động. Tuy thế, khẳng định này bỏ qua sự bất cân xứng về quyền lực, đang tồn tại trong hệ sinh thái AI, cũng như những tác động được ghi nhận đối với các quyền con người. Thực vậy, ai là người điều khiển robot? Hiện tại, công dân không tham gia vào việc tạo ra các hệ thống AI, vốn là cội nguồn những lệch lạc về thuật toán thường được ghi nhận.

Công dân cũng không tham gia vào việc định nghĩa tầm nhìn của thế giới, được vẽ ra bởi các AI hiện đang được phát triển. Đối trọng duy nhất nằm ở những nỗ lực hiện tại nhằm điều tiết và giảm thiểu các lệch lạc và tác động tiêu cực của AI đối với xã hội. Thực vậy, các Nhà nước, các định chế siêu quốc gia như Liên minh Châu Âu, Hội đồng Châu Âu, hoặc cả các tổ chức quốc tế như Unesco chẳng hạn, đều đang nỗ lực triển khai các cơ chế làm giảm nhẹ và đóng khung những rủi ro liên quan đến AI.

Sự điều tiết là điều tốt, nhưng, trước khi triển khai công nghệ này, cũng cần phải có khả năng định nghĩa các nhu cầu xã hội, giáo dục, pháp lý, y tế và môi trường mà AI phải đáp ứng. Nói cách khác, trước bất kỳ thiết kế và phổ biến công nghệ AI nào, cần phải có một cuộc tham vấn mở và công khai về bản chất các nhu cầu mà AI sẽ đáp ứng và về cách thức thực hiện, để có thể tránh một hành động chữa cháy sau khi sự cố đã xảy ra, như trường hợp khi các tổ chức huy động các nguồn lực để giảm nhẹ rủi ro hoặc những lệch lạc đã tồn tại trước đó.

Công nghệ không phải là phương thuốc trị bá bệnh

Và rồi sẽ đến lúc thừa nhận AI không thể giải quyết được mọi thứ, và như thế, đoạn tuyệt với chủ nghĩa trọng giải pháp công nghệ. Chủ nghĩa trọng giải pháp công nghệ chính là cái hệ tư tưởng đang truyền bá ý tưởng cho rằng có một công nghệ giải quyết được từng vấn đề gặp phải: một robot để cải thiện việc chăm sóc người cao tuổi, như chúng ta đã thấy, hoặc thậm chí các ứng dụng di động để ngăn chặn tình trạng mất an ninh lương thực ở châu Phi, một AI để chống lại sự biến đổi khí hậu, hoặc các thuật toán để làm giảm tỷ lệ thất nghiệp, chỉ kể ra ở đây một vài ví dụ mà thôi.

Tuy thế, có nhiều khả năng là giải pháp tốt nhất cho một vấn đề xã hội, môi trường hoặc sức khỏe cộng đồng, cuối cùng không phải lúc nào cũng là một giải pháp công nghệ, mà là một giải pháp của con người, của kinh tế hoặc chính trị.

Hơn nữa, trong bối cảnh cạn kiệt tài nguyên và khủng hoảng sinh thái lớn, cần đặc biệt chú ý đến sự tiết độ kỹ thuật số. Thực vậy, các công nghệ kỹ thuật số cực kỳ tốn kém về năng lượng, về nguyên liệu hiếm và tạo ra một lượng lớn chất thải, đặc biệt gắn với kế hoạch đào thải non sản phẩm, và còn khuyến khích tình trạng tiêu dùng thái quá.

Ví dụ, đợt hạn hán mà Đài Loan đã trải qua vào năm 2021 đã bộc lộ lượng nước cần thiết để chế tạo các vi mạch điện tử. Năm đó, chính phủ đã lựa chọn giải pháp cấm tưới tiêu đất nông nghiệp, để cho ngành công nghiệp vi mạch điện tử có thể tiếp tục chế tạo và bán ra các sản phẩm thiết yếu cho nhiều ngành công nghệ kỹ thuật số. Đây là lý do vì sao cần phải có một sự xác định tập thể khi nào thì cần đến các hệ thống AI, ai đưa ra yêu cầu, để phục vụ cho ai, và theo nhu cầu và mục tiêu nào mà chúng ta phải triển khai chúng.

Trí tuệ nhân tạo gắn chặt với các thách thức quyền lực và cần có một quá trình “dân chủ hóa triệt để”, dẫn lại lời của nhà nghiên cứu Pieter Verdegem. Trong tác phẩm AI for Everyone? Critical Perspectives [AI cho mọi người? Một quan điểm phê phán], ông nhắc lại rằng mọi người trong chúng ta đều phải có thể tiếp cận AI, đại diện cho tất cả chúng ta, và mang lại lợi ích cho mọi người mà không có ngoại lệ.

AI cần phải phục vụ lợi ích chung

Elinor Ostrom (1933-2012)

Theo chúng tôi, để được xem là một công cụ, công nghệ này cần phải được quản lý như một nguồn lực chung. Như bà Elinor Ostrom, nhà chính trị học và kinh tế học người Mỹ, đã lý thuyết hóa nó, một nguồn lực chung là một nguồn lực được chia sẻ vì lợi ích chung, và các phương thức quản trị phải cho phép mọi công dân tiếp cận và tham gia, mà không cần viện đến các tiêu chí về giới tính, chủng tộc, sắc tộc, nguồn gốc văn hóa xã hội, và tổ chức xã hội dân sự.

Thử lấy ví dụ chiếc radio, vào thời đó, là một “công nghệ mới”, công nghệ này đã giúp truyền bá tiếng nói của mọi người, nhờ sự xuất hiện các đài phát thanh tự do, thường mang tính hội đoàn, đòi hỏi quyền tự do ngôn luận và đánh bại sự độc quyền của Nhà nước để dân chủ hóa phương tiện truyền thông này ở Châu Âu.

Điều này cũng tương tự đối với Internet trong giai đoạn sơ khai, đã thổi “một luồng sinh khí mới” vào lý thuyết các nguồn lực chung. Hẳn chiếc radio là một công cụ tuyên truyền và phản kháng, đồng thời nó cũng là một công cụ giải trí, nhưng mọi người đều có thể sử dụng nó để truyền tải thông điệp, để sử dụng phù hợp với lợi ích của cộng đồng mình.

Lúc đó, đài phát thanh tự do, một tổ chức tự quản, đã giúp công dân tham gia, bằng cách tạo thuận lợi cho tất cả những người liên quan đến thứ có thể được xem là một nguồn lực chung về tri thức, có thể tham gia công việc quản lý. Trí tuệ nhân tạo cũng phải như thế, mọi người cần phải có thể tiếp cận được, và nó cần bị cắt đứt khỏi logic của lợi nhuận hay logic của chuyên gia.

Thách thức rất lớn đến mức mọi người cần phải đóng góp để xác định các cách sử dụng AI. Những ai muốn tham gia phải có khả năng hiểu biết cách thức vận hành các thuật toán, nhờ vào tính minh bạch và khả năng quy trách nhiệm đối với các tổ chức sử dụng chúng. Ngoài ra, còn phải hiểu dữ liệu này hay dữ liệu kia được thu thập như thế nào và vì mục đích gì, ví dụ như kỹ thuật học sâu (“deep learning”) hoạt động như thế nào và được triển khai vì mục đích gì.

AI cần phải phục vụ lợi ích chung và nguồn lực chung.

Tác giả

Sandrine Lambert

Sandrine Lambert

Nghiên cứu của bà tập trung vào các mối quan hệ giữa dân chủ và công nghệ, và, nói một cách chính xác hơn, về những thách thức khi công dân tham gia các không gian rộng mở cho công chúng để tìm hiểu, trao đổi, sáng tạo, v.v. việc sản xuất bằng kĩ thuật số (malerspace, FabLabs, v.v.).

Công trình nghiên cứu này được thực hiện dưới sự hướng dẫn của Isabelle Henrion-Dourcy và Martin Hébert, các giáo sư về nhân học tại Đại học Laval.

Ở Barcelona, nơi bà thực hiện công trình nghiên cứu tiến sĩ của mình, bà quan tâm đến hệ sinh thái Makers, đến các mối liên hệ giữa chế tạo công nghiệp với chế tạo kỹ thuật số, các tưởng tượng kỹ thuật-xã hội, cũng như những điều không tưởng về công nghệ và đô thị.

Bà Sandrine Lambert cũng nghiên cứu các vấn đề quản trị và thách thức tham gia vào các vấn đề của trí tuệ nhân tạo, trong vai trò là trợ lý nghiên cứu cho bà Karine Gentelet, chủ nhiệm Abeona-ENS-OBVIA về công bằng xã hội và trí tuệ nhân tạo (2020-2022), và là giáo sư về khoa học xã hội tại Đại học Quebec ở Outaouais.

Bà cũng hoạt động trong vai trò là trợ lý nghiên cứu về nhiều nhiệm vụ khác liên quan đến các vấn đề công nghệ, và trong vai trò là trợ giảng về nhân học.

Karine Gentelet

Karine Gentelet

Bà Karine Gentelet là giáo sư tại Khoa khoa học xã hội, Đại học Québec ở Outaouais, và là chủ nhiệm Abeona-ENS-OBVIA về công bằng xã hội và trí tuệ nhân tạo năm 2020-2022.

Các mối quan tâm nghiên cứu và các công bố của bà tập trung vào việc sử dụng công nghệ kỹ thuật số và trí tuệ nhân tạo phục vụ công bằng xã hội, sự thừa nhận các quyền của người bản địa, đạo đức nghiên cứu trong bối cảnh bản địa và trách nhiệm xã hội của các nhà nghiên cứu.

Bà Karine Gentelet là nhà nghiên cứu tại Trung tâm nghiên cứu liên đại học và nghiên cứu bản địa (CIERA), tại Trung tâm nghiên cứu luật pháp tương lai (CRDP). Bà cũng là nhà nghiên cứu tại Tổ chức quan sát quốc tế về các tác động xã hội của trí tuệ nhân tạo và kỹ thuật số (OBVIA).

Tuyên bố công khai

Bà Sandrine Lambert có nhận học bổng tiến sĩ từ Chương trình học bổng sau đại học Joseph-Armand-Bombardier Canada - SSHRC.

Bà Karine Gentelet là thành viên của Tổ chức ân xá quốc tế Canada vùng nói tiếng Pháp. Bà có nhận tài trợ từ CRSH, FRQSC và quỹ Fondation de France.

Huỳnh Thiện Quốc Việt dịch

Nguồn: Voici pourquoi l’intelligence artificielle ne peut être considérée comme un simple outil, The Conversation, ngày 08/08/2022.

----

Bài có liên quan:

Print Friendly and PDF