17.4.18

Trí tuệ nhân tạo và Cédric Villani

TRÍ TUỆ NHÂN TẠO: CHÚNG TÔI ĐÃ HỎI CÉDRIC VILLANI, ÔNG TRÔNG THẾ GIỚI CỦA NGÀY MAI NHƯ THẾ NÀO?

Khi nhà toán học tiết lộ bản báo cáo của ông về cuộc cách mạng công nghệ này, báo HuffPost đã hỏi ông liệu tương lai có thể trông như thế nào.
Cédric Villani đã nói với báo HuffPost: “Trí tuệ nhân tạo buộc chúng ta phải hiểu được bản thân mình”
CHÍNH TRỊ – Mọi cuộc cách mạng công nghệ đều kéo theo những vấn đề xã hội sâu sắc. Và trí tuệ nhân tạo cũng không thoát khỏi quy tắc ấy.
Liệu chúng ta chấp nhận giao những gì cho một máy tính, một thuật toán có khả năng đưa ra quyết định một cách tự động, dựa trên các tham số được cung cấp cho nó? Cần ấn định những giới hạn nào cho một chương trình như thế? Nhà nước Pháp sẽ phải định vị như thế nào trước biến động này vốn có thể ảnh hưởng đến tất cả các lĩnh vực, tất cả các tầng lớp trong xã hội chúng ta?
Đó là những vấn đề mà Cédric Villani đã nghiên cứu trong 6 tháng quaHôm thứ tư 28 tháng 3 [năm 2018], nhà toán học, dân biểu thuộc Đảng LREM [Đảng Nền Cộng hòa Tiến bước] của vùng Essonne, đã tiết lộ kết quả những suy nghĩ của ông trong một báo cáo dài hơn 200 trang, bản báo cáo này sẽ được trao cho [Tổng thống Pháp] Emmanuel Macron vào ngày hôm sau.
Tổng thống sẽ nắm lấy cơ hội, nhân những ngày dành cho trí tuệ nhân tạo (AI), để trình bày chiến lược của nước Pháp nhằm thoát khỏi cảnh khó xử trong cuộc cạnh tranh toàn cầu hiện nay.
Nhưng bất luận nước nào đi đầu trong cuộc cách mạng này, AI sẽ đặt ra nhiều câu hỏi về mặt đạo đức và chất vấn hình thức xã hội mà chúng ta muốn xây dựng, tương lai mà chúng ta muốn truyền lại cho con cái chúng ta.
Nhân dịp này, báo HuffPost đã phỏng vấn Cédric Villani, người đã được trao huy chương Fields, và đã hỏi ông liệu thế giới ngày mai sẽ trông như thế nào, được mô hình hóa bởi AI. Nhưng đặc biệt là được mô hình hóa bởi con người và những lựa chọn của họ.
Stephen Hawking (1942-)
Elon Musk (1971-)
Trong báo cáo của ông, ông nói rất ít về những lo ngại của các nhà khoa học và của các doanh nhân (Stephen HawkingElon Muskvề sự tạo lập AI, có khả năng tương đương hoặc thậm chí cao cấp hơn so với con người. Vì sao, thưa ông?
Bởi vì đó là một tầm nhìn có tính khoa học viễn tưởng. Chúng ta sẽ không thảo luận vì sao, nếu một trí tuệ có khả năng cao cấp hơn được tạo ra, nó sẽ nghĩ đến việc tiêu diệt nhân loại.
Và ngay cả khi tôi ngưỡng mộ tầm nhìn kinh doanh của Elon Musk [nhà sáng lập SpaceX và đồng lập Tesla Motors và PayPal – ND] hay tầm nhìn khoa học của Stephen Hawking [nhà vật lý lý thuyết, vũ trụ học – ND], thì trên vấn đề này, tôi tin tưởng ở các chuyên gia AI hơn. Và trong số này không có người nào nghiêm túc và đáng tin có tầm cỡ quốc tế để bảo vệ một tầm nhìn như thế. Về lâu về dài, tại sao không? Nhưng chúng ta còn ở quá xa để có thể tưởng tượng ra một điều gì đó trong tương lai.
Tôi cho rằng đây không phải là chủ đề của tôi. Ở đây, chúng ta cần làm việc về những vấn đề phát sinh một cách rõ ràng, không thể phủ nhận và đòi hỏi chính phủ phải hành động nhanh chóng. Và khi càng phải tính đến những chủ đề được đề cập trong báo cáo ngay từ kế hoạch năm năm này bao nhiêu, thì chúng ta càng có thể hoãn lại suy nghĩ về dài hạn hơn cho sau này bấy nhiêu.
Việc một chiếc taxi tự hành của Uber gây tai nạn tử vong đã đặt ra câu hỏi về trách nhiệm của những chiếc xe không có người lái. Chúng ta thậm chí có thể tưởng tượng ra trong một vài năm nữa, những chiếc xe đó sẽ có các quy tắc đạo đức. Liệu có nên hy sinh một người lái xe để cứu lấy sinh mạng của hai người bộ hành không? Ông nghĩ sao về vấn đề này, thưa ông?
AARON JOSEFCZYK / REUTERS
Hiện tại, chúng ta vẫn còn xa với giai đoạn cần phải lập trình các quy tắc đạo đức đó trong thuật toán. Và thời điểm đặt ra sự lựa chọn này trong thực tế thậm chí còn xa hơn nữa.
Tôi nghĩ đây là một vấn đề hấp dẫn, nhưng sẽ chỉ liên quan đến một phần rất nhỏ của các tình huống.
Hiển nhiên là vấn đề khiến chúng ta xem xét lại các nan đề đạo đức liên quan đến tất cả chúng ta, bởi vì vấn đề thực sự không phải là thuật toán, mà là sự lựa chọn của chúng ta. Vấn đề đã tồn tại từ lâu trong triết học, có trước xa các chiếc xe tự hành.
Trong phiên bản đầu tiên, vấn đề liên quan đến hoàn cảnh của vị thẩm phán, người thấy mình phải đối mặt với một tội ác đe dọa gây ra bạo loạn cho cả thành phố. Ông ấy có sự lựa chọn giữa việc tìm ra một người giơ đầu chịu báng, người sẽ phải hy sinh, hoặc thừa nhận không hình dung ra ai đã phạm tội và để cho một bộ phận người dân bị ném đá trong một cuộc bạo loạn. Chúng ta cần làm gì?
Đây là một vấn đề gây bối rối. Điều hấp dẫn với AI là nó buộc chúng ta phải hiểu được bản thân mình. Ở đây là hiểu rõ hơn những gì chúng ta muốn, trong trường hợp khác là hiểu rõ hơn các tổ chức của chúng ta. Chúng ta muốn làm việc như thế nào, dự án của chúng ta là gì? Chúng ta muốn làm điều gì với công nghệ?
Cũng vấn đề ấy đặt ra trong thực tế là các thuật toán có thể tái tạo những thiên lệch​​của chính chúng ta mà chúng ta không hề biết, với việc sử dụng các dữ liệu của chúng ta. Làm thế nào để tránh điều này, thưa ông?
Điều này không hề dễ, chúng ta có thể không ý thức được việc chúng ta có thiên lệch. Ví dụ, trong giáo dục, người ta phát hiện ra rằng, về mặt thống kê, giáo viên dành nhiều thời gian hơn để chăm sóc nam sinh hơn nữ sinh.
Ở đó, có một sự thiên lệch mà chúng ta không ý thức. Và nếu chúng ta không phát hiện ra điều đó, thì chúng ta sẽ sản sinh ra những giáo viên tự động dành nhiều thời gian cho các bé trai hơn là cho các bé gái và sẽ góp phần duy trì những sự thiên lệch giống vậy.
Bao giờ cũng sẽ là một người đánh giá một người khác. Không phải vì điều đó công bằng hơn. Mà bởi vì đó là một vấn đề nguyên tắc.
Chúng ta cần một hoạt động nghiên cứu tích cực, phát hiện sự thiên lệch, dọn dẹp nó. Điều đó có nghĩa là phải thông qua một hiểu biết tốt hơn về chính chúng ta. Với suy nghĩ đó, chúng ta phải cố gắng xóa bỏ thiên lệch, khách quan hóa các thuật toán. Một số người nghĩ rằng chúng ta sẽ thành công do điều này liên quan đến việc ra những quyết định đúng hơn.
Và chúng ta sẽ không tránh khỏi thêm vào yêu cầu về tính khách quan những vấn đề đạo đức và đạo lý. Nhưng tôi nghĩ rằng bao giờ cũng sẽ là một người đánh giá một người khác. Không phải vì điều đó công bằng hơn. Mà bởi vì đó là một vấn đề nguyên tắc.
Trong những tháng gần đây, đã có nhiều thuật toán cho thấy khả năng bắt chước giọng nói của một nhân vật, làm động đậy cái miệng của họ trên một video để rồi dán vào một lời nói trong thời gian thực, thậm chí đặt cái đầu của một người lên cơ thể của một người khác một cách rất dễ dàng. Liệu có không một nguy cơ thấy được, trong thời gian rất nhanh, những tin giả phát triển ở một mức độ hoàn toàn khác, thưa ông?
Tôi tin chắc rằng trong một vài năm nữa, chúng ta sẽ có thể tạo ra một sự bắt chước rất đẹp, người ta sẽ thấy chính bạn đang đọc một bài diễn văn tuyệt vời, thốt ra những lời xúc phạm, diễn xuất trong một bộ phim khiêu dâm, bất cứ thứ gì người ta muốn. Và sẽ ngày càng khó hơn để phân biệt cái giả với cái thật.
Chúng ta chắc chắn sẽ giữ lại kho vũ khí luật pháp, trong đó luật mới về tin giả sẽ sớm được thảo luận, mà vẫn tôn trọng quyền tự do ngôn luận.
Chúng ta cũng phải làm quen với việc ít tin hơn vào các tài liệu. Chúng ta có thể tưởng tượng ra những trang web xác minh sẽ ngày càng có vai trò quan trọng hơn. Thậm chí sẽ có các công ty chuyên lo xác minh thông tin, tài liệu và vân vân.
Yêu cầu giáo dục để đối phó với những hiện tượng như vậy sẽ ngày càng quan trọng hơn.
Đúng vậy, báo cáo khẳng định cần phải giáo dục và đào tạo nhiều hơn về AI trong môi trường học đường. Nhưng liệu AI có thể giúp chúng ta dạy, hay thậm chí học một cách khác biệt không?
Liệu AI có thể giúp gì trong giáo dục không? Câu trả lời là có, và chúng tôi có cả một phụ lục về vấn đề này. Ngược lại, vấn đề rất mơ hồ. Đây là một trong những lĩnh vực mà chúng ta gặp khó khăn nhiều nhất khi triển khai AI. Có rất nhiều dự án, nhưng công tác đánh giá lại rất ít.
Hiện tại, việc thử nghiệm những công nghệ này đã dẫn đến sự suy thoái về chất lượng [giáo dục] hơn là sự gia tăng chất lượng. Bởi vì giáo dục là một ngành mang tính đa nhân tố cực kỳ. Chừng nào chúng ta chưa hiểu nó thực sự xảy ra như thế nào, thì thật khó để tái tạo nó với AI. Đây là một chủ đề thực sự.
Chúng tôi chủ yếu khuyến nghị phát triển những chiếc cầu nối giữa các thế giới ít trao đổi với nhau hoặc khi có thì lại cảnh giác nhau. Một bên là thế giới giáo dục, và bên kia là thế giới “công nghệ”. Mỗi bên đều có những ý tưởng sáo rỗng cũ mèm. Chúng ta cần có những đối tác lâu dài, mà nếu không có họ thì sẽ không phát triển được các công cụ.
Liệu một số nghề có biến mất trong 10 năm tới vì AI không, thưa ông?
Điều này không rõ. Nó phụ thuộc vào tiềm năng tự động hóa nghề nghiệp. Người ta nói đến nghề thủ quỹ. Đã có những cuộc thử nghiệm, như Amazon, công ty mới giới thiệu cửa hàng không có nhân viên phục vụ của họ.
Nhưng cũng có nhiều nghề phức tạp hơn so với vẻ bên ngoài. Có một nghiên cứu France Stratégie [Chiến lược Phápsắp được công bố, tôi sẽ bình luận với bạn qua một ví dụ: nhân viên giao hàng.
Ai đó có thể nói với ông rằng, “người lái xe đi giao hàng sẽ không còn lý do để tồn tại khi có chiếc xe tự hành”. Nhưng việc giao hàng không chỉ là việc lái xe từ điểm A đến điểm B. Công việc đó còn là việc bắt đầu chuẩn bị gói hàng tại điểm A, kiểm tra xem nó đã được chuẩn bị theo các hướng dẫn hay chưa. Khi đến điểm B, công việc đó là phải thích nghi với môi trường địa phương, tìm ra mã kỹ thuật số, trò chuyện với khách hàng, kiểm tra sự hài lòng [của khách hàng], viết báo cáo, tương tác...
Vì vậy, rất có thể việc giao hàng sẽ được biến đổi mà không bị loại bỏ. Tôi không nói rằng công việc đó sẽ duy trì số lượng nhân viên giao hàng hiện tại, mà nói rằng đó không nhất thiết là một nghề sẽ biến mất.
Một nghề thường có rất nhiều công việc. Và có một số công việc có thể được tự động hóa, một số công việc khác thì không. Người tinh quái là người có thể dự đoán được điều gì sẽ xảy ra.
Trong báo cáo, ông có đề cập đến ý tưởng thử nghiệm thu nhập phổ quát để khắc phục vấn đề tự động hóa. Cá nhân ông có nghĩ rằng có thể phát triển hệ thống đó trong những năm sắp tới không, thưa ông?
Một ngày nào đó, tại sao không. Tôi sẵn sàng đặt cược vào vấn đề này. Không hẳn dưới hình thức thu nhập phổ quát, nhưng dưới hình thức tín dụng với mức thuế âm cho những người có thu nhập thấp nhất. Nhưng không phải ngay bây giờ.
Còn phải tính đến bối cảnh cạnh tranh kinh tế. Và thực tế đòi hỏi phải có một cuộc tranh luận rộng lớn hơn của xã hội về vấn đề tổ chức, cách thức để phân phối không chỉ tiền, mà còn vấn đề làm tăng giá trị.
Ngày mai, sự đoàn kết sẽ ngày càng dựa vào sự chia sẻ thông tin.
Một nghề, đó là một cách để kiếm tiền, để cảm thấy hữu ích, để hội nhập với xã hội. Thu nhập phổ quát chỉ đề cập đến việc phân phối lại tiền, nó không cho bạn biết liệu người ta có cảm thấy tự hào về bản thân họ không, nó cũng không cho bạn biết cách mà người ta sẽ cùng làm việc với nhau trong các dự án.
Bạn sẽ nói với tôi rằng chính đó là vai trò, ví dụ, của việc làm tình nguyện, của các hội đoàn. Tất nhiên, cũng có thể. Nhưng điều đó có nghĩa là một sự chuyển đổi toàn bộ các trao đổi về tổ chức của xã hội. Và chúng ta không thể nhảy vào đó như thế.
Báo cáo đề cập nhiều lần đến khái niệm nguồn lực chungchia sẻ dữ liệu, các thuật toán mở. Một thế giới cởi mở hơn sẽ trông ra sao nếu mọi thứ đều diễn theo cách ông muốn, thưa ông?
Thế giới mà chúng ta cần là một thế giới mà trong đó, giữa các tác nhân tin tưởng nhau, các dòng chảy dữ liệu được lưu thông dễ dàng hơn. Và là một thế giới mà chúng ta có niềm tự hào được đóng góp, trên cương vị chuyên môn, với tư cách cá nhân, vào việc sử dụng chung những thông tin có ích cho mọi người.
Trong một thời gian dài, và ngay đến tận hôm nay, sự đoàn kết vẫn dựa vào sự chia sẻ rủi ro, chia sẻ cái không biết. Thông qua các cơ chế bảo hiểm, tương hỗ, v.v.. Ngày mai, và ngày càng nhiều hơn, sự đoàn kết cũng sẽ dựa vào sự chia sẻ thông tin. Và việc chia sẻ dữ liệu của mình cho người khác, đó sẽ là một cách để thể hiện với những người mà mình tin tưởng, những người mà chúng ta tin cậy.
Và ở đây cũng vậy, điều quan trọng là việc thiết lập các thể chế, một khung pháp lý. Nó mang tính bảo vệ rất cao, và khi nhìn vào những gì đang xảy ra ở các nước khác, chúng ta tự hào có một pháp luật có tính bảo vệ. Đó cũng là cách mở đường cho sự tin tưởng và sự chia sẻ.

Giới thiệu tác giả

Gregory Rozieresnhà báo về khoa học và công nghệ, phụ trách mục C'est Demain
Huỳnh Thiện Quốc Việt dịch

CÉDRIC VILLANI PHÂN TÍCH NHỮNG HUYỄN TƯỞNG LIÊN QUAN ĐẾN TRÍ TUỆ NHÂN TẠO VÀ VẠCH TRẦN NHỮNG VẤN ĐỀ CÓ THẬT CHE GIẤU ĐẰNG SAU

Nguy cơ chính không phải là việc công nghệ này hủy hoại nhân loại. Mà đúng hơn là nó bị lạm dụng và làm trầm trọng thêm những sai sót của chính chúng ta.
CAROLCO PICTURES

Cédric Villani phân tích những huyễn tưởng liên quan đến trí tuệ nhân tạo và vạch trần những vấn đề có thật che giấu đằng sau
CHÍNH TRỊ – “Terminator”, “Matrix”. . . bấy nhiêu tên phim hiện lên mà không cần phải suy nghĩ khi nghĩ đến những nguy hiểm của trí tuệ nhân tạo (IA). Phải nói rằng ý tưởng về một cỗ máy cao cấp hơn con người, có ý thức hẵn hoi, có thể gây lạnh xương sống. Đặc biệt khi những nhân vật như Stephen Hawking [nhà vật lý lý thuyết, vũ trụ học – ND] hoặc Elon Musk [nhà sáng lập SpaceX và đồng lập Tesla Motors và PayPal – ND] cũng tỏ ra rất lo ngại về điều đó.
Nhưng đó không phải là điều mà Cédric Villani, dân biểu tỉnh Essonne lo sợ. Trong báo cáo của ông về chủ đề này, được gửi cho [tổng thống Pháp] Emmanuel Macron vào ngày 29 tháng 3, nhà toán học tập trung vào những vấn đề kinh khủng nhưng tinh tế hơn. Ngài tổng thống cũng nhất trí với ông. Trong diễn văn của ông về AI, hôm thứ Năm, 29 Tháng 3, tổng thống đã nhắc lại nguồn gốc của công nghệ này là con người.
Tập trung vào thực tế và hiện tại là điều khá hợp lý. Bởi vì chúng ta không thể nói rằng Cédric Villani không ngưỡng mộ Stephen Hawking và Elon Musk. Đơn giản là ông “tin vào các chuyên gia về chủ đề [AI], và trong số này không có người nào nghiêm túc và đáng tin cậy để bảo vệ một tầm nhìn như thế”, Cédric Villani đã nói với báo HuffPost.
Tính kì dị và chủ nghĩa siêu nhân học, một chủ nghĩa huyền bí
Ray Kurzweil (1948-)
Còn có ý tưởng về “tính kì dị”, được xây dựng hơn chút, đôi khi được gợi lên để tưởng tượng ra một AI vượt trội hơn con người và thay đổi xã hội mãi mãi, về điều tốt cũng như điều xấu. Những người ủng hộ ý tưởng này đôi khi là những chuyên gia thực sự, như Ray Kurzweil, người đang làm về trí tuệ nhân tạo tại Google.
Ray Kurzweil tin rằng trong vài thập kỷ tới, khả năng tính toán của các máy tính và những cải tiến trong lĩnh vực này sẽ cho phép phát triển một chương trình để một cỗ máy có vẻ hành động như một con người. Điều mà người ta gọi là thử nghiệm của Turing. Từ đó, Kurzweil tin rằng sự tiến hóa của tin học, đã từng tiến nhanh như chớp, theo luật số mũ, cũng sẽ tiến nhanh như vậy. Rất nhanh, máy móc sẽ vượt qua con người, vĩnh viễn thay đổi con người.
Đối với Kurzweil, một người theo chủ nghĩa siêu nhân học, đó là một phước lành. Con người sẽ tiến hóa theo một điều gì đó khác, chính nhờ vào sự tiến bộ của AI. Mặc dù vậy, Cédric Villani nói: “Những người như Kurzweil rất đáng tin cậy trong cách tiếp cận của họ, bởi vì họ đã làm việc trong chính lĩnh vực công nghệ. Nhưng các lập luận trong cách nhìn dường như chưa được thuyết phục lắm.
Jean-Gabriel Ganascia (1955-)
Đối với Cédric Villani, người được trao giải thưởng Fields, diễn ngôn trên “nhuộm màu sắc chủ nghĩa huyền bí. Đó không phải là chủ đề của tôi”. Đây cũng là quan điểm của Jean-Gabriel Ganascia, nhà nghiên cứu chuyên về AI tại CNRS [Trung tâm Nghiên cứu Khoa học Quốc gia của Pháp], tác giả cuốn “Le mythe de la singularité [Huyền thoại về tính kì dị]” vào năm 2017.
Trong cuốn sách đó, tác giả đã cố gắng giải thích diễn ngôn về tính kì dị thuộc lĩnh vực tiểu thuyết viễn tưởng, hư cấu, nhiều hơn là về mặt triển vọng khoa học. Đặc biệt bởi vì hiện nay AI cần được giám sát, cần được đóng khung, và hoạt động theo một cách cụ thể, trên những chủ đề được xác định rõ ràng. Để một cỗ máy ngang bằng với con người trong tất cả các lĩnh vực, thì cần phải có những cuộc cách mạng công nghệ mà chúng ta thậm chí chưa tưởng tượng ra được.
Nhân một cuộc hội thảo, Jean-Gabriel Ganascia tin rằng nếu huyền thoại về tính kì dị này được phổ biến khá rộng rãi, đặc biệt bởi “các công ty đại gia của Internet”, có lẽ là vì họ muốn kể cho chúng ta “một câu chuyện làm chúng ta sợ và che giấu những hiểm nguy có thực.

Những chiếc hộp đen cần mổ xẻ


Những gì mà Cédric Villani muốn nói trong bản báo cáo chính là những thách thức mà các thuật toán đặt ra hằng ngày, “tác động đến việc tiếp cận thông tin, văn hoá, việc làm hoặc tín dụng của chúng ta”, chúng ta có thể đọc được điều đó trong báo cáo.
Một điểm được [tổng thống Pháp] Emmanuel Macron đưa vào trong bài phát biểu của ông. Tổng thống đã tuyên bố: “Một AI không gì khác hơn là một dự án mà nó phục vụ, theo những điều kiện của người đã lập trình cho nó, dựa trên những dữ liệu được cung cấp cho nó.
Nhưng thế thì đâu là những bức tường thực mà chúng ta có nguy cơ đâm đầu vào với AI? Điều kỳ lạ là những bức tường đó liên quan rất nhiều đến bản thân chúng ta. Cách mà chúng ta chấp nhận để bị mù loà và bị chỉ dẫn, hoặc thậm chí những thiên kiến ​​của chính chúng ta, những lệch hướng của chính chúng ta.
Trước hết, một trong những vấn đề chính của AI ngày nay là việc ngay cả những người sáng tạo ra nó cũng không hiểu hết mọi thứ đang diễn ra bên trong. Trái ngược với một phần mềm cổ điển, các thuật toán gần đây được thiết kế để bản thân chúng “tự học”.
Ví dụ: người ta cung cấp cho một AI chuyên dụng về chủ đề này hàng triệu bức ảnh động vật, nêu rõ những gì AI nhìn thấy mỗi lần. Sau đó AI sẽ có khả năng, khi nhìn thấy một bức ảnh mới, biết được có một con mèo trên bức ảnh đó. Nhưng quá trình chính xác thì khá mơ hồ. Đó là cái mà người ta gọi là “hộp đen” của trí tuệ nhân tạo.
Trong báo cáo của mình, Cédric Villani tin rằng cần phải hiểu được những gì đang xảy ra trong các thuật toán này. Đầu tiên bằng cách thử nghiệm chúng với các dữ liệu gốc mà chúng ta đã biết được vấn đề. Để làm được điều đó, theo báo cáo, cần phải phải tạo ra những chuyên gia phụ trách về các cuộc kiểm tra này.
Nhưng đồng thời cũng cần phải nghĩ đến cách mà ta có thể giải thích hành vi của AI. Với những “mô hình có khả năng giải thích nhiều hơn”, những “giao diện người dùng dễ hiểu hơn và sự hiểu biết về các cơ chế đang vận hành”.

Phản ánh của những thói tật của chính chúng ta


Một vấn đề lớn khác là vấn đề hàng tỷ dữ liệu được tạo nên trên khắp thế giới, chất nhiên liệu cần thiết để cỗ máy mới này hoạt động. Một cuộc đấu tranh quốc tế thật sự, Cédric Villani giải thích với báo HuffPost, “trong đó vấn đề là quyết định ai có quyền xem cái gì. Chúng ta đã thấy điều đó trong bản tin thời sự, cách đây vài hôm, với vụ bê bối Cambridge Analytica và Facebook”.
Còn có một tật nhỏ khác, với việc sử dụng tất cả những dữ liệu này. Liên quan đến sự thiếu hiểu biết về hoạt động của AI. Khả năng mà một cỗ máy lặp lại sai lầm, những thành kiến ​​ca xã hi.
Cédric Villani giải thích: “Ví dụ, người ta phát hiện ra rằng trong giáo dục, về mặt thống kê, giáo viên dành nhiều thời gian để chăm sóc bé trai hơn bé gái. Nguy cơ ở đây là nếu chúng ta không thấy được những thành kiến ​​này và không hiểu được cách thức các thuật toán sử dụng những dữ liệu đó, thì chúng ta sẽ tạo ra một vòng luẩn quẩn làm trầm trọng thêm những tật nhỏ có tính người của chính chúng ta.

Một “IPCC [GIEC, tiếng Pháp, và IPCC, tiếng Anh – Tổ chức liên chính phủ về biến đổi khí hậu]” của AI


Nếu những thiên lệch ​​này có vẻ vô hại khi nhận diện hình ảnh con mèo hoặc sự tổng hợp diễn ngôn, thì chúng làm cho chúng ta lo ngại nhiều hơn khi chúng liên quan đến vấn đề giáo dục, hoặc sự tiếp cận với tín dụng. Và nếu nói về những chiếc ô tô tự hành, những hệ thống dự báo (tiềm năng gây án – ND) của cảnh sát hoặc những vũ khí tự hành hợp pháp, thì chúng ta có thể thấy rõ mức độ nghiêm trọng của rủi ro chuốc lấy.
Để đối phó với những thách thức này, báo cáo khuyến khích phát triển việc đánh giá các AI, quản lý tốt hơn các dữ liệu, cả dữ liệu công lẫn dữ liệu tư, và kiểm tra tiềm năng phân biệt của nhiều thuật toán khác nhau.
Nhưng làm thế nào để đóng khung những lệch hướng tiềm tàng đó, như trường hợp của các vũ khí tự hành? Nhà toán học trả lời: Thành thật mà nói, chúng ta không biết”. Đối với ông, điều thiết yếu không phải là tìm ra câu trả lời ngay bây giờ, mà là “thiết lập những định chế có thể điều tiết các quy tắc khi đến lúc.”
Để giám sát tất cả điều này, Cédric Villani đề xuất thành lập một “ủy ban đạo đức về trí tuệ nhân tạo” và một “tổ chức quan sát việc không phổ biến vũ khí tự hành”. Mục đích của việc này là xem xét kỹ lưỡng những phát triển, tiến bộ trong công nghệ và việc sử dụng công nghệ đó.
Đó không phải là một ý ​​tồi, khi nhìn vào Ủy ban Cố vấn Đạo đức về Khoa học Đời sống và Y tế, được thành lập vào năm 1983, mà ngày nay vẫn đặt ra câu hỏi về một công nghệ khác có tiềm năng cách mạng, sự biến đổi di truyền của sinh vật.
Tổng thống Emmanuel Macron đã không phê chuẩn Ủy ban quốc gia này, nhưng đã hình dung một cái gì đó mang tính toàn diện hơn và đã gợi ý thành lập một tổ chức “IPCC của AI”, theo mô hình nhóm các nhà khoa học phụ trách về biến đổi khí hậu. Mục đích của tổ chức này theo mong muốn của tổng thống là gì? Đề xuất “ý kiến của giới chuyên môn mang tính toàn cầu và độc lập, có khả năng tổ chức cuộc tranh luận dân chủ một cách độc lập”. “Một đảm bảo rằng các nền dân chủ của chúng ta sẽ không rơi vào một hội chứng theo kiểu của Orwell [kiểm soát và nô dịch người dân – ND], khi công nghệ trở thành một hình thức định chế kiểm soát”.

Giới thiệu tác giả


Gregory Rozieresnhà báo về khoa học và công nghệ, phụ trách mục C'est Demain
Huỳnh Thiện Quốc Việt dịch

Print Friendly and PDF