28.3.20

Liệu có nên điều tiết trí tuệ nhân tạo hay không?

LIỆU CÓ NÊN ĐIỀU TIẾT TRÍ TUỆ NHÂN TẠO HAY KHÔNG?
Năm 2016 chứng kiến ​​một trong những đột phá ấn tượng nhất về công nghệ: [trong một trận đấu cờ vây] trí tuệ nhân tạo của robot AlphaGo đã đánh bại nhà đương kim vô địch thế giới, Lee SeDol [kỳ thủ cờ vây chuyên nghiệp người Hàn Quốc - ND], với tỷ số 4 : 1. Thành tích đáng nể này được ca ngợi như là một cột mốc mới trong sự phát triển trí tuệ nhân tạo trong lịch sử hơn sáu mươi năm qua. Nhưng sự háo hức đó nhanh chóng nhường chỗ cho những nghi ngờ và lo lắng: liệu một ngày nào đó robot có thay thế con người hay không? Liệu trí tuệ nhân tạo, rốt cuộc, có là một nguy cơ đối với loài người hay không? Ở một chừng mực nào đó, những lo ngại này là chính đáng. Vì thế những lời kêu gọi thắt chặt việc điều tiết sự phát triển AI [trí tuệ nhân tạo] đang gia tăng, gợi nhớ lại những cảnh báo về nghiên cứu di truyền hơn một thập kỷ trước. Tuy nhiên, về cơ bản, đó là việc thiết lập những quy định hiệu quả, nhưng không áp đặt những hạn chế quá khắt khe đối với một thực tế mà mối đe dọa, cho đến giờ, chỉ thuộc hàng ảo tưởng. Vả lại, thế lưỡng nan về chính sách điều tiết không chỉ hạn chế vào một đánh giá đơn giản về những lợi thế và bất lợi của công nghệ này. Đó là việc cần tìm hiểu rồi đưa ra [những quy định] kiềm chế các mối đe dọa tiềm tàng có thể có từ sự phát triển trí tuệ nhân tạo. Liệu mối đe dọa này có mang hình thức “thay thế con người” hay không? Nếu xác nhận được một mối đe dọa như vậy, thì lựa chọn hợp lý duy nhất sẽ là cấm nghiên cứu và phát triển [R&D] đối với công nghệ này. Tuy nhiên, liệu có công bằng hay không khi hủy diệt công nghệ này từ trong trứng nước, trong khi những lĩnh vực gai góc khác về mặt đạo đức như kỹ thuật di truyền vẫn được tiến hành? Trí tuệ nhân tạo đã xâm nhập vào đời sống chúng ta: nó đã được sử dụng trong các công cụ tìm kiếm, các mạng xã hội và các hệ thống truyền thông thông tin. Tính phổ biến của nó khiến chúng ta cần đánh giá lại những lo ngại mà nó gây nên. Ngoài những lo ngại nói trên, điều gì của trí tuệ nhân tạo là những đe dọa thực sự? Chỉ khi nào có được một câu trả lời đúng đắn cho câu hỏi nói trên thì chúng ta mới tìm ra được một sự điều tiết công bằng và hiệu quả.
Lee Sedol (1983-)
Stephen Hawking (1942-2018)
Vào tháng 10 năm 2016, Stephen Hawking đã tuyên bố rằng trí tuệ nhân tạo có thể phá hủy nền văn hóa của con người. Nó có thể là “điều tuyệt vời nhất nhưng đồng thời cũng là điều tồi tệ nhất của lịch sử nhân loại”, theo những lời được ghi nhận tại hội nghị khai mạc trung tâm Leverhulm Center for the Future of Intelligence [Trung tâm Leverhulm vì tương lai của trí tuệ] thuộc Đại học Cambridge. Đây không phải là lần đầu tiên Stephen Hawking lên tiếng cảnh báo. Ông đã bày tỏ những quan điểm tương tự trong một cuộc phỏng vấn với đài BBC, vào năm 2014. Sau đó, Hawking là người rất tích cực trong việc thiết lập những quy định cần thiết để giám sát công cuộc nghiên cứu về AI. Việc thành lập Trung tâm Leverhulme đáp ứng phần lớn nhu cầu khi đối mặt với những rủi ro của AI.
Những lo ngại gây ra bởi trí tuệ nhân tạo
Hawking không phải là người duy nhất bày tỏ sự lo ngại của mình. Elon Musk, nhà sáng lập Tesla và SpaceX đã nhiều lần cảnh báo về những nguy cơ của AI. Trong khuôn khổ Hội nghị chuyên đề kỷ niệm một trăm năm thành lập hãng hàng không AeroAstro [AeroAstro Centennial Symposium] do Học viện Công nghệ Massachusetts [MIT] tổ chức, ông tuyên bố rằng AI có thể gây ra rủi ro lớn cho sự tồn tại của con người. Hai năm sau, tại Hội nghị Global Code Conference, một lần nữa ông đã cảnh báo rằng con người có thể rơi vào ách thống trị của trí tuệ nhân tạo. Tiếp sau những cảnh báo đó, đã có 892 nhà nghiên cứu về trí tuệ nhân tạo và 1445 chuyên gia đồng ký tên và công bố 23 dự đoán của các chuyên gia về AI Asilomar [23 principes Asilomar de l’IA] để tránh mọi sự chệch hướng trong việc phát triển và ứng dụng trí tuệ nhân tạo.
Yuval Noah Harari (1976-)

Những lo ngại đó không chỉ phát sinh từ viễn cảnh chi phối của trí tuệ nhân tạo, thậm chí thay thế loài người. Những người gièm pha AI cũng tin rằng nó hủy diệt công ăn việc làm và làm trầm trọng thêm những khác biệt về tiền lương. Theo nhà sử học người Israel Yuval Noah Harari, tác giả cuốn Homo Deus: A Brief History of Tomorrow [Homo Deus: Lược sử tương lai], trí tuệ nhân tạo sẽ gây ra một loạt các vấn đề về xã hội và kinh tế, trong đó có nạn thất nghiệp đại trà, và nhấn chìm chúng ta trong một kỷ nguyên bất bình đẳng cùng cực, khi mà một nhóm nhỏ giới tinh hoa sẽ nắm giữ những “siêu quyền lực” trước một đa số người có đời sống bấp bênh.
Mark Zuckerberg (1984-)
Mặt khác, có một số người lại cho rằng các viễn cảnh nói trên là quá bi quan. Mark Zuckerberg đã so sánh trí tuệ nhân tạo với sự phát minh ngành hàng không: hai thế kỷ trước, nếu tổ tiên chúng ta lo sợ về những vụ rơi máy bay và hỏng hóc máy móc, thì ngày nay chúng ta sẽ không bao giờ biết đến máy bay. Lịch sử cho chúng ta thấy rằng tất cả những công nghệ mang tính cách mạng, cho dù thuộc ngành năng lượng hạt nhân hay kỹ thuật di truyền, đều đạt đến trình độ chín muồi bằng cách vượt qua những lo ngại và nghi ngờ được khơi dậy lúc ban đầu. Xã hội và loài người chúng ta đã không vì thế mà vội lao vào tình trạng hỗn loạn và hủy diệt! Đây là một lập luận hợp lý, cho thấy tất cả những điều tiếng xung quanh AI chỉ thuần túy là những tiếng chói tai.
Tuy nhiên, sự thật là trí tuệ nhân tạo cũng chứa đựng những rủi ro lớn và các nhà lập pháp cần phải kiểm soát sự phát triển của nó. Những quy định được cộng đồng quốc tế nhất trí thông qua, một thập kỷ trước, đã giúp kiểm soát những rủi ro gây ra bởi kỹ thuật di truyền. Sau khi Tổ chức Hợp tác và Phát triển Kinh tế [OECD] đã đặt ra khái niệm “xã hội tri thức” trong những năm 1960, thì công nghệ đã được thừa nhận như là một trong những nhân tố quan trọng nhất về khả năng cạnh tranh của quốc gia, ngang hàng với tài nguyên thiên nhiên và dân số. Các nhà hoạch định chính sách trên toàn thế giới cần xem xét một cách cẩn thận cách thức hỗ trợ sự phát triển AI. Cuộc tranh luận hiện tại không nên bàn về tính xác đáng của các quy định mà nên bàn về nội dung và phạm vi của chúng.
Elon Musk (1971-)
Các quan điểm của Hawking, Musk hay Noah chỉ vẽ nên một bức tranh về các mối đe dọa từ AI, nhưng không có cơ sở chứng minh khoa học thực thụ. Không thể tìm thấy ở đó một phân tích mang tính cân bằng. Tuy nhiên, để có được những đề xuất hữu ích cho các nhà hoạch định chính sách, trước tiên chúng ta cần phải hiểu rõ các nguyên lý, các khả năng, giá trị tiềm tàng và rủi ro của AI. Đó là mục đích của bài viết này.
Trọng tâm của các thuật toán: dữ liệu và quy tắc
AI và các thuật toán của nó, từ nay, được nhiều người biết đến kể từ khi nó nổi lên vào năm 2016: việc giới thiệu phim ảnh trên Internet tự động điều chỉnh theo sở thích của bạn; việc nhận dạng khuôn mặt tại một nhà ga xe lửa có thể tự động kiểm tra xem liệu bạn có một vé tàu hợp lệ hay không; bạn có thể yêu cầu được tư vấn y tế từ chiếc điện thoại thông minh của mình; các thông tin về di truyền của bạn được truyền đến hệ thống y tế để chuẩn bị kê đơn những loại thuốc được cá thể hóa để điều trị căn bệnh của bạn. Các công cụ tìm kiếm, các hệ thống xã hội và các phần mềm trò chuyện mà chúng ta sử dụng hàng ngày là tất cả những biểu hiện về cách thức mà AI xâm nhập vào đời sống của chúng ta. Nhưng nếu các máy tính “tiêu thụ” một lượng lớn các dữ liệu, thì chúng cũng cung cấp tất cả các loại thông tin, sản phẩm và dịch vụ thích đáng.
AI hoạt động như thế nào? Liệu các thuật toán dựa trên AI có tiếp tục phát triển và thoát khỏi sự kiểm soát của con người hay không? Hãy cùng xem xét kỹ để có thể trả lời cho những câu hỏi này.
Mục tiêu của AI là đạt được năng lực tư duy tương đương với tư duy của con người. Để làm được điều này, máy tính phải có khả năng tự học, điều này giải thích lý do vì sao, trong một số trường hợp, chúng ta đánh đồng việc học máy với trí tuệ nhân tạo. Học máy là một quá trình qua đó một máy tính, được trang bị một bộ các thuật toán và dữ liệu, đề xuất một mô hình, có bổ sung thêm những đánh giá và phân tích. Nhưng thuật toán của học máy khác với các thuật toán truyền thống. Về bản chất, thuật toán là một chuỗi các lệnh được thực hiện bởi máy tính. Các thuật toán thông thường hướng dẫn những hành động chính xác theo những điều kiện đã được xác định. Các thuật toán của học máy cho phép robot [người máy] thay đổi các quy tắc nói trên dựa trên lịch sử của các dữ liệu. Thử lấy ví dụ về hoạt động đi bộ [của con người]: lập trình viên phải xác định từng bước đi bằng một thuật toán thông thường. Bằng cách cho phép một máy tính phân tích và tìm hiểu cách thức con người đi bộ, máy tính này sẽ có thể tự nó ứng phó với mọi kịch bản không lường trước được.
Rõ ràng, ví dụ này chỉ mô tả học máy ở mức độ rất cơ bản. Chỉ bằng cách xem xét những trình tự chuyên sâu hơn, thì chúng ta mới có thể thực sự hiểu được cách thức chúng tác động đến xã hội. Với những công nghệ hiện hữu, các thuật toán của học máy có thể được phân thành 5 trường phái: theo thuyết biểu tượng, thuyết kết nối, thuyết tiến hóa, thuyết tương tự và thuyết Bayes. Mỗi trường phái dựa trên những logic và triết lý học tập khác nhau.
Những người ủng hộ trường phái biểu tượng tin rằng tất cả các thông tin đều có thể được đơn giản hóa thành những biểu tượng, điều này làm cho các trình tự học tập đơn giản như phép quy nạp dựa trên các dữ liệu và giả thuyết. Từ các dữ liệu (sự kiện) và kiến ​​thức (giả thuyết), trường phái biểu tượng lập trình máy tính theo một công thức để đưa ra những giả thuyết, xác minh những dữ liệu, đưa ra những giả thuyết mới và quy ra những quy tắc mới để đưa ra những phán đoán trong môi trường mới. Sự thành công của kỹ thuật này phụ thuộc vào tính đầy đủ của các dữ liệu và độ tin cậy của những điều kiện được xác định trước. Nói cách khác, việc không có dữ liệu hoặc những điều kiện được thiết lập trước không hợp lý, sẽ tác động đến kết quả học tập. Một ví dụ điển hình là ví dụ về “con gà tây của Russell”. Sau khi được cho ăn vào lúc 9 giờ sáng trong 10 ngày liên tục, con gà tây sẽ nghĩ rằng nó sẽ được cho ăn vào đúng giờ đó mỗi ngày. Tuy nhiên, 10 ngày là khoảng thời gian quá ngắn (dữ liệu không đầy đủ) để đi đến một kết luận như trên (đưa ra những quy tắc sau 10 ngày tích lũy dữ liệu = điều kiện được thiết lập trước không hợp lý). Và vào buổi sáng của Lễ Tạ ơn, con gà tây sẽ bị làm thịt thay vì được cho ăn.
Vấn đề đặt ra bởi dữ liệu và những điều kiện được thiết lập trước không chỉ liên quan riêng đến trường phái biểu tượng. Đây là một vấn đề chung cho tất cả các trường phái. Thuyết kết nối mô phỏng cách thức mà não bộ con người tiếp thu kiến ​​thức. Nó tự động điều chỉnh trọng lượng của mỗi nút thông qua một mạng lưới các neuron và lan truyền những thuật toán tái tạo lại khả năng học tập. Một lần nữa, hệ thống, về cơ bản, dựa trên tính đầy đủ của dữ liệu và độ tin cậy của những điều kiện được xác định trước. Thuyết tiến hóa cho rằng học máy phụ thuộc vào những tương tác và thử nghiệm trên nhiều bộ quy tắc khác nhau được định hướng bởi các mục tiêu. Vấn đề là tìm ra một bộ quy tắc phù hợp nhất với các dữ liệu của quá trình thử nghiệm: một bằng chứng khác, nếu cần thiết, về tầm quan trọng của dữ liệu và những điều kiện được xác định trước. Thuyết tương tự cũng vận hành theo cùng một logic. Nó cho rằng máy tính có thể đưa ra một quyết định hợp lý dựa trên sự tương đồng với sự phân tích những dữ liệu hiện hữu. Thật đúng khi nói rằng tính đầy đủ của các nhóm dữ liệu và việc cài đặt mặc định sự tương đồng của nhiều kịch bản khác nhau đóng vai trò then chốt trong học máy. So với bốn trường phái đã được thảo luận ở trên, thuyết Bayes có ít yêu cầu hơn về phạm vi của các nhóm dữ liệu, do lợi thế của nó xuất phát từ khả năng học hỏi và khám phá những điều bất ngờ sẽ đến trong tương lai. Các máy tính dựa trên mô thức Bayes kiểm định giả thuyết trước đó và xác minh độ tin cậy dựa trên các dữ liệu mới được nhập. Mặc dù vậy, kết quả vẫn chịu sự chi phối của dữ liệu và những quy tắc được các máy tính chọn trước. Nói cách khác, tính đầy đủ của dữ liệu và các điều kiện được xác định trước luôn là những nhân tố chi phối, ngay cả khi đó là những máy tính áp dụng cách học theo phương pháp Bayes.
Trong thực tế, mặc dù có sự khác biệt về trường phái, nhưng tất cả các loại thuật toán đều được tổ chức xung quanh ba trục: biểu thức, đánh giá và tối ưu hóa. Về lý thuyết, máy tính có khả năng tự cải thiện vô tận và gia tăng khả năng học tập, rốt cuộc là có khả năng học hỏi mọi thứ và bất cứ thứ gì. Nhưng tất cả các dữ liệu, các phương pháp và các nguyên lý được sử dụng trong đánh giá đều được con người cung cấp và xác định. Như vậy, việc thay thế vai trò của con người là điều bất khả, ngay cả khi máy tính có thể phát triển và trở nên phức tạp hơn, đến mức chúng trở nên khó hiểu đối với con người.
Việc điều tiết trí tuệ nhân tạo: những thách thức thực sự
Trong một cuộc phỏng vấn với tạp chí Wired, Barack Obama lưu ý rằng AI vẫn còn ở giai đoạn sơ khai. Do đó, việc thiết lập một sự điều tiết quá nghiêm ngặt là điều không cần thiết và không đáng mong. Ngược lại, ông bảo vệ sự cần thiết phải gia tăng các hoạt động đầu tư vào lĩnh vực R&D để trợ giúp cho sự chuyển giao giữa nghiên cứu cơ bản và nghiên cứu ứng dụng. Những nhận xét của ông phù hợp với những ý kiến ​​đang chiếm ưu thế, chỉ trích hiệu quả thấp của các quy định và tinh thần bảo thủ của các nhà điều tiết. Nếu chia sẻ hoàn toàn việc gạt bỏ sự điều tiết đó, thì ngược lại chúng tôi tin rằng sự phát triển AI cần phải tuân thủ một sự điều tiết. Trong 23 dự đoán của các chuyên gia về AI [23 Principes de l’intelligence artificielle], những nhân vật như Hawking và Musk đã kêu gọi đưa sự phát triển AI trở lại đúng hướng. Chúng tôi chia sẻ quan điểm nói trên trong bài viết này, nhưng không phải chỉ vì lý do cho rằng máy tính một ngày nào đó sẽ thay thế nhân loại.
Để trả lời câu hỏi lý do vì sao và làm thế nào để điều tiết AI, chúng ta sẽ tìm thấy một số đường hướng trong phần thứ hai của bài tiểu luận này, xung quanh nhiều khái niệm khác nhau về học máy. Các quy tắc xử lý dữ liệu có một tầm quan trọng chủ yếu trong các thuật toán. Vì thế, việc quản trị dữ liệu là trọng tâm của chính sách điều tiết AI.
Những dữ liệu mà chúng ta cung cấp cho máy tính sẽ xác định khả năng máy tính tạo ra kết quả học tập tương ứng. Thế thì những dữ liệu đó đến từ đâu và máy tính sử dụng chúng như thế nào? Việc cung cấp những dữ liệu không đầy đủ sẽ dẫn đến những sai sót trong học tập, như trong ví dụ về con gà tây của Russell. Nhưng việc thu thập rộng rãi các dữ liệu cũng làm tăng mối lo ngại về quyền riêng tư và xung đột lợi ích. Như vậy, các quy định về việc sử dụng dữ liệu là điều kiện tiên quyết để triển khai các quy định về AI. Trên cơ sở bảo vệ các quyền đối với những dữ liệu riêng tư, chúng ta nên điều tiết và khuyến khích việc chia sẻ và ứng dụng dữ liệu, để định hướng tốt hơn sự phát triển của AI.
Đồng thời chúng ta cũng cần suy nghĩ về việc ai sẽ là người tạo ra các quy tắc để tối ưu hóa máy tính và theo những quy trình nào. AI truyền tải những mối đe dọa thực sự, ngay cả khi chúng ta có xu hướng kịch tính hóa chúng một cách quá mức, xét đến giai đoạn phát triển hiện tại của nó. Bàn tay vô hình của AI đang biến đổi sâu sắc cuộc sống của chúng ta. Các quy tắc tối ưu hóa máy tính cần được pháp điển hoá và giám sát đầy đủ để tránh việc lạm dụng. Vấn đề tương tự như vấn đề đang vây quanh Facebook: làm thế nào để đảm bảo nguồn cung cấp tin tức mang tính khách quan, không có bất kỳ ưu tiên nào cho một nhóm lợi ích cụ thể? Xét đến lượng người đăng ký những bản tin được cá thể hóa ngày càng tăng, từ nay AI có khả năng gây ảnh hưởng đến một cuộc bầu cử tổng thống. Đây là lý do vì sao chúng tôi tin rằng cần phải tích hợp những khái niệm như tính minh bạch và nguồn mở trong việc triển khai các quy định về AI.
AI đã mất 60 năm để có một bước nhảy vọt trong các ứng dụng của nó, sau sự phát triển của Internet, dữ liệu lớn và học máy. Chúng ta có thể dự đoán một cách an toàn rằng AI sẽ đóng một vai trò ngày càng quan trọng hơn nữa trong tương lai. Không có lý do gì để hoảng sợ trước điều tất yếu sẽ đến của một kịch bản như vậy, nhưng chúng ta cũng cần tăng cường cảnh giác. Việc điều tiết AI và áp đặt những biện pháp phù hợp để đạt được mục tiêu nói trên phải là trọng tâm trong các nghị trình chính trị của chúng ta. Trong bài viết này, chúng tôi hy vọng trả lời được cho mối lo ngại “chung” về AI bằng một phân tích nhắm đến các chính sách điều tiết. Một phân tích chi tiết hơn về các chính sách đó nằm ngoài tầm của bài viết này. Chúng tôi có thể tham gia vào một cuộc thảo luận sâu hơn trong các bài viết sau này, nếu nhận được sự chú ý ngày càng tăng từ các nhà nghiên cứu và các chuyên gia trong lĩnh vực này.
Nhà nghiên cứu, Trường Khoa học Chính trị và Hành chính công, Đại học Điện tử và Công nghệ Trung Quốc
Nhà đồng sáng lập Komolstar
Huỳnh Thiện Quốc Việt dịch
Nguồn: Faut-il réguler l’intelligence artificielle?, Paris Innovation Review, 25 tháng 5 năm 2017
Print Friendly and PDF