6.6.18

Có nên sợ trí tuệ nhân tạo?

CÓ NÊN SỢ TRÍ TUỆ NHÂN TẠO?

Gần đây, nhà vật lí nổi tiếng người Anh Stephen Hawking lo sợ rằng việc phát triển một trí tuệ hoàn toàn nhân tạo có nguy cơ dẫn đến sự diệt vong của nhân loại. Những người khác có một nhận định tích cực hơn, như kĩ sư Raymond Kurzweil, ông tin rằng có thể sớm tải ý thức con người lên máy tính. Sự rạn nứt nghiêm trọng làm biến đổi nhân loại này được nhà nghiên cứu Jean-Gabriel gọi là “Điểm kì dị của công nghệ” (Singularité technologique/Technological singularity)[*] và bác bỏ nó trong cuốn sách Le Mythe de la Singularité (Seuil, 2017) [Huyền thoại về điểm kì dị]. Theo ông, nếu có lo ngại về trí tuệ nhân tạo thì đó không phải là do những mối nguy hiểm mà - được giả định nhưng không có chứng cứ - trí tuệ nhân tạo sẽ gây ra cho nhân loại, mà đúng hơn là do các ứng dụng hiện tại của nó trong xã hội của chúng ta.

Paris Innovation Review – Trong cuốn sách có tựa đề Le Mythe de la Singularité, ông nêu rõ sự khác biệt giữa trí tuệ nhân tạo với tư cách là một lĩnh vực khoa học và trí tuệ nhân tạo mạnh đặt nền tảng cho những người bênh vực khái niệm “điểm kì dị của công nghệ”. Sự khác biệt này đóng vai trò quan trọng như thế nào?


Jean-Gabriel Ganascia – thuật ngữ trí tuệ nhân tạo được giới thiệu vào năm 1955 bởi các nhà khoa học muốn sử dụng những thứ máy móc hết sức đáng kinh ngạc vào thời điểm đó như máy tính chẳng hạn, máy tính điện tử đầu tiên được phát minh vào năm 1946 - với mục đích hiểu trí thông minh của con người. Vấn đề là phân tích trí tuệ con người thành những quá trình cơ bản và mô phỏng mỗi quá trình đó trên một cỗ máy.
Do đó, phạm vi của bộ môn này là mô phỏng tất cả các chức năng nhận thức với hai mục đích: hiểu rõ hơn về trí thông minh và sử dụng các khả năng mô phỏng này trên máy tính cho những ứng dụng thực tiễn (như nhận diện khuôn mặt, nhận diện hình dạng chung, đọc hiểu ngôn ngữ, tự động chứng minh các định lí, mô phỏng lí luận, v.v..). Bộ môn khoa học này không nhằm tái tạo một thực thể thông minh nào.
Ngược lại, trí tuệ nhân tạo mạnh là một cách tiếp cận mang tính triết học nhằm hình dung việc chế tạo một thực thể được hình thành từ trí thông minh. Điều này gợi lại một ý niệm xa xưa trong trí tưởng tượng con người, rằng ta có thể dùng khoa học để sản sinh ra một giống loài tương tự. Hoặc giống loài đó sẽ tương trợ cho chúng ta thì đó là điều tích cựchoặc giống loài đó sẽ thế chỗ của chúng ta thì đó là điều tiêu cực.
Như vậy trí tuệ nhân tạo mạnh không có bất kì cơ sở khoa học nào?
Đó là điều mà tôi đang bảo vệ. Các luận chứng đưa ra nhằm biện minh cho trí tuệ nhân tạo mạnh được nuôi dưỡng bằng khoa học viễn tưởng và có tính đánh lừa.
Những người bảo vệ khái niệm điểm kì dị của công nghệ dựa vào định luật Moore mà thời hạn hiệu lực của nó còn đang là nghi vấn, và dựa trên một hình dạng đường hyperbol của lĩnh vực học máy vốn không tồn tại. Họ cho rằng việc học này sẽ làm cho máy móc thành độc lập, không chỉ về mặt công nghệ mà còn về mặt triết học. Có nghĩa là, máy móc sẽ có khả năng lựa chọn mục tiêu theo lợi ích riêng của nó. Do đó họ chủ trương rằng tự chủ về mặt công nghệ sẽ dẫn đến tự trị về mặt triết học và rô bốt sẽ có ngày có được một ý chí riêng, tách rời khỏi ý chí của chúng ta. Tôi là một nhà khoa học và do đó tôi không thể nói rằng đó là điều không thể. Nhưng diễn tiến của các kĩ thuật hiện nay không cho phép chúng ta tưởng tượng theo hướng phát triển này.
Ta có đôi khi đánh đồng trí thông minh và ý thức hay không?
Chắc chắn rồi. Ý thức là một khái niệm phức tạp, có thể được xem xét ít nhất trong ba khía cạnh. Thứ nhất, một người có ý thức là một người có ý hướng. Có những loại máy mà chúng ta gán cho nó một kiểu ý hướng thông qua một số dự phóng. Đây gọi là các hệ thống có ý hướng. Chúng được sử dụng trong trí tuệ nhân tạo cho các giao diện máy: những nhà sáng tạo cố gắng không phải trang bị những cảm xúc nhưng là trang bị những đặc điểm bề ngoài làm cho hành vi của chúng bắt chước hành vi của một thực thể bị những cảm xúc này chi phối. Chúng ta gọi đó là máy tính có cảm xúc (l’affective computing/affective computing).
Thứ hai, một người có ý thức thì có khả năng tự nhận thức, tự hình dung trong lúc hành động. Chúng ta có thể tạo ra máy móc có khả năng suy nghĩ không? Điều này không dễ nhưng hoàn toàn có thể làm được. Một số máy móc có thể tự nhận diện lỗi và tự sửa sai.
Thứ ba, [một người có] ý ​​thức có nghĩa là [có khả năng] cảm nhận đau khổ, có cảm giác khi viết, v.v... Rất khó để mô phỏng những năng lực này. Đây là chủ đề thú vị trong các khoa học nhận thức nhưng nó vẫn còn là bí ẩn. Rõ ràng là ý thức liên quan mật thiết đến cuộc sống và nhu cầu của con người. Và không phải gia tăng khả năng tính toán của những bộ vi xử lí sẽ giúp ta tiến xa hơn trong việc nghiên cứu dạng ý thức này.
Ông bác bỏ giả thuyết cho rằng định luật Moore sẽ duy trì [tính hiệu lực] vô hạn định. Tại sao ông lại nghĩ rằng nó sẽ mất đi tính hiệu lực?
Định luật Moore là một định luật quan sát, theo đó, khả năng tính toán và khả năng lưu trữ thông tin của máy móc sẽ tăng lên gấp đôi sau một chu kì đều đặn, cứ hai năm hoặc mười tám tháng một lần.
Đây là một định luật được quan sát từ năm 1959 và được kĩ sư Gordon Moore, một trong những nhà đồng sáng lập Intel, đưa ra vào năm 1964. Nó liên quan đến việc thu nhỏ lại, cho phép tăng gấp đôi số lượng linh kiện điện tử sau những khoảng thời gian đều nhau. Những người ủng hộ điểm kì dị thường viện dẫn định luật này mà bỏ qua thực tế rằng trong thế giới vật chất thì không có gì là vô hạn cả. Hiện tại, các bộ vi xử lí đang được thiết kế với công nghệ silic. Kích thước linh kiện đang tiếp tục giảm nhưng đến một thời điểm nào đó, chúng ta sẽ chạm đến kích thước nhỏ nhất của một phân tử silic! Người ta gọi đó là bức tường silic. Tất nhiên, có thể tưởng tượng ra việc sử dụng những vật liệu khác cho phép tiếp tục cải thiện tốc độ xử lí máy tính, nhưng hiện tại chúng ta chưa làm được việc này. Một số người khác đề cập đến máy tính lượng tử nhưng nó không thể sớm có mặt trên bàn làm việc của chúng ta. Trong tình hình hiện nay, không gì bảo đảm rằng định luật Moore sẽ đứng vững trong vòng 10 – 15 năm tới. Vào năm 2016, chúng ta đã chứng kiến sự suy giảm tỉ lệ tăng trưởng của tốc độ xử lí.
Ông hãy chỉ ra các giới hạn của các kĩ thuật học máy mà một ngày nào đó sẽ đưa máy móc vượt xa nhân loại như theo quan điểm của những người ủng hộ điểm kì dị...
Các kĩ thuật học máy có hai hạn chế. Một mặt, chúng chỉ vận hành được khi có lượng mẫu lớn, và mẫu này phải được chú thích. Đây quả là một cái giá quá tốn kém để có giáo sư dạy chúng! Ví dụ: trước khi máy có thể nhận dạng một khuôn mặt trên một tấm ảnh, nó phải được cập nhật hình ảnh của hàng triệu khuôn mặt và phải được chỉ rõ thông tin về cá nhân đó. Hạn chế thứ hai là máy không có khả năng tự học các ý niệm và khái niệm mới nhằm tái cấu trúc toàn bộ kiến thức để từ đó định hình thế giới quan của nó. Đây là cách mà tri thức con người tiến hóa, nhờ vào những sự đột phá trong từng giai đoạn của các cuộc cách mạng khoa học. Nhưng hiện tại, máy không thể làm được như vậy.
Không có nghĩa là chúng ta phủ nhận vô số thành quả của trí tuệ nhân tạo gắn liền với loại hình xã hội mà chúng ta đang sống. Với việc sử dụng mạng Internet, tất cả tương tác của chúng ta đều được số hóa. Mặt khác, có những cảm biến cho phép số hóa hàng loạt các quan sát. Toàn bộ nền kinh tế đương đại đều dựa trên sự khai thác dữ liệu khổng lồ được sinh ra như vậy. Điều này tạo ra sự phát triển của hệ thống tiên lượng, nhằm đưa ra các quyết định, song không phải là không có các tác dụng phụ nguy hại.
Vậy làm thế nào quản lí trí tuệ nhân tạo đang hiện diện khắp nơi trong đời sống thường nhật?
Có hai quy tắc đạo đức mà tôi thấy cần thiết hiện nay. Thứ nhất, đó là vấn đề trách nhiệm. Một thiết bị tự chủ về mặt công nghệ là thiết bị đưa ra các quyết định mà không có sự can thiệp của con người, và học từ một lượng lớn dữ liệu, thiết bị đó sẽ có thể trở nên không dự đoán được phần nào đó. Nghị viện châu Âu đã thông qua một nghị quyết về tính chất pháp nhân của rô bốt, nhưng theo tôi, nó không giải quyết được vấn đề gì. Nghị quyết này có thể cho phép bồi thường các nạn nhân nhưng chỉ áp dụng cho các vụ tranh chấp dân sự và trên hết, nó đưa đến việc tiết kiệm kinh phí điều tra. Nếu xảy ra tai nạn, điều quan trọng là phải hiểu nguyên nhân để cải tiến máy móc và ngăn không cho điều này lặp lại. Ngoài ra, cần phải có khả năng hạn chế các hành vi của những hệ thống này để đảm bảo rằng chúng không làm bất cứ điều gì vượt quá một số lời răn nhất định. Vì vậy, cần phải đưa những giá trị đạo đức của con người vào việc việc lập trình các thiết bị này.
Tiếp nữa là vấn đề đặt ra từ việc sử dụng ồ ạt và quá đáng những hệ thống dự báo trong xã hội. Liên quan tới vấn đề này, tôi xin giới thiệu cuốn sách của Cathy O'Neil xuất bản năm 2016, Weapons of Math Destruction [Các Vũ khí của sự Hủy diệt Toán học].
Tác giả chỉ ra rằng tất cả các kĩ thuật học tự động này, bên cạnh những mặt rất tích cực, còn có những tác động cực kì nguy hiểm nếu bị sử dụng sai. Cuốn sách còn cho thấy mức độ bi đát ở Hoa Kì khi một số bang thiết lập các bản án dựa trên khả năng tái phạm của phạm nhân, mà khả năng này lại được tính toán từ những chỉ số đáng bàn luận. Xã hội cần nhận thức một điều rằng chúng ta không thể ủy thác tất cả mọi việc cho máy móc. Sẽ là sai lầm lớn nếu nghĩ rằng các quyết định của máy móc là trung tính.
Dĩ nhiên có những khía cạnh đạo đức khác, như bảo vệ dữ liệu cá nhân chẳng hạn. Về vấn đề này, người ta vô cùng lo ngại trước việc chính phủ sử dụng dữ liệu cá nhân của chúng ta như thế nào, nhưng theo tôi, ở những quốc gia dân chủ, chính phủ có chức năng bảo vệ chúng ta hơn. Tuy nhiên, việc một số công ty công nghệ lớn sử dụng dữ liệu của chúng ta thông qua mạng Internet thì rất đáng lo ngại.
Các công ty đó nằm trong số những nhà quảng bá chính cho điểm kì dị của công nghệ. Vì sao trong cuốn sách của mình, ông gọi đó là thái độ của “lính cứu hỏa đốt nhà” (pompier pyromane)?
Thực vậy, có thể tự hỏi tại sao những công ty lớn này hậu thuẫn cho những ý tưởng kì lạ như vậy. Có nhiều yếu tố khác nhau cần phải được xem xét, nhưng tôi nghĩ lí do quan trọng nhất chính là họ khuấy động một nỗi sợ lớn nhằm che giấu những nguy hiểm thực sự. Ngày nay, vấn đề không còn là việc xóa thông tin để tránh bị soi xét như trong thời đại của chủ nghĩa Stalin, mà trái lại, người ta tung thêm thông tin sai lệch để đánh lạc hướng. Nỗi sợ máy móc nắm lấy quyền lực che đậy một thực tế xã hội và chính trị, mà theo tôi, bị việc sử dụng những công nghệ đương đại làm biến dạng hoàn toàn. Nguyên tắc dựa trên đó tổ chức chính trị được xây dựng, và đặc biệt là khái niệm Nhà Nước, sẽ bị mạng Internet đặt thành vấn đề, vì sẽ không còn ranh giới giữa Nhà Nước và lãnh thổ. Tôi cho rằng những tác nhân khổng lồ của mạng Internet đều có tham vọng chính trị và đang trên đà cạnh tranh với Nhà Nước khi muốn đảm trách một số chức năng vốn cho tới nay thuộc về tổ chức này.
Giới thiệu tác giả
Jean-Gabriel Ganascia (1955-)
Jean Gabriel Ganascia
Giáo sư Đại học Pierre et Marie Curie, nhà nghiên cứu trí tuệ nhân tạo, chủ tịch Ủy ban Đạo đức CNRS





Nguyễn Lê Thủy Tiên, Thanh Thư dịch
Nguồn: Devons-nous craindre l'intelligence artificielle?, Paris Innovation Review, June 6, 2017.


[*] Điểm kì dị của công nghệ là điểm quy chiếu giả định xuất hiện khi quá trình phát triển công nghệ trở nên quá nhanh chóng, khiến cho tương lai sau sự kiện đó bắt đầu có sự thay đổi về chất và trở nên rất khó dự đoán (ND).
Print Friendly and PDF