19.2.23

ChatGPT sẽ làm chúng ta bớt cả tin không?

CHATGPT SẼ LÀM CHO CHÚNG TA BỚT CẢ TIN KHÔNG?

Tác giả: Erwan Lamy[*]

Cách đây vài tuần, ngày 30 tháng 11 năm 2022, công ty OpenAI đã tung ra cho thế giới một sản phẩm trí tuệ nhân tạo ngoạn mục, ChatGPT - Chat Generative Pre-trained Transformer -. Sau DALL•E, một hệ thống trí tuệ nhân tạo có thể tạo ra những hình ảnh từ những mô tả viết bằng ngôn ngữ bình thường, ChatGPT có khả năng phỏng theo hầu như hoàn hảo toàn bộ những cuộc thảo luận, hay trả lời những câu hỏi phức tạp bằng cách tạo ra những văn bản có vẻ như xuất phát trực tiếp từ một bộ não con người.

Tiến bộ mới này không khỏi gây lo lắng, vì những lý do kinh tế (đặc biệt là có thể hủy bỏ một số việc làm), đạo đức (ví dụ với nguy cơ thấy những mô hình ngôn ngữ như ChatGPT lấy lại những diễn ngôn mang tính kỳ thị chủng tộc), hay “nhận thức” (“épistémique”), vì cho đến nay kiểu trí tuệ nhân tạo này không phân biệt được những thông tin đáng tin cậy với những thông tin đáng ngờ (thuật ngữ “épistémique” liên hệ đến việc tạo ra hay thủ đắc những kiến thức và thông tin đáng tin cậy).

Tuy nhiên có nhiều lý do để nghĩ rằng việc dân chủ hóa ChatGPT và các công cụ tương tự có thể là một tin tốt, ít ra là đối với mối quan hệ giữa chúng ta và thông tin.

Những đe dọa về nhận thức

“Trí tuệ nhân tạo có thể là một mối nguy về mặt nhận thức vì nó có thể tạo ra những thông tin có tính thuyết phục nhưng sai lệch. Điều này có thể đặt lại vấn đề về sự hiểu biết của chúng ta về thế giới hay thậm chí gây nguy hiểm cho tính xác thực của tri thức của chúng ta. Điều này đã gây ra những lo lắng về khả năng dùng trí tuệ nhân tạo để phổ biến thông tin sai lệch hay thao túng những niềm tin của nhiều người.”

Không phải tôi nói điều đó, mà… chính ChatGPT nói! Đoạn văn trên đây do mạng trí tuệ nhân tạo này tạo ra khi đặt cho nó câu hỏi này: Trí tuệ nhân tạo là một mối nguy về mặt nhận thức như thế nào?” Ta thấy với ví dụ này, những câu trả lời có thể rất thuyết phục. Tuy nhiên chúng hoàn toàn ngu xuẩn. Có khi sự ngu xuẩn ấy đập vào mắt, có khi không dễ phát hiện nó.

Trong trường hợp này, không có gì nhiều để bàn lại về câu thứ nhất, còn câu thứ hai là một kiều rập khuôn vô nghĩa: “đặt lại vấn đề về sự hiểu biết của chúng ta về thế giới hay “gây nguy hiểm cho tính xác thực của tri thức của chúng ta” chính xác là muốn nói gì? Câu thứ ba là một sự ngu xuẩn đơn thuần: trí tuệ nhân tạo này không phổ biến điều gì cả, và có lẽ không phải là những cái thích hợp nhất để “thao túng” (vì ta không kiểm soát tốt cái mà nó sản sinh ra).

Nhưng chính điều đó mới thành vấn đề: phải suy nghĩ để phát hiện điều bí mật ẩn chứa bên dưới.

Sản sinh ra “điều nhảm nhí” (“bullshit”)

Điều cần phải hiểu là ChatGPT không được lập trình để trả lời các câu hỏi, mà để tạo ra những văn bản tin cậy được.

Đọc thêm: ChatGPT, une IA qui parle très bien... mais pour quoi faire?- (ChatGPT, một trí tuệ nhân tạo phát ngôn rất tốt… nhưng để làm gì?)

Về phương điện kỹ thuật, ChatGPT là cái mà ta gọi là một “mô hình ngôn ngữ. Một mô hình ngôn ngữ là một thuật toán, dựa trên những công nghệ được triển khai trong những thập niên gần đây (các mạng nơ-ron, học sâu…) có khả năng tính toán xác suất của một chuỗi từ ngữ từ việc phân tích một tập hợp các văn bản đã có trước đó. Mô hình này lại càng hoàn thiện khi số lượng văn bản mà nó có thể “đọc” được càng lớn. Trong trường hợp của ChatGPT, khối lượng này thật là to lớn vượt bc.

Như vậy, cho một chuỗi từ ngữ nào đó, ChatGPT có khả năng xác định chuỗi từ ngữ có xác suất cao nhất có thể bổ sung cho chuỗi từ kia. Do đó, ChatGPT có thể “trả lời” một câu hỏi, với một cách đáng tin cần thiết, vì nó tính toán câu trả lời có xác suất cao nhất. Nhưng không hề có một logic hay suy nghĩ nào trong câu trả lời này. Không có gì khác hơn một phép tính xác suất. ChatGPT hoàn toàn không có một chút quan tâm nào đến tính đúng đắn của câu trả lời. Nói một cách khác, đó là cái sản sinh ra “điều nhảm nhí” (“bullshit”).

Từ vài năm nay, điều “nhảm nhí” (bullshit) không chỉ là một từ cảm thán của Anh-Mỹ, có thể dịch sang tiếng Pháp là “foutaise” hay “fumisterie”, mà còn là một khái niệm triết học, từ khi triết gia Harry Frankfurt trình bày chủ đề này trong một bài báo, rồi trong một quyển sách trong những năm 2000.

Ngày nay, chính những nhà nghiên cứu rất nghiêm túc về tâm lý học, triết học, khoa học thần kinh hay khoa học quản trị quan tâm đến bullshit. Khái niệm đã được làm cho phức tạp hơn nhưng ở đây ta có thể giữ lại định nghĩa gốc của nó: bullshit, là sự thờ ơ với sự thật. Đó không phải là sự dối trá: người nói dối quan tâm đến sự thật, nhằm bóp méo nó tốt hơn. Còn người tạo bullshit không quan tâm và chỉ tìm cách lôi cuốn – điều nó nói đôi khi đúng, đôi khi không, không hề chi.

Đọc thêm: Les cas de “bullshit à propos du bullshit”: le rationalisme perd-il son sang-froid? - (Trường hợp “bullshit nhân nói về bullshit”: Chủ nghĩa duy lý có mất bình tĩnh không?)

Đó chính là trường hợp của ChatGPT vô cùng tài tình: khi nó không đáp ứng thật chính xác thì ta cũng không nhận ra – hay không nhận ra tức thì. Có phải đó là một công cụ siêu việt sản sinh ra bullshit, mọi người đều có thể tiếp cận, rất đơn giản để sử dụng? Đúng là có điều đáng lo lắng. Không quá khó khăn để tưởng tượng rằng công cụ này sẽ được sử dụng một cách rất đơn giản như thế nào bởi những người biên tập nội dung ít thận trọng để tạo ra “thông tin”, hơn nữa ChatGPT dường như có thể đánh lừa cả những chuyên gia học thuật về chính những chủ đ của họ.

Thói xấu và đức hạnh về nhận thức

Vấn đề liên quan là một dạng đạo đức trí thức nào đó. Trái với một ý kiến rất phổ biến, việc tạo ra và thủ đắc các kiến thức (khoa học hay không) không chỉ là một vấn đề về phương pháp. Đó cũng là một vấn đề đạo đức. Các triết gia nói về các thói xấuđức hạnh “trí thức” (hay nhận thức”), chúng có thể được định nghĩa như những đặc điểm về tính chất gây trở ngại hoặc ngược lại tạo thuận lợi cho việc thủ đắc và tạo ra những thông tin đáng tin cậy.

Tinh thần cởi mở là một ví dụ về đức hạnh nhận thức, chủ nghĩa giáo điều là một ví dụ về thói xấu. Những ý niệm này là đối tượng của những bài viết về triết học ngày càng dồi dào từ đầu những năm 1990: nhận thức luận về đức hạnh. Lúc đầu chủ yếu là kỹ thuật, vì đó là định nghĩa nhận thức một cách đúng đắn, ngày nay những công trình này cũng liên quan đến các vấn đề về nhận thức của thời đại chúng ta: thông tin sai lệch, tin giả, đặc biệt là tin nhảm nhí (bullshit) và tất nhiên là cả những nguy hiểm do trí tuệ nhân tạo gây ra.

Cho đến gần đây, các nhà nghiên cứu về nhận thức luận đức hạnh khi thảo luận về những hậu quả về nhận thức của trí tuệ nhân tạo chú ý nhiều nhất đến ”deepfakes” - sản phẩm công nghệ giả do trí tuệ nhân tạo tạo ra -, các video hoàn toàn do trí tuệ nhân tạo kiểu DALL·E tạo ra và có thể đưa ra những nhân vật rất thật trong những hoàn cảnh dung tục hoàn toàn tưởng tượng nhưng hấp dẫn vì tính hiện thực. Những bài học rút ra từ những suy nghĩ này về deepfakes thật ích lợi để suy nghĩ về những tác động có thể có của ChatGPT, và có lẽ để giảm nhẹ một tình trạng bi quan có phần quá đáng.

Tất nhiên việc tạo ra các deepfakes là một vấn đề, nhưng dường như việc phổ quát hóa chúng có thể làm xuất hiện trong công chúng một dạng chủ nghĩa hoài nghi phổ biến đối với hình ảnh, một dạng “chủ nghĩa yếm thế trí thức (cynisme intellectuel). Khi tác giả trình bày đề nghị này (năm 2022), ông thấy đó là một thói xấu về nhận thức, vì điều này đưa đến chỗ nghi ngờ những thông tin tệ hại lẫn thông tin có cơ sở. Tôi không chắc một chủ nghĩa yếm thế như vậy là xấu xa: điều này tương đương với sự trở lại một thời kỳ, không xa lắm, lúc hình ảnh không chiếm một chỗ lớn đến thế để tiếp cận thông tin. Tôi không có cảm tưởng rằng thời kỳ này (trước những năm 1930) đặc biệt xấu xa về mặt nhận thức.

Dù như thế nào, chủ nghĩa yếm thế này đến lượt nó thúc đẩy sự phát triển của một thứ đức hạnh về nhận thức: một sự “nhạy cảm nhất định đối với kỹ thuật số” giúp phân định một cách đúng đắn giữa điều có lợi và điều có hại trong vô vàn hình ảnh và video lan truyền trên internet.

Một sự nhạy cảm với kỹ thuật số như vậy cũng có thể được khơi dậy bởi ChatGPT. Những độc giả của các sản phẩm trí tuệ nhân tạo, bị gây hại bởi dòng thác “bullshit” vốn có nguy cơ trút xuống, có thể gia tăng sự chú ý khi đọc một văn bản trực tuyến với cùng một cách họ gia tăng sự chú ý đối với một hình ảnh (sợ bị lừa bởi một deepfake) nhưng không vì thế mà rơi vào một dạng của chủ nghĩa hoài nghi lan rộng.

Như vậy, từ một điều xấu có thể sinh ra một điều tốt. Một cách chung hơn nữa, sự đi lên mạnh mẽ của trí tuệ nhân tạo có thể đưa lên hàng đầu sự cần thiết phải nuôi dưỡng những đức hạnh về nhận thức, và chống lại những điều xấu, chẳng hạn như xu hướng quá phổ biến là không hoài nghi các lý thuyết âm mưu đang lưu truyền trên các mạng xã hội. Rốt cùng, những công nghệ gây lo lắng này có thể là môt tin tốt cho đạo đức trí thức.

Người dịch: Thái Thị Ngọc Dư

Nguồn: ChatGPT nous rendra-t-il moins credules”, The Conversation, 26.01.2022.

----

Bài có liên quan:




Chú thích:

[*] Associate professor, ESCP Business School

Print Friendly and PDF