13.3.23

ChatGPT và các “trí tuệ” nhân tạo: làm sao phát hiện thật giả?

CHATGPT VÀ CÁC “TRÍ TUỆ” NHÂN TẠO: LÀM SAO PHÁT HIỆN THẬT, GIẢ

Tác giả: Laurence Devillers

Giáo sư về trí tuệ nhân tạo, Đại học Sorbonne

ChatGPT có tinh quái đến thế không? Busyfingie/Shutterstock

Là một đối tượng được thực sự ngưỡng mộ vào đầu năm 2023, hệ thống tương tác ChatGPT đã làm dấy lên một làn sóng hâm mộ, rồi thắc mắc và lo lắng. Trong một quãng thời gian rất ngắn, hệ thống này đã thu hút một triệu người dùng và đã được trắc nghiệm với nhiều nhiệm vụ, chủ yếu là bằng văn bản: hỏi thông tin, viết bài nghị luận, sáng tác các tác phẩm hư cấu, lập trình máy tính, dịch văn bản, làm thơ…

Một trong những lý do của sự hâm mộ này là ChatGPT đã chứng tỏ những năng lực gây ấn tượng mạnh trong nhiều lĩnh vực cũng như những năng lực mới nổi lên ví dụ như tạo ra mã máy tính và “các mô hình đa phương thức”. Một lý do khác là giao diện đàm thoại của nó cho phép người dùng tương tác với một mô hình ngôn ngữ lớn GPT3.5 ẩn bên dưới với hiệu quả và hiệu suất tốt hơn trước, thông qua những cuộc trò chuyện tương tác trực tiếp.

Những kết quả này đã khiến ta đặt câu hỏi liệu ta có thể sử dụng những hệ thống ngôn ngữ lớn này cho những mục đích nghề nghiệp, sưu tầm tư liệu, học tập hay cả nghệ thuật. Có thể kiểu những hệ thống này biến đổi một số ngành nghề và nó có thể tác động sâu sắc đến giảng dạy và giáo dục – vì trẻ em đặc biệt dễ bị tác động bởi những hệ thống này.

Một “trí tuệ”… chỉ có vẻ bên ngoài mà thôi

ChatGPT tạo ra những văn bản hầu như hoàn hảo về phương diện ngữ pháp mặc dù nó không hiểu gì hết về cái mà nó tạo ra. Nó có những năng lực thực sự gây ngạc nhiên và một số trường hợp tiêu biểu được nêu ra quả là xuất sắc. Những văn bản của nó thường là phức tạp, có thể giống những dữ liệu gốc đã phục vụ cho việc huấn luyện và có một vài đặc điểm của những dữ liệu này.

Nhưng với vẻ bề ngoài là đúng, đôi khi những kết quả này lại hoàn toàn sai. Đâu là tính chất và trạng thái của những ngôn từ nhân tạo mà không kèm theo một lập luận nào? Việc hiểu ngôn ngữ tự nhiên bao hàm những lập luận phức tạp và đa dạng, về không gian, thời gian, bản thể, số học, được xây dựng dựa trên kiến thức và giúp liên kết các vật thể và hành động trong thế giới thực, điều mà ChatGPT còn lâu mới tích hợp được vì nó không hề có một tri giác phi thường nào.

Christian de Perthuis

François-Michel Letourneau đã thử hỏi ChatGPT về vùng Amazon. Kết quả: Để hiểu tình trạng phá rừng, tốt hơn nên đọc quyển sách xuất sắc của ông. Kết luận: ChatGPT không để ông thất nghiệp

theconversation.com

Điều mà tôi rút ra từ cuộc thảo luận của tôi với ChatGPT về tình trạng phá rừng ở vùng Amazonie. ChatGPT có thực sự biết gì về thực trạng rừng ở Brazil? Những kiến thức của nó có cho phép nó nêu ra một phát biu có tính khoa học?

1:28 PM · Feb 20, 2023

Cho dù có một vài ví dụ được chọn ra có thể gợi ý rằng các mô hình ngôn ngữ có khả năng suy luận, thì thật ra chúng không có khả năng suy luận logic và không có trực giác, không tư duy, không cảm xúc. ChatGPT diễn đạt một cách tự tin bằng tiếng Pháp hoàn hảo cũng như bằng những ngôn ngữ khác sau khi đã ngốn hàng tỷ dữ liệu nhưng hoàn toàn không hiểu gì về những điều nó nêu ra và rất dễ tạo ra những tin giả, những sự phân biệt đối xử, những bất công và khuếch đại cuộc chiến tranh thông tin.

Làm sao phát hiện thật giả: từ công nghệ đến giáo dục

Tuy nhiên, những cách tiếp cận ít minh bạch này có thể được đánh giá dưới nhiều khía cạnh về các dữ liệu hiện hữu (đó là những chuẩn mực – benchmark -) để chỉ ra sự thiếu hoàn chỉnh của các hệ thống về những vấn đề suy luận logic như suy diễn, quy nạp hay hồi nghiệm – hay kể cả lẽ thông thường.

___________

Đọc thêm: Peut-on détecter des fake news automatiquement? (Có thể phát hiện tin giả một cách tự động không?)

___________

Giáo dục có thể chiếm lĩnh chủ đề này để chỉ ra những giới hạn của ngôn ngữ nhân tạo xa rời thực tế này, và cho học sinh làm việc dựa trên một sự hiểu biết tốt hơn các khái niệm về mô hình hóa kỹ thuật số, về học máy và trí tuệ nhân tạo.

Trẻ em cả tin hơn đối với các trí tuệ nhân tạo

Điều này là đặc biệt quan trọng vì trẻ em có thể rất dễ cả tin đối với những hệ thống có tài diễn đạt hay như ChatGPT.

Richard Thaler (1945-)

Richard Thaler, người Mỹ đạt giải Nobel kinh tế, đã nêu rõ khái niệm “nudge - cú hích - vào năm 2008, một kỹ thuật nhằm thúc đẩy các cá nhân thay đổi hành vi mà họ không cảm thấy bị bắt buộc và bằng cách dùng những thiên kiến nhận thức của họ.

Hơn nữa, chúng tôi đã có thể chỉ ra rằng trẻ em thiên về nghe theo những gợi ý của các hệ thống đàm thoại được tải vào trong các đồ vật (như một Google Home hay một con robot) hơn là những gợi ý của con người. Phương pháp nghiên cứu của chúng tôi dựa trên một trò chơi tiến hóa về tập tính vị tha và được thực hiện trong khuôn khổ của đơn vị học thuật chuyên sâu IA Humaaine (như Human-Machine Affective Interaction and Ethics – Tương tác cảm xúc giữa người và máy và đạo đức) về các cú hích kỹ thuật số được khuếch đại bởi trí tuệ nhân tạo. Đơn vị học thuật chuyên sâu này có tính liên ngành, một dạng đơn vị nghiên cứu các hành vi tương tác giữa người và máy, liên kết các nhà nghiên cứu về công nghệ thông tin, ngôn ngữ học và kinh tế học hành vi.

𝗣𝗮𝘁𝗿𝗶𝗰𝗲 𝗛𝗶𝗹𝗹𝗮𝗶𝗿𝗲

ChatGPT có làm cho ta bớt cả tin không?

https://buff.ly/3kQ150j via @FR_Conversation

#tweetsrevue #cm #socialmedia

theconversation.com

Nếu ChatGPT gây ra những lo lắng, đặc biệt là về phương diện đạo đức, thì nó có thể góp phần vào việc nâng cao trình độ “nhạy cảm với kỹ thuật số” trong mối quan hệ của chúng ta với thông tin.

1:50 PM · Jan 27, 2023

Các tác nhân đàm thoại tương tác như ChatGPT có thể trở thành một phương tiện gây ảnh hưởng của các cá nhân. Hiện tại, chúng không được điều chỉnh, không được đánh giá và rất bí hiểm. Do đó, điều quan trọng là phải hiu rất rõ hoạt động và những giới hạn của chúng trước khi sử dụng chúng, và trong khuôn khổ này, trường học có vai trò quan trọng.

Tại sao ChatGPT lại mạnh như vậy?

ChatGPT là một hệ thống tương tác đa ngôn ngữ đa nhiệm vụ bằng cách dùng một trí tuệ nhân tạo tạo sinh truy cập mở trên internet. Các hệ thống trí tuệ nhân tạo tạo sinh dựa trên những thuật toán có khả năng mã hóa những khối lượng dữ liệu khổng lồ (các văn bản, bài thơ, chương trình máy tính, ký hiệu) và tạo ra những văn bản đúng cú pháp cho một số lớn nhiệm vụ. Các “mô hình học sâu” là một trong những dạng thuật toán này. Đó là những mạng nơ-ron nhân tạo, chúng học sự xuất hiện thường xuyên nổi bật nhất của các từ trong nhiều bối cảnh và từ đó có khả năng đoán trước từ ngữ hay chuỗi từ ngữ có thể là thỏa đáng trong diễn tiến của một văn bản nhất định.

ChatGPT nối nghiệp mô hình ngôn ngữ lớn (LLM) InstructGPT mà người ta thêm vào đó một giao diện đàm thoại. InstructGPT hoạt động tốt hơn các cách tiếp cận trước đó: thật vậy, các lập trình viên đã thành công trong việc làm cho trí tuệ nhân tạo tạo sinh (kiểu GPT3.5) đáp ứng tốt hơn ý định của người dùng đối với một số lớn các nhiệm vụ. Với mục đích đó, các lập trình viên sử dụng “học tăng cường, nghĩa là trí tuệ nhân tạo cũng học cả những bình luận của con người về các văn bản của nó.

Việc gia tăng quy mô của các mô hình ngôn ngữ không làm cho chúng tự nó có nhiều khả năng hơn trong việc theo dõi ý định của người dùng. Các mô hình ngôn ngữ quy mô lớn này có thể sản sinh ra những kết quả dối trá, độc hại hay đơn giản là vô ích đối với người dùng, vì chúng không đi theo hướng của những ý định của người dùng.

Nhưng các kết quả cho thấy sự điều chỉnh tinh tế nhờ vào các phản hồi của con người là một phương hướng có nhiều hứa hẹn để sắp xếp các mô hình ngôn ngữ theo ý định của con người, cho dù InstructGPT còn phạm những sai lầm đơn giản.

Như vậy, hiệu năng công nghệ của ChatGPT bắt nguồn từ quy mô của trí tuệ nhân tạo tạo sinh bằng cách dùng các mô hình học sâu” (175 tỷ thông số), từ sự thích nghi của những câu trả lời của trí tuệ nhân tạo thông qua học tăng cường nhưng cũng từ khả năng đàm thoại với hệ thống này.

Tác động của ChatGPT đối với thị trường tìm kiếm thông tin

ChatGPT của Microsoft-Open AI là một mối đe dọa đối với mô hình truy vấn của Google vì năng lực mạnh mẽ của nó trong tìm kiếm và sản xuất. Google đưa Bard ra như một công cụ tìm kiếm tương tác có suy nghĩ và chính xác hơn, không bị trở ngại bởi những vấn đề thời sự mà ChatGPT gặp phải vì nó đã được huấn luyện với những dữ liệu có sẵn trước tháng chín năm 2021 – và như vậy ChatGPT không biết những thông tin thời sự mới hơn (cho đến hiện nay là như vậy).

Công ty Baidu của Trung Quốc cũng có một dự án trí tuệ nhân tạo tạo sinh với Emie Bot. Dự án “BigScience do HuggingFace lập ra và bao gồm nguồn tài trợ của CNRS và của Bộ Nghiên cứu (Pháp) đã giúp tạo ra “Bloom”, là một trí tuệ nhân tạo tạo sinh bằng cách dùng một mô hình ngôn ngữ với 176 tỷ thông số được huấn luyện với những dữ liệu đa ngôn ngữ đa nhiệm và nhất là với “khoa học mở (“science ouverte”). Chương trình đổi mới sáng tạo này là một sự hợp tác công-tư và thu hút hơn một ngàn nhà nghiên cứu từ nhiều nước. Có thể nó sẽ sản sinh ra một “ChatBloom”.

Những vấn đề đạo đức

Bối cảnh hiện thời được đánh dấu bởi những thành tựu và những áp dụng các hệ thống được phổ biến rộng rãi này mà tác động to lớn của nó cần có một sự suy ngẫm về đạo đức.

Các trí tuệ nhân tạo tạo sinh đa ngôn ngữ, đa nhiệm và tương tác này đặt ra nhiều vấn đề: những dữ liệu được lựa chọn để huấn luyện chúng, sự phân bố các ngôn ngữ trong một hệ thống đa ngôn ngữ, những thông số tối ưu hóa các hệ thống, tính chất của các nội dung được tạo ra, v.v..

Hơn nữa, quyền năng tạo sinh của các trí tuệ nhân tạo thường được khuếch đại lên bởi những bộ lọc cho phép kiểm duyệt một số nội dung và những đơn vị suy diễn logic với mục đích kiểm chứng tính xác thực của các điều được nêu ra. Một nhóm nhỏ những con người (kỹ sư, người giải mã, người đánh giá) đã sáng tạo ra kiểu hệ thống này được hàng triệu người sử dụng.

Các hệ thống trí tuệ nhân tạo được dùng rộng rãi này đặt ra những thách thức quan trọng về đạo đức trong đó có sự biến đổi của quan niệm về sản xuất thông tin, mối quan hệ với sự thật và những rủi ro to lớn liên quan đến thông tin sai lệch và sự thao túng.

________________________

Để biết thêm, có thể tìm đọc tác giả trong tác phẩm “Des robots et des hommes, mythes, fantasmes et réalité”, Nhà xuất bản Plon và “Les robots émotionnels: et l’éthique dans tout cela?”, Nhà xuất bản l’Observatoire.

Người dịch: Thái Thị Ngọc Dư

Nguồn:ChatGPT et ‘intelligences’ artificielles: comment déceler le vrai du faux?”, The Conversation, 20.02.2023.

----

Bài có liên quan:

Print Friendly and PDF