Trang

Kinh tế gia cười

Kinh tế - Xã hội - Môi trường

21.3.25

Trí tuệ nhân tạo tạo sinh: biết dùng khi nào thay vì dùng như thế nào

TRÍ TUỆ NHÂN TẠO TẠO SINH: BIẾT DÙNG KHI NÀO THAY VÌ DÙNG NHƯ THẾ NÀO

Tác giả: Gildas Agbon

Nghiên cứu sinh tiến sĩ, Đại học Laval

Trí tuệ nhân tạo tạo sinh được truyền bá trong mọi lĩnh vực (Shutterstock)

Hiện nay, bất kỳ ai tinh ý đều đã từng, dù chỉ một lần, nhận ra giọng văn cứng nhắc của robot trong một bài tập ở trường, một thông điệp trên LinkedIn, một thư điện tử, hay cả một thông báo của chính phủ.

Kể từ khi OpenAI công bố ChatGPT vào tháng 11 năm 2022, trí tuệ nhân tạo tạo sinh (IAG) đã thâm nhập vào mọi lĩnh vực của xã hội – giáo dục, văn hoá, kinh doanh, nghiên cứu.

Theo thông báo mới nhất của OpenAI, chỉ riêng ChatGPT đã có trên 200 triệu người dùng mỗi tuần.

Một thực tế lý thú là sự hào hứng này tự tạo cho mình một đạo đức riêng. Do đó, ta thường nghe nói: “Tôi dùng ChatGPT vì tôi biết cách dùng đúng”. Hơn cả một niềm tin tự tâng bốc mình, có phải đó là ảo tưởng quan trọng nhất về cuộc cách mạng trí tuệ nhân tạo của chúng ta?

Từ vài năm nay, tôi dành một phần quan trọng của nghiên cứu của tôi cho vấn đề này. Chính xác là luận án tiến sĩ của tôi tại Đại học Laval chú trọng đến những cách thức không ngờ tới mà các diễn ngôn về công nghệ đang xây dựng một văn hoá kỹ thuật số lành mạnh (hoặc không lành mạnh) trong các tổ chức và trong xã hội.

Sử dụng đúng trí tuệ nhân tạo tạo sinh: một diễn ngôn gần như có tính trấn an 

Từ các nguồn khoa học, chúng ta biết rằng cảm nhận của chúng ta về việc dùng một công nghệ có thể tuỳ thuộc mạnh vào những diễn ngôn quảng bá công nghệ ấy. Các nhà nghiên cứu Kamal Munir và Nelson Philips đã chỉ rõ với ví dụ về máy ảnh dùng phim, vốn đã được tích hợp vào những thói quen của chúng ta giữa thế kỷ 19 và thế kỷ 20, nhờ các quảng cáo được triển khai bởi công ty đa quốc gia Kodak của Mỹ.

Trong trường hợp của trí tuệ nhân tạo tạo sinh, các diễn ngôn đặc biệt phức tạp, vì các diễn ngôn này không chỉ quảng bá công nghệ mà còn làm cho công nghệ “có tính đạo đức” nữa. Điều đó có nghĩa là các diễn ngôn này khuyến nghị đủ mọi loại công thức để hạn chế nhiều rủi ro do sai lầm và do những thiên kiến đạo đức được gắn với trí tuệ nhân tạo. Ví dụ, trong những năm gần đây, chúng ta đã thấy xuất hiện những chuyên gia về “kỹ thuật tìm kiếm” (prompt engineering) để dạy chúng ta nghệ thuật tinh tế về đặt câu hỏi cho những ứng dụng của trí tuệ nhân tạo tạo sinh, nhằm đạt hiệu quả tối đa.

Những bài viết về đạo đức của trí tuệ nhân tạo cũng đã nhân lên gấp bội, cũng như những chuẩn mực quốc tế nhắm đến điều chỉnh lĩnh vực này và thiết lập những tiêu chuẩn an toàn tối thiểu: minh bạch, công lý, công bằng…

Trong tất cả các trường hợp giả định, thông điệp chủ đạo là rõ ràng: Trí tuệ nhân tạo có mặt là để lưu lại, chỉ cần biết cách sử dụng nó như thế nào. Làm cho người khác yên tâm, diễn ngôn đạo đức của trí tuệ nhân tạo tạo thành một động lực của cuộc cách mạng trí tuệ nhân tạo tạo sinh. Do đó, ngay trong môi trường giáo dục, một số người đã xác tín rằng phương pháp sư phạm của chúng ta có thể thích nghi với các sinh viên ngày càng lệ thuộc vào những công cụ trợ giúp về trí tuệ.

Một ảo tưởng kiểm soát

Theo Ellen Langer, là một nhà nghiên cứu về tâm lý học của Đại học Harvard, một số người có thể đánh giá quá cao các khả năng kiểm soát của mình đối với các sự kiện bên ngoài, một xu hướng được gọi là “ảo tưởng kiểm soát”.

Dưới tác động của ảo tưởng này, chúng ta tưởng có thể tránh được những tình huống xấu, chỉ bằng cách thực hiện những cách thực hành tốt. Diễn ngôn đạo đức của trí tuệ nhân tạo tạo sinh có thể tăng cường ảo tưởng này trong chúng ta, đặc biệt là khi đối diện với những rủi ro đi liền với trí tuệ nhân tạo tạo sinh. 

Ví dụ, trong những hội nghị học thuật của tôi, thỉnh thoảng tôi nghe các đồng nghiệp khẳng định rằng một người vững tin vào trình độ chuyên môn của mình có thể dùng sự trợ giúp của một mô hình trí tuệ nhân tạo tạo sinh mà không gặp rủi ro sai lầm quan trọng.

Tương tự, nhiều chuyên gia tin rằng nghĩa vụ minh bạch đặt ra cho các doanh nghiệp thiết kế các hệ thống trí tuệ nhân tạo (ví dụ: truy cập được thông tin về những tác động và giới hạn của các mô hình) có thể bảo đảm cho việc sử dụng an toàn.

Thế nhưng, theo nguyên tắc che giấu thuật toán, về mặt kỹ thuật là người ta không thể hiểu những tính toán tạo nên một mô hình trí tuệ nhân tạo, ngay cả khi truy cập được những tính toán này. Thật vậy, những mô hình này dựa trên những dữ liệu khổng lồ và những quy trình học tập phức tạp đến nỗi không thể giải mã được các mô hình, ngay cả đối với các chuyên gia. Nói cách khác, người ta có thể “giải thích” trí tuệ nhân tạo tạo sinh cho chúng ta, nhưng chúng ta vẫn bị áp đặt bởi ý chí muốn che giấu của trí tuệ nhân tạo tạo sinh.

Cần ghi nhận rằng càng ngày càng có nhiều nhà khoa học tìm cách diễn dịch những nguyên tắc đạo đức của trí tuệ nhân tạo trong những cách thực hiện cụ thể đối với các doanh nghiệp, nhưng ta còn phải chờ đợi những kết luận thực sự. Cho đến nay, ngay cả ý tưởng về một trí tuệ nhân tạo thực sự có trách nhiệm và an toàn vẫn còn chờ được xác định. Trong lúc chờ đợi, chắc rằng chúng ta phải bắt đầu nêu lại phát biểu của chúng ta.

Chuyển từ như thế nào qua khi nào sử dụng trí tuệ nhân tạo tạo sinh

Diễn ngôn đạo đức của trí tuệ nhân tạo tạo sinh và lời hứa bảo đảm việc sử dụng công nghệ an toàn có thể là lừa mị và ảo tưởng. Thay vì chỉ tập trung vào cách sử dụng trí tuệ nhân tạo tạo sinh, có thể nào trước tiên chúng ta nên xác định khi nào thì dùng nó? Điều này có nghĩa là làm sáng tỏ, trong các tổ chức hay trong môi trường giáo dục, việc sử dụng một mô hình trí tuệ nhân tạo là thích hợp hay không đối với những nhiệm vụ nào, trong những trường hợp nào, vì những mục tiêu nào. Rốt cục, nếu các công nghệ trí tuệ là vũ khí, như Cathy O’Neil, một phụ nữ nổi tiếng, đã nêu rõ, thì càng cần trí tuệ hơn nữa để biết khi nào thì kích hoạt.

Ví dụ, nhân viên của Samsung được phép dùng ChatGPT, nhưng ngoại trừ bộ phận các máy di động và thiết bị gia dụng, vì những lý do chiến lược

Trong bối cảnh này, biện pháp đã được áp dụng ở cấp bộ phận, nhưng ta có thể hình dung một cấp có tính tác nghiệp hơn, nơi đó những hạn chế nhắm đến những công việc và điều kiện đặc thù.

Tóm lại, trong khi phép tu từ của “như thế nào” đề cập đến trí tuệ nhân tạo như một vấn đề kỹ thuật và hành vi là chủ yếu, sự khôn ngoan của “khi nào” tán dương một nét văn hoá tập thể về sự tiết chế, dựa trên một sự đánh giá thấu đáo các cơ hội. 

Hướng đến sự tiết chế kỹ thuật số

Ta biết rõ ví dụ về sự tiết kiệm năng lượng. Bạn đã cố gắng đạt hiệu quả một cách vô ích bằng cách mua một chiếc xe chạy bằng điện, điều này sẽ không bền vững bằng đi xe đạp! Ở Québec, suy nghĩ về tiết chế trí tuệ nhân tạo đã bộc lộ ra trong những sáng kiến quan trọng, đặc biệt là trong khái niệm về “tiết chế kỹ thuật số”. Tiến trình này hướng đến làm giảm bớt những tác động tiêu cực của kỹ thuật số bằng cách hạn chế việc sử dụng nó hàng ngày. Chủ đề này ngày càng hiển thị rõ trong môi trường đại học, nhưng cả trong khuôn khổ những sáng kiến xoá mù về kỹ thuật số. Có một ví dụ rất hay từ Culture Laurentides, một cơ quan cấp vùng đã thiết lập một Đội kỹ thuật số (Brigade numérique) dành cho lĩnh vực văn hoá, nhằm phát huy sự tiết chế kỹ thuật số và những khái niệm chủ chốt khác của thế giới kỹ thuật số.

Sự tiết chế kỹ thuật số cũng tạo nên một trục nghiên cứu ưu tiên cho Observatoire international sur les impacts sociétaux de l’IA et du numérique (Obvia) - tổ chức quốc tế giám sát các tác động xã hội của trí tuệ nhân tạo và của kỹ thuật số - mà tôi là thành viên mới đây thôi.

Ở giai đoạn hiện nay, phong trào tiết chế kỹ thuật số còn chủ yếu hướng về thiết kế các hệ thống và tác động môi trường của chúng. Về phần các tác động xã hội, còn phải nghiên cứu sâu hơn. Tôi đề nghị công nhận sư ưu tiên cho mảng xã hội, vào thời đại mà trí tuệ của máy móc dường như tiến triển nhanh hơn trí tuệ của con người!

Người dịch: Thái Thị Ngọc Dư

Nguồn: L'intelligence artificielle générative: savoir quand l'utiliser plutôt que comment, The Conversation, 11.12.2024