11.12.23

Sự hỗn loạn tại OpenAI cho thấy chúng ta phải quyết xem liệu các nhà phát triển AI có thể tự điều tiết không

SỰ HỖN LOẠN TẠI OPENAI CHO THẤY CHÚNG TA PHẢI QUYẾT XEM LIỆU CÁC NHÀ PHÁT TRIỂN A.I. CÓ THỂ TỰ ĐIỀU TIẾT KHÔNG

Sam Altman bị sa thải và sau đó được phục chức CEO của OpenAI. Ảnh John G. Mabanglo/EPA

OpenAI, nhà phát triển ChatGPT và là nhà đổi mới hàng đầu trong lĩnh vực trí tuệ nhân tạo (AI), gần đây đã rơi vào tình trạng hỗn loạn khi giám đốc điều hành và là hình ảnh đại diện của công ty, Sam Altman, bị sa thải. Khi được tiết lộ rằng anh sẽ gia nhập nhóm nghiên cứu AI nâng cao của Microsoft, hơn 730 nhân viên OpenAI đã dọa sẽ nghỉ việc. Cuối cùng, đã có thông tin được công bố rằng phần lớn những ai trong hội đồng quản trị đã (đồng ý) chấm dứt hợp đồng làm việc với Altman sẽ bị thay thế và anh sẽ quay lại công ty.

Trong bối cảnh đó, đã có các tin đồn về những cuộc tranh luận gay gắt ở nội bộ OpenAI về sự an toàn của AI. Điều này không chỉ nêu bật sự phức tạp của việc quản lý một công ty công nghệ tiên tiến mà còn đóng vai trò như một mô hình thu nhỏ cho các cuộc tranh luận rộng hơn xung quanh sự điều tiết và sự phát triển an toàn của các công nghệ AI.

Mô hình ngôn ngữ lớn (Large language models – LLM) là trọng tâm của các cuộc thảo luận này. LLM, công nghệ đằng sau các chatbot AI như ChatGPT, được tiếp xúc với các bộ dữ liệu khổng lồ giúp chúng cải thiện năng lực thực thi – một quá trình được gọi là huấn luyện. Tuy nhiên, bản chất kép của quá trình huấn luyện này đặt ra những câu hỏi quan trọng về tính công bằng, quyền riêng tư và nguy cơ lạm dụng AI.

Dữ liệu huấn luyện phản ánh cả độ phong phú lẫn thiên lệch của thông tin có sẵn. Những thiên lệch này có lẽ phản ánh những quan niệm xã hội bất công và dẫn đến sự phân biệt đối xử nghiêm trọng, gạt các nhóm dễ bị tổn thương ra ngoài lề, hoặc kích động sự thù ghét hay bạo lực.

Các tập dữ liệu huấn luyện có thể bị ảnh hưởng bởi các thiên lệch về mặt lịch sử. Ví dụ: vào năm 2018, Amazon được cho là đã loại bỏ một thuật toán tuyển dụng gây bất lợi cho phụ nữ – có vẻ như do dữ liệu huấn luyện của thuật toán này chủ yếu gồm các ứng viên nam.

LLM cũng có xu hướng cho ra chất lượng khác nhau đối với các nhóm xã hội khác nhau và các ngôn ngữ khác nhau. Có nhiều dữ liệu huấn luyện bằng tiếng Anh hơn so với các ngôn ngữ khác, vì vậy LLM thông thạo tiếng Anh hơn.

Liệu các công ty có đáng tin không?

LLM cũng có nguy cơ vi phạm quyền riêng tư vì các mô hình này đang hấp thụ một lượng thông tin khổng lồ và sau đó tái cấu trúc chúng. Ví dụ: nếu có dữ liệu riêng tư hoặc thông tin nhạy cảm trong dữ liệu huấn luyện của LLM, chúng có thể “ghi nhớ” dữ liệu này hoặc đưa ra các suy luận sâu hơn dựa trên đó, điều này có thể dẫn đến rò rỉ bí mật thương mại, lộ kết quả chẩn đoán sức khỏe hoặc rò rỉ các loại thông tin cá nhân khác.

Các LLM thậm chí có thể tạo điều kiện cho sự tấn công của tin tặc hoặc phần mềm độc hại. Những cuộc tấn công tiêm câu lệnh nhắc (prompt injection "tiêm" mã độc vào mục tiêu tấn công nhằm khai thác các lỗ hổng bảo mật, ở đây là vào yêu cầu gửi đến chatbot – ND) sử dụng các hướng dẫn được soạn thảo cẩn thận nhằm khiến hệ thống AI thực hiện việc nó vốn không được phép làm, điều này có thể dẫn đến việc truy cập trái phép vào máy hoặc rò rỉ dữ liệu riêng tư. Để hiểu được những rủi ro này cần phải xem xét sâu hơn về cách huấn luyện các mô hình LLM, những thiên lệch cố hữu trong dữ liệu huấn luyện của chúng và các nhân tố xã hội định hình nên dữ liệu đó.

Chatbot ChatGPT của OpenAI đã gây bão trên toàn thế giới khi được phát hành vào năm 2022. rafapress/Shutterstock

Biến động tại OpenAI đã làm dấy lên mối lo ngại về tương lai của công ty và khơi mào các cuộc thảo luận về việc điều tiết AI. Ví dụ, liệu các công ty với đội ngũ lãnh đạo có những cách tiếp cận rất khác nhau về phát triển AI có đáng tin để tự điều tiết không?

Tốc độ nhanh đến chóng mặt của việc nghiên cứu để đưa AI vào các ứng dụng thực tế nhấn mạnh đến nhu cầu về các khuôn khổ mạnh mẽ và rộng rãi hơn để quản lý phát triển AI, đồng thời đảm bảo các hệ thống này tuân thủ các tiêu chuẩn đạo đức.

Khi nào một hệ thống AI ‘đủ an toàn’?

Tuy nhiên, vẫn còn đó những thách thức bất kể cách tiếp cận nào được áp dụng vào việc điều tiết. Đối với nghiên cứu LLM, quá trình chuyển tiếp từ nghiên cứu và phát triển sang triển khai ứng dụng có thể xảy ra trong thời gian ngắn. Điều này khiến các cơ quan quản lý bên thứ ba càng khó dự đoán và giảm thiểu các rủi ro một cách hiệu quả. Ngoài ra, ngưỡng trình độ kỹ thuật cao và chi phí tính toán cần thiết để huấn luyện mô hình hoặc điều chỉnh chúng cho các nhiệm vụ cụ thể càng làm phức tạp thêm công tác giám sát.

Nhắm mục tiêu vào nghiên cứu và huấn luyện LLM từ sớm có thể hiệu quả hơn trong việc giải quyết một số rủi ro. Việc này sẽ giúp giải quyết một số tác hại bắt nguồn từ dữ liệu huấn luyện. Nhưng điều quan trọng là phải thiết lập các tiêu chuẩn: chẳng hạn, khi nào một hệ thống AI được coi là “đủ an toàn”?

Tiêu chuẩn chất lượng “đủ an toàn” có thể phụ thuộc vào lĩnh vực đang sử dụng AI, với các yêu cầu khắt khe hơn trong các lĩnh vực có rủi ro cao như những thuật toán cho hệ thống tư pháp hình sự hoặc tuyển dụng.

Khi các công nghệ AI, đặc biệt là LLM, được tích hợp ngày càng nhiều vào các khía cạnh khác nhau của xã hội, thì nhu cầu giải quyết các rủi ro và thiên lệch tiềm ẩn của chúng càng tăng cao. Điều này liên quan đến một chiến lược đa diện bao gồm tăng cường tính đa dạng và công bằng của dữ liệu huấn luyện, thực hiện các biện pháp bảo vệ quyền riêng tư hiệu quả và đảm bảo việc sử dụng công nghệ một cách có trách nhiệm và đạo đức trên các lĩnh vực khác nhau của xã hội.

Các bước tiếp theo trong hành trình này có thể sẽ liên quan đến sự hợp tác giữa các nhà phát triển AI, các cơ quan quản lý và một nhóm mẫu đa dạng của công chúng để thiết lập các tiêu chuẩn và khuôn khổ.

Tình hình tại OpenAI, mặc dù đầy thách thức và không hoàn toàn mang tính xây dựng cho cả ngành nói chung, vẫn là cơ hội để ngành nghiên cứu AI nghiêm túc tự nhìn nhận lại và đổi mới theo những cách ưu tiên cho giá trị con người và phúc lợi xã hội.

Tác giả

Yali Du

Yali Du

Giảng viên về Trí tuệ Nhân tạo, King's College London

Tuyên bố công khai

Yali Du không làm việc, tư vấn, sở hữu cổ phần trong hoặc nhận tài trợ từ bất kỳ công ty hoặc tổ chức nào có thể hưởng lợi từ bài viết này và không có sự trực thuộc nào ngoài giới chuyên môn của mình.

Huỳnh Thị Thanh Trúc dịch

Nguồn: Turmoil at OpenAI shows we must address whether AI developers can regulate themselves, The Conversation, Dec 1, 2023.

-----

Bài có liên quan:

Print Friendly and PDF