SỰ HỖN LOẠN TẠI OPENAI CHO THẤY CHÚNG TA PHẢI QUYẾT XEM LIỆU CÁC NHÀ PHÁT TRIỂN A.I. CÓ THỂ TỰ ĐIỀU TIẾT KHÔNG
Sam Altman bị sa thải và sau đó được phục chức CEO của OpenAI. Ảnh John G. Mabanglo/EPA |
Trong bối cảnh đó, đã có các tin đồn về những
cuộc tranh luận gay gắt ở nội bộ OpenAI về sự an toàn của AI. Điều này không chỉ nêu bật sự phức tạp của việc
quản lý một công ty công nghệ tiên tiến mà còn đóng vai trò như một mô hình thu
nhỏ cho các cuộc tranh luận rộng hơn xung quanh sự điều tiết và sự phát triển
an toàn của các công nghệ AI.
Mô hình ngôn ngữ lớn (Large language models – LLM) là trọng tâm của các cuộc thảo luận này. LLM, công nghệ đằng sau các chatbot AI như ChatGPT, được tiếp xúc với các bộ dữ liệu khổng lồ giúp chúng cải thiện năng lực thực thi – một quá trình được gọi là huấn luyện. Tuy nhiên, bản chất kép của quá trình huấn luyện này đặt ra những câu hỏi quan trọng về tính công bằng, quyền riêng tư và nguy cơ lạm dụng AI.
Dữ liệu huấn luyện phản ánh cả độ phong phú lẫn thiên lệch của thông tin có
sẵn. Những thiên lệch này có lẽ phản ánh những quan
niệm xã hội bất công và dẫn
đến sự phân biệt đối xử nghiêm trọng, gạt các nhóm dễ bị tổn thương ra ngoài lề,
hoặc kích động sự thù ghét hay bạo lực.
Các tập dữ liệu huấn luyện có thể bị ảnh hưởng bởi các thiên lệch về mặt lịch sử. Ví dụ: vào năm 2018, Amazon được cho là đã loại bỏ một thuật toán tuyển dụng gây bất lợi cho phụ nữ – có vẻ như do dữ liệu huấn luyện của thuật toán này chủ yếu gồm các ứng viên nam.
LLM cũng có xu hướng cho ra chất lượng khác nhau đối với các nhóm xã hội
khác nhau và các ngôn ngữ khác nhau. Có nhiều dữ liệu huấn luyện bằng tiếng Anh
hơn so với các ngôn ngữ khác, vì vậy LLM thông
thạo tiếng Anh hơn.
Liệu các công ty có đáng tin không?
LLM cũng có nguy cơ vi phạm quyền riêng tư vì các mô hình này đang hấp thụ một lượng thông tin khổng lồ và sau đó tái cấu trúc chúng. Ví dụ: nếu có dữ liệu riêng tư hoặc thông tin nhạy cảm trong dữ liệu huấn luyện của LLM, chúng có thể “ghi nhớ” dữ liệu này hoặc đưa ra các suy luận sâu hơn dựa trên đó, điều này có thể dẫn đến rò rỉ bí mật thương mại, lộ kết quả chẩn đoán sức khỏe hoặc rò rỉ các loại thông tin cá nhân khác.
Các LLM thậm chí có thể tạo điều kiện cho sự tấn công của tin tặc hoặc phần mềm độc hại. Những cuộc tấn công tiêm câu lệnh nhắc (prompt injection "tiêm" mã độc vào mục tiêu tấn công nhằm khai thác các lỗ hổng bảo mật, ở đây là vào yêu cầu gửi đến chatbot – ND) sử dụng các hướng dẫn được soạn thảo cẩn thận nhằm khiến hệ thống AI thực hiện việc nó vốn không được phép làm, điều này có thể dẫn đến việc truy cập trái phép vào máy hoặc rò rỉ dữ liệu riêng tư. Để hiểu được những rủi ro này cần phải xem xét sâu hơn về cách huấn luyện các mô hình LLM, những thiên lệch cố hữu trong dữ liệu huấn luyện của chúng và các nhân tố xã hội định hình nên dữ liệu đó.
Chatbot ChatGPT của OpenAI đã gây bão trên toàn thế giới khi được phát hành vào năm 2022. rafapress/Shutterstock |
Biến động tại OpenAI đã làm dấy lên mối lo ngại về tương lai của công ty và
khơi mào các cuộc thảo luận về việc điều tiết AI. Ví dụ, liệu các công ty với đội
ngũ lãnh đạo có những cách tiếp cận rất khác nhau về phát triển AI có đáng tin để
tự điều tiết không?
Tốc độ nhanh đến chóng mặt của việc nghiên cứu để đưa AI vào các ứng dụng
thực tế nhấn mạnh đến nhu cầu về các khuôn khổ mạnh mẽ và rộng rãi hơn để quản
lý phát triển AI, đồng thời đảm bảo các hệ thống này tuân thủ các tiêu chuẩn đạo
đức.
Khi nào một hệ thống AI ‘đủ an toàn’?
Tuy nhiên, vẫn còn đó những thách thức bất kể cách tiếp cận nào được áp dụng
vào việc điều tiết. Đối với nghiên cứu LLM, quá trình chuyển tiếp từ nghiên cứu
và phát triển sang triển khai ứng dụng có thể xảy ra trong thời gian ngắn. Điều
này khiến các cơ quan quản lý bên thứ ba càng khó dự đoán và giảm thiểu các rủi
ro một cách hiệu quả. Ngoài ra, ngưỡng trình độ kỹ thuật cao và chi phí tính
toán cần thiết để huấn luyện mô hình hoặc điều chỉnh chúng cho các nhiệm vụ cụ
thể càng làm phức tạp thêm công tác giám sát.
Nhắm mục tiêu vào nghiên cứu và huấn luyện LLM từ sớm có thể hiệu quả hơn
trong việc giải quyết một số rủi ro. Việc này sẽ giúp giải quyết một số tác hại
bắt nguồn từ dữ liệu huấn luyện. Nhưng điều quan trọng là phải thiết lập các
tiêu chuẩn: chẳng hạn, khi nào một hệ thống AI được coi là “đủ an toàn”?
Tiêu chuẩn chất lượng “đủ an toàn” có thể phụ thuộc vào lĩnh vực đang sử dụng
AI, với các yêu cầu khắt khe hơn trong các
lĩnh vực có rủi ro cao như những thuật toán cho hệ thống tư pháp hình sự hoặc
tuyển dụng.
Khi các công nghệ AI, đặc biệt là LLM, được tích hợp ngày càng nhiều vào
các khía cạnh khác nhau của xã hội, thì nhu cầu giải quyết các rủi ro và thiên
lệch tiềm ẩn của chúng càng tăng cao. Điều này liên quan đến một chiến lược đa
diện bao gồm tăng cường tính đa dạng và công bằng của dữ liệu huấn luyện, thực
hiện các biện pháp bảo vệ quyền riêng tư hiệu quả và đảm bảo việc sử dụng công
nghệ một cách có trách nhiệm và đạo đức trên các lĩnh vực khác nhau của xã hội.
Các bước tiếp theo trong hành trình này có thể sẽ liên quan đến sự hợp tác
giữa các nhà phát triển AI, các cơ quan quản lý và một nhóm mẫu đa dạng của
công chúng để thiết lập các tiêu chuẩn và khuôn khổ.
Tình hình tại OpenAI, mặc dù đầy thách thức và không hoàn toàn mang tính
xây dựng cho cả ngành nói chung, vẫn là cơ hội để ngành nghiên cứu AI nghiêm
túc tự nhìn nhận lại và đổi mới theo những cách ưu tiên cho giá trị con người
và phúc lợi xã hội.
Tác giả
Yali Du |
Giảng viên về Trí tuệ Nhân tạo, King's College London
Tuyên bố công khai
Yali Du không làm việc, tư vấn, sở hữu cổ phần trong hoặc nhận tài trợ từ bất
kỳ công ty hoặc tổ chức nào có thể hưởng lợi từ bài viết này và không có sự trực
thuộc nào ngoài giới chuyên môn của mình.
Huỳnh Thị Thanh Trúc dịch
Nguồn: Turmoil
at OpenAI shows we must address whether AI developers can regulate themselves,
The Conversation, Dec 1, 2023.
-----
Bài có liên
quan: