Ít nhất bốn bài báo
công nhận công cụ AI với tư cách là đồng tác giả, khi các nhà xuất bản đua nhau
để điều chỉnh việc sử dụng nó.
![]() |
Chatbot trí tuệ nhân tạo ChatGPT đảo lộn nhiều ngành công nghiệp, bao gồm cả học thuật. Ảnh: Iryna Imago/Shutterstock |
Chatbot trí tuệ nhân tạo (AI) ChatGPT vốn gây
bão trên toàn thế giới đã chính thức ra mắt trong các tài liệu khoa học — đạt
được ít nhất bốn ghi công tác giả trên các bài báo và bản thảo.
Các biên tập viên, nhà nghiên cứu và nhà xuất bản
tạp chí hiện đang tranh luận về vị trí của các công cụ AI như vậy trong các tài
liệu đã xuất bản và liệu việc trích dẫn bot với tư cách là tác giả có phù hợp
không. Các nhà xuất bản đang chạy đua để tạo chính sách cho chatbot GPT,
công cụ đã được phát hành miễn phí vào tháng 11 bởi công ty công nghệ OpenAI ở
San Francisco, California.
ChatGPT là một mô hình ngôn ngữ lớn (LLM), tạo ra các câu có vẻ thuyết phục bằng cách bắt chước kiểu cấu tạo ngẫu nhiên ngôn ngữ trong cơ sở dữ liệu văn bản khổng lồ được thu thập và đối chiếu từ Internet. Con bot đã đảo lộn các lĩnh vực bao gồm cả học thuật: cụ thể, ChatGPT đang đặt ra câu hỏi về tương lai của các bài luận đại học và sản phẩm nghiên cứu.
Các nhà xuất bản và kho lưu trữ bản thảo được
nhóm tin tức của Nature liên hệ đồng ý rằng các AI như ChatGPT
không đáp ứng tiêu chí của một tác giả nghiên cứu, vì nó không thể chịu trách
nhiệm về nội dung và tính liêm chính của các bài báo khoa học. Nhưng một số
nhà xuất bản nói rằng đóng góp của AI trong việc viết các
bài báo có thể được ghi nhận ở các
phần khác ngoài danh sách tác giả. (Nhóm tin tức của Nature độc
lập về mặt biên tập với nhóm tạp chí và nhà xuất bản, Springer Nature.)
Có một trường hợp, một biên tập viên nói với Nature rằng
ChatGPT đã được trích dẫn là đồng tác giả do nhầm lẫn và tạp chí sẽ sửa lỗi
này.
Tác giả nhân tạo
ChatGPT là một trong 12 tác giả của bản thảo[1] về
việc sử dụng công cụ này cho giáo dục y tế, được đăng trên kho lưu trữ y tế
medRxiv vào tháng 12 năm ngoái.
Người đồng sáng lập
Richard Sever, trợ lý giám đốc tại Phòng thí nghiệm Cold Spring Harbour Press ở
New York cho biết, đội ngũ đằng sau kho lưu trữ và trang web chị em của nó,
bioRxiv, đang thảo luận liệu việc sử dụng và ghi công các công cụ AI như
ChatGPT khi viết nghiên cứu có phù hợp không. Ông nói thêm rằng các quy ước
có thể thay đổi.
Sever nói: “Chúng ta cần phân biệt vai trò
chính thức của tác giả một bản thảo học thuật với khái niệm chung hơn về tác giả
với tư cách là người viết ra một văn bản.” Các tác giả chịu trách nhiệm
pháp lý cho công trình của họ, vì vậy chỉ nên liệt kê con người trong danh sách. “Tất
nhiên, mọi người có thể cố gắng đưa AI vào – điều đã xảy ra ở medRxiv – giống như
cách người ta đã liệt kê thú cưng, nhân vật hư cấu, v.v. với tư cách là tác giả
trên các bài báo nghiên cứu trong quá khứ, nhưng đó là vấn đề về kiểm duyệt hơn
là vấn đề chính sách.” (Victor Tseng, tác giả liên lạc [corresponding
author] của bản thảo được nhắc đến bên trên và giám đốc y tế của Ansible Health
ở Mountain View, California, đã không trả lời yêu cầu bình luận.)
Một bài xã luận[2] trên tạp
chí Nurse Education in Practice tháng này công nhận AI là đồng
tác giả, cùng với Siobhan O'Connor, một nhà nghiên cứu công nghệ y tế tại Đại học
Manchester, Vương quốc Anh. Roger Watson, tổng biên tập của tạp chí, nói rằng
sự ghi nhận này lọt sổ các khâu kiểm tra và quy định do nhầm lẫn và sẽ sớm được đính chính. “Về
phía tôi, đó là một sơ suất,” anh nói, bởi vì các bài xã luận trải qua một hệ
thống quản lý khác với các bài nghiên cứu.
Và Alex Zhavoronkov, giám đốc điều hành của
Insilico Medicine, một công ty phát minh thuốc vận hành bằng AI ở Hồng Kông, đã
ghi nhận ChatGPT là đồng tác giả của một bài báo quan điểm[3] trên tạp
chí Oncoscience vào tháng trước. Anh nói rằng công ty của
mình đã xuất bản hơn 80 bài viết được sản xuất bởi các công cụ AI tạo sinh.
Zhavoronkov nói: “Chúng tôi không lạ gì chuyện (dùng AI để viết bài – ND) này.” Bài
báo mới nhất thảo luận về các ưu nhược điểm của việc dùng thuốc rapamycin, trong
bối cảnhmột lập luận mang tính triết học được gọi là đặt cược của Pascal. ChatGPT
đã viết một bài báo hay hơn hẳn các thế hệ công cụ AI tạo sinh trước đây,
Zhavoronkov nói.
Anh nói rằng tạp chí đã bình duyệt bài báo
đó sau khi anh yêu cầu biên tập viên của tờ báo làm vậy. Oncoscience
đã không trả lời yêu cầu bình luận của Nature.
Đồng tác giả của bài báo thứ tư[4], Almira
Osmanovic Thunström, nhà thần kinh học tại Đại học Bệnh viện Sahlgrenska ở Gothenburg,
Thụy Điển, cho biết bài báo được đồng viết bởi một chatbot đời cũ tên là GPT-3 đã
được đăng trên kho lưu trữ bản thảo HAL của Pháp vào tháng 6 năm 2022, và sẽ sớm
được xuất bản trên một tạp chí bình duyệt. Cô nói rằng một tạp chí đã từ
chối bài báo sau khi đánh giá, nhưng tạp chí thứ hai đã chấp nhận tư cách tác
giả của GPT-3 sau khi cô viết lại bài báo theo các yêu cầu của người đánh giá.
Các chính sách của nhà xuất bản
Tổng biên tập của Nature và Science nói
với nhóm tin tức Nature rằng ChatGPT không đáp ứng tiêu chuẩn về
quyền tác giả. Magdalena Skipper, tổng biên tập Nature ở Luân
Đôn cho biết: “Đi kèm với việc ghi nhận quyền tác giả là trách nhiệm giải trình
đối với công trình, điều này không thể áp dụng hiệu quả cho các LLM.” Cô
nói rằng các tác giả sử dụng LLM theo bất kỳ cách nào trong khi phát triển một
bài báo nên ghi lại việc sử dụng chúng trong phần những phương pháp hoặc lời cảm
ơn, nếu được.
“Chúng tôi sẽ không cho phép AI được liệt kê là tác giả trên một bài
báo mình đã xuất bản và việc sử dụng văn bản do AI tạo ra mà không có trích dẫn
thích hợp có thể bị coi là đạo văn,” Holden Thorp, tổng biên tập của nhóm tạp
chí Science ở Washington DC cho biết.
Sabina Alam, giám đốc phụ trách đạo đức và liêm chính xuất bản nói nhà
xuất bản Taylor & Francis ở London đang xem xét chính sách. Cô đồng ý
rằng các tác giả chịu trách nhiệm về tính hợp lệ và liêm chính tác phẩm của họ,
và nên trích dẫn bất kỳ việc sử dụng LLM nào trong phần lời cảm ơn. Taylor
& Francis chưa nhận được bất kỳ bài nộp nào công nhận ChatGPT là đồng tác
giả.
Giám đốc khoa học Steinn Sigurdsson, nhà thiên văn học tại Đại học Bang
Pennsylvania ở University Park, cho biết hội đồng quản trị của kho lưu trữ bản
thảo khoa học vật lý arXiv đã có các cuộc thảo luận nội bộ và đang bắt đầu đi đến
thống nhất cách tiếp cận việc sử dụng các AI tạo sinh. Anh đồng ý rằng một
công cụ phần mềm không thể là tác giả của một bài nộp, một phần vì nó không thể
đồng thuận với các điều khoản sử dụng và quyền phân phối nội
dung. Sigurdsson không biết bất kỳ bản thảo arXiv nào liệt kê ChatGPT với
tư cách là đồng tác giả và cho biết sắp có hướng dẫn dành cho các tác giả.
Đạo đức của AI tạo sinh
Cá nhân Matt Hodgkinson, nhà quản lý toàn vẹn nghiên cứu tại Văn phòng
Liêm chính Nghiên cứu Vương quốc Anh ở Luân Đôn, cho rằng đã có các nguyên tắc
về quyền tác giả rõ ràng cho thấy ChatGPT không nên được coi là đồng tác giả. Anh
nói, một trong số các nguyên tắc là đồng tác giả cần phải có “đóng góp quan trọng
về mặt học thuật” cho bài viết – điều có lẽ khả thi với các công cụ như
ChatGPT. Nhưng công cụ đó cũng phải có năng lực đồng ý trở thành đồng tác
giả và chịu trách nhiệm về một nghiên cứu – hoặc ít nhất là phần mà nó đã đóng
góp. Anh nói: “Phần thứ hai này mới thực sự là thứ cản trở ý tưởng trao
quyền đồng tác giả cho một công cụ AI.”
Zhavoronkov cho hay khi cố gắng yêu cầu ChatGPT viết các bài báo mang
tính chuyên môn cao hơn bài quan điểm mà anh đã xuất bản, công cụ này đã thất bại.
“ChatGPT thường trả về những câu không nhất thiết đúng và nếu bạn hỏi nó nhiều
lần cùng một câu hỏi, nó sẽ cho bạn những câu trả lời khác nhau”, anh nói. “Vì
vậy, tôi chắc chắn sẽ lo lắng về việc lạm dụng hệ thống trong giới học thuật,
vì giờ đây, những người không có chuyên môn vẫn có thể thử và viết các bài báo
khoa học.”
Nature 613, 620-621 (2023)
doi: https://doi.org/10.1038/d41586-023-00107-z
Huỳnh Thị Thanh Trúc dịch
Nguồn: ChatGPT listed as author on research papers: many scientists disapprove, Nature, Jan 18, 2023.
Tài liệu tham khảo
[1] Kung, T.
H. et al. Preprint
at medRxiv https://doi.org/10.1101/2022.12.19.22283643 (2022).
[2] O’Connor, S. &
ChatGPT Nurse Educ. Pract. 66, 103537 (2023).
[3] ChatGPT &
Zhavoronkov, A. Oncoscience 9, 82–84 (2022).
[4] GPT, Osmanovic Thunström, A. & Steingrimsson, S. Preprint at HAL https://hal.science/hal-03701250 (2022).
---
Bài có liên quan:
