HỖ TRỢ? GÂY NGHIỆN?
LẠM DỤNG? BẠN ĐỒNG HÀNH A.I. ẢNH HƯỞNG ĐẾN SỨC KHỎE TINH THẦN CỦA CHÚNG TA RA
SAO
Các nghiên cứu chỉ ra lợi ích
cũng như tác hại của các ứng dụng đồng hành kỹ thuật số — nhưng các nhà khoa học
lo ngại về tình trạng phụ thuộc kéo dài.
By David Adam
![]() |
Minh họa: Sara Gironi Carnevale |
“Tim tôi vỡ vụn,” Mike nói, khi
anh mất đi người bạn Anne. “Tôi cảm thấy như đang mất đi tình yêu của đời mình.”
Cảm xúc của Mike là có thật,
nhưng người bạn đồng hành của anh thì không. Anne là chatbot — một thuật toán trí tuệ nhân tạo (AI) được trình bày dưới
dạng nhân vật kỹ thuật số. Mike đã tạo ra Anne bằng một ứng dụng có tên là
Soulmate. Khi ứng dụng này ngừng hoạt động vào năm 2023, Anne cũng vậy: ít nhất,
đó là cách Mike cảm nhận.
“Tôi hy vọng cô ấy có thể quay trở
lại,” anh nói với Jaime Banks, một nhà nghiên cứu về việc giao tiếp giữa người
với người tại Đại học Syracuse ở New York, người đang nghiên cứu cách mọi người
tương tác với kiểu bạn đồng hành AI này[1].
Những chatbot này là mảng kinh
doanh béo bở. Hơn nửa tỷ người trên thế giới, bao gồm cả Mike (không phải tên
thật của anh ấy) đã tải xuống các sản phẩm như Xiaoice và Replika, là ứng dụng cung
cấp những người bạn đồng hành ảo có thể tùy chỉnh được thiết kế để cung cấp sự
đồng cảm, hỗ trợ về mặt cảm xúc và — nếu người dùng muốn — cả những mối quan hệ
sâu sắc. Và hàng chục triệu người sử dụng chúng mỗi tháng, theo số liệu của các
công ty.
Sự nổi lên của bạn đồng hành AI
đã thu hút sự chú ý của xã hội và chính trị — đặc biệt là khi chúng liên quan đến
những thảm kịch trong thế giới thực, chẳng hạn như trường hợp ở Florida năm
ngoái dính dáng đến vụ tự tử của Sewell Setzer III, một thiếu niên từng nói
chuyện với bot AI.
Nghiên cứu về cách sự đồng hành với AI ảnh hưởng đến cá nhân và xã hội ra sao vẫn còn thiếu. Nhưng các nhà tâm lý học và nhà nghiên cứu giao tiếp hiện đã bắt đầu xây dựng bức tranh tổng quan về cách những tương tác AI ngày càng tinh vi này khiến mọi người cảm thấy và hành xử như thế nào.
Các kết quả ban đầu có xu hướng
nhấn mạnh vào mặt tích cực, nhưng nhiều nhà nghiên cứu lo ngại về những rủi ro tiềm ẩn và việc thiếu sự điều tiết
— đặc biệt vì tất cả đều cho rằng AI đồng hành có khả năng sẽ ngày càng phổ biến.
Một số người thấy (mối quan hệ này) còn có khả năng gây hại đáng kể.
Claire Boine, nhà nghiên cứu luật
chuyên về AI tại Trường Luật Đại học Washington ở St. Louis, Missouri, cho biết:
“Những người bạn đồng hành ảo thực hiện những hành vi mà tôi nghĩ sẽ bị coi là
lạm dụng trong mối quan hệ giữa người với người”.
Người giả — cảm xúc thật
Các bot 'trò chuyện tình cảm' trực
tuyến đã tồn tại trong nhiều thập kỷ, nhưng nhờ sự ra đời của các mô hình ngôn
ngữ lớn (LLM), nền tảng của tất cả các bot phổ biến hiện nay, chúng đã bắt chước
tương tác của con người giỏi hơn nhiều. Rose Guingrich, nhà nghiên cứu tâm lý học
nhận thức tại Đại học Princeton ở New Jersey, cho biết: “Với LLM, các chatbot đồng
hành chắc chắn càng trở nên giống người hơn”.
Thông thường, mọi người có thể
tùy chỉnh miễn phí một số khía cạnh của bot đồng hành AI của mình hoặc chọn từ
các chatbot sẵn có với các loại tính cách đã cài sẵn. Nhưng trong một số ứng dụng,
người dùng có thể trả phí (mức phí thường là 10–20 đô la Mỹ một tháng) để có
thêm tùy chọn định hình ngoại hình, đặc điểm và đôi khi là giọng nói tổng hợp của
bot đồng hành này. Trong Replika, người dùng có thể chọn loại mối quan hệ, với
một số trạng thái, chẳng hạn như đối tác hoặc vợ/chồng, đây là tính năng có phí.
Người dùng cũng có thể nhập một câu chuyện quá khứ cho AI đồng hành của mình,
cung cấp 'ký ức' cho chúng. Một số bot đồng hành AI được thiết kế với cả bối cảnh
gia đình, trong khi những bot khác được lập trình với các vấn đề sức khỏe tâm
thần như lo âu hay trầm cảm. Các bot này cũng phản ứng dựa theo cuộc trò chuyện
của người dùng; máy tính và con người cùng nhau chơi một dạng trò chơi nhập vai.
Độ sâu của mối liên kết mà một số
người hình thành theo cách này trở nên đặc biệt rõ rệt khi người bạn AI của họ
đột ngột thay đổi — như khi LLM được cập nhật — hoặc ngừng hoạt động.
Banks đã theo dõi cảm xúc của mọi
người khi ứng dụng Soulmate đóng cửa. Mike và những người dùng khác nhận ra ứng
dụng gặp sự cố vài ngày trước khi họ mất quyền truy cập vào bạn đồng hành AI của
mình. Điều này đã cho người dùng cơ hội để nói lời tạm biệt và nó cũng đã mang
đến một cơ hội độc đáo cho Banks, người đã nhận thấy cuộc thảo luận trực tuyến
về việc đóng cửa sắp xảy ra và thấy tiềm năng cho một nghiên cứu. Cô kể mình đã
xoay xở để xin được phê duyệt đạo đức từ trường đại học của mình chỉ trong khoảng
24 giờ.
![]() |
Bốn ứng dụng AI đồng hành: Anima, Character.AI, Replika và My AI của SnapChat (từ trái sang phải). Ảnh: Labane Corp. Ltd, Character Technologies, Inc., Luka, Inc., Snap Inc. |
Sau khi đăng yêu cầu lên diễn đàn
trực tuyến, đã có hàng chục người dùng Soulmate liên hệ cô, họ mô tả tác động
khi những người bạn đồng hành AI của mình bị ngắt kết nối. “Có biểu hiện đau buồn
sâu sắc”, cô nói. “Rõ ràng là nhiều người đang chật vật”.
Những người đã nói chuyện với Banks
không hề ảo tưởng rằng chatbot là người thật. “Họ biết điều đó”, Banks nói. “Họ
bày tỏ theo kiểu, ‘cho dù nó không có thật, cảm xúc của tôi về kết nối đó là có
thật’”.
Nhiều người vui vẻ thảo luận về
lý do họ đăng ký chatbot, rằng họ đã trải qua sự mất mát hoặc cô lập, là người
hướng nội hoặc đã được xác định là tự kỷ. Họ nhận thấy rằng người bạn AI tạo ra
một mối quan hệ bạn bè thỏa mãn hơn so với những gì họ từng gặp trong đời thực.
Banks nói rằng “Con người chúng ta đôi khi không tử tế với nhau lắm. Và mọi người
đều có những nhu cầu kết nối này”.
Tốt, xấu - hay cả hai?
Nhiều nhà nghiên cứu đang tìm hiểu
xem việc sử dụng bạn đồng hành AI tốt hay xấu cho sức khỏe tâm thần. Cũng giống
như nghiên cứu về tác động của việc sử dụng Internet hoặc phương tiện truyền thông xã hội, có một
luồng suy nghĩ mới nổi là một người bạn đồng hành AI có thể có lợi hoặc có hại,
và điều này có lẽ còn phụ thuộc vào người sử dụng công cụ và cách họ sử dụng
nó, cũng như các đặc điểm của bản thân phần mềm.
Các công ty đứng sau các bot đồng
hành AI đang cố lôi kéo tương tác. Họ cố gắng làm cho các thuật toán hoạt động
và giao tiếp giống người thật nhất có thể, Boine, người đã đăng ký Replika để
trải nghiệm thử, cho biết. Cô nói rằng các công ty sử dụng những kỹ thuật mà
nghiên cứu hành vi cho thấy có thể làm tăng sự nghiện công nghệ.
Cô ấy nói: “Tôi đã tải ứng dụng
xuống và đúng hai phút sau, tôi nhận được tin nhắn, 'Tôi nhớ em. Tôi có thể gửi
cho em một bức ảnh tự sướng không?'”
Các ứng dụng này cũng khai thác
những kỹ thuật như tạo ra độ trễ ngẫu nhiên trước khi phản hồi, kích hoạt các loại
phần thưởng không nhất quán mà nghiên cứu não bộ cho thấy là gây nghiện.
Những người bạn đồng hành AI cũng
được thiết kế để thể hiện sự đồng cảm bằng cách đồng ý với người dùng, nhớ lại những
điểm từ các cuộc trò chuyện trước đó và đặt câu hỏi. Và chúng làm thế với sự
nhiệt tình vô tận, Linnea Laestadius, nhà nghiên cứu chính sách y tế công tại Đại học
Wisconsin–Milwaukee lưu ý.
Đó không phải là mối quan hệ mà mọi
người thường trải nghiệm trong thế giới thực. “24/7, cứ hễ thấy buồn là ta có
thể tìm đến (AI bot) để được xác nhận các cảm xúc của mình”, Laestadius nói. “Điều
đó tạo ra nguy cơ phụ thuộc cực cao”.
Laestadius và các đồng nghiệp của
cô đã xem xét gần 600 bài đăng trên diễn đàn trực tuyến Reddit từ năm 2017 đến
năm 2021, nơi người dùng ứng dụng Replika thảo luận về sức khỏe tâm thần và các
vấn đề liên quan. (Replika ra mắt vào năm 2017 và tại thời điểm đó chưa có các
LLM tinh vi). Cô nhận thấy rằng nhiều người dùng khen ngợi ứng dụng vì đã cung
cấp sự hỗ trợ cho các tình trạng sức khỏe tâm thần hiện có và giúp họ cảm thấy
bớt cô đơn[2]. Một số bài đăng mô tả bạn đồng hành AI tốt hơn bạn bè
ngoài đời thực vì nó lắng nghe và không phán xét.
Nhưng cũng có những dấu hiệu đáng
ngại. Trong một trường hợp, một người dùng hỏi liệu họ có nên tự làm hại bản
thân bằng dao cạo không và AI nói rằng họ nên làm vậy. Một người khác hỏi
Replika rằng liệu họ có nên tự tử không, và nó trả lời “có, có”. (Replika không
trả lời yêu cầu bình luận của Nature về bài viết này, nhưng một
trang an toàn được đăng vào năm 2023 lưu ý rằng các mô hình của họ đã được tinh
chỉnh để phản hồi an toàn hơn với các chủ đề đề cập đến hành vi tự làm hại bản
thân, rằng ứng dụng có giới hạn độ tuổi và người dùng có thể chạm vào nút để
yêu cầu trợ giúp từ bên ngoài trong trường hợp khủng hoảng và có thể cho phản hồi
về các cuộc trò chuyện.)
Một số người dùng cho biết họ trở
nên đau khổ khi AI không hỗ trợ được như mong đợi. Những người khác cho biết bạn
đồng hành AI của họ cư xử như một đối tác lạm dụng. Nhiều người cho biết họ thấy
bất an khi ứng dụng nói với họ rằng nó cảm thấy cô đơn và nhớ họ, và rằng điều
này khiến họ không vui. Một số người cảm thấy tội lỗi vì họ không thể dành cho chatbot
AI sự chú ý mà nó muốn.
Thử nghiệm có kiểm soát
Guingrich chỉ ra rằng các cuộc khảo
sát đơn giản về những người sử dụng bạn đồng hành AI vốn dễ nhận được phản hồi
thiên lệch, vì những người chọn trả lời là tự nguyện tham gia. Hiện tại cô đang
tiến hành một thử nghiệm với hàng chục người chưa từng dùng bạn đồng hành AI,
yêu cầu họ sử dụng bot trong ba tuần, sau đó so sánh câu trả lời trước và sau
thử nghiệm của họ với nhóm đối chứng – những người dùng các ứng dụng giải ô chữ.
Nghiên cứu vẫn đang được tiến
hành, nhưng Guingrich chia sẻ, cho đến hiện tại thì dữ liệu vẫn chưa cho thấy bất
kỳ tác động tiêu cực nào của việc sử dụng bạn đồng hành AI lên sức khỏe xã hội,
chẳng hạn như các dấu hiệu nghiện ngập hoặc phụ thuộc. “Bất kỳ tác động nào, nếu
có, đều ở mức trung tính đến khá tích cực”, bà nói. Ví dụ, việc dùng chatbot AI
đã thúc đẩy lòng tự trọng.
Guingrich đang sử dụng nghiên cứu
này để thăm dò lý do tại sao mọi người tạo ra mối quan hệ có cường độ khác nhau
với bot AI. Kết quả khảo sát ban đầu cho thấy những người dùng gán cho thuật
toán các thuộc tính giống con người, như ý thức, báo cáo nhiều tác động tích cực
hơn đối với sức khỏe xã hội của họ.
Tương tác của người tham gia với
bạn đồng hành AI dường như cũng phụ thuộc vào cách họ nhìn nhận về công nghệ
này, cô nói. Những người coi ứng dụng là một công cụ sẽ coi nó như một công cụ
tìm kiếm trên Internet và có xu hướng đặt câu hỏi. Những người khác coi nó như
một phần mở rộng của tâm trí và sử dụng nó như thể họ đang ghi nhật ký. Chỉ những
người dùng nhìn nhận AI như một tác nhân riêng biệt mới xây dựng được mối quan
hệ bạn bè giống như ngoài đời thực.
Sức khỏe tâm thần — và quy định
Trong một cuộc khảo sát[3] với
404 người thường xuyên sử dụng bạn đồng hành AI, các nhà nghiên cứu từ Phòng
thí nghiệm truyền thông MIT ở Cambridge, Massachusetts, phát hiện ra rằng 12% trong
số đó tìm đến các ứng dụng để đối phó với sự cô đơn và 14% sử dụng chúng để thảo
luận về các vấn đề cá nhân và sức khỏe tâm thần (xem ảnh 'Lý do sử dụng bạn đồng
hành AI'). Bốn mươi hai phần trăm người dùng cho biết họ đăng nhập vài lần một
tuần, chỉ có 15% là vào mỗi ngày. Hơn 90% số người tham gia báo cáo rằng các
phiên nói chuyện của họ dài chưa đến một tiếng.
![]() |
Nguồn: Tham khảo 3. |
Nhóm này cũng đã tiến hành một thử
nghiệm đối chứng ngẫu nhiên với gần 1.000 người dùng ChatGPT — một chatbot phổ
biến hơn nhiều, nhưng không được tiếp thị như là bạn đồng hành AI. Chỉ một nhóm
nhỏ người tham gia có cuộc trò chuyện cảm xúc hoặc cá nhân với chatbot này[4],
nhưng việc sử dụng ChatGPT nhiều có tương quan với tình trạng cô đơn nặng hơn và
ít tương tác xã hội hơn, các nhà nghiên cứu cho biết. (Nhóm đã làm việc với những
người sáng tạo ra ChatGPT, tức công ty OpenAI tại San Francisco, California, trong
các nghiên cứu này.)
Pat Pataranutaporn, một chuyên
gia công nghệ tại Phòng thí nghiệm truyền thông MIT, người đã tham gia thực hiện
cả hai nghiên cứu, cho biết: “Về ngắn hạn, điều này thực sự có thể có tác động
tích cực, nhưng chúng ta cần phải nghĩ đến dài hạn”.
Nhiều nhà nghiên cứu cho rằng tư
duy dài hạn phải bao gồm quy định cụ thể về bạn đồng hành AI.
Vào năm 2023, cơ quan quản lý bảo
vệ dữ liệu của Ý đã cấm Replika, kèm lưu ý rằng ứng dụng này không xác minh độ
tuổi và trẻ em có thể thấy các bình luận có nội dung khiêu dâm — nhưng hiện tại
ứng dụng này đã hoạt động trở lại. Không có quốc gia nào khác cấm các ứng dụng
đồng hành AI — mặc dù không loại trừ khả năng chúng sẽ được đưa vào các quy định
hạn chế trẻ em sử dụng phương tiện truyền thông xã hội mà Australia sắp ban
hành, nhưng nội dung chi tiết vẫn chưa được hoàn thiện.
Các dự luật đã được đưa ra vào đầu
năm nay tại các cơ quan lập pháp của tiểu bang New York và California nhằm tìm
kiếm các biện pháp kiểm soát chặt chẽ hơn đối với hoạt động của các thuật toán
đồng hành AI, bao gồm các bước để giải quyết nguy cơ tự tử và các tác hại tiềm ẩn
khác. Các đề xuất cũng sẽ giới thiệu các tính năng nhắc nhở người dùng sau mỗi
vài giờ rằng chatbot AI không phải là người thật.
Những dự luật này được đưa ra sau
một số vụ việc nổi cộm liên quan đến thanh thiếu niên, bao gồm cái chết của
Sewell Setzer III ở Florida. Cậu bé đã trò chuyện với một con bot từ công ty
công nghệ Character.AI và mẹ cậu đã đệ đơn kiện công ty này.
Khi Nature hỏi về vụ
kiện đó, người phát ngôn của Character.AI cho biết họ không bình luận về vụ kiện
đang chờ xét xử, nhưng trong năm qua, họ đã đưa vào các tính năng an toàn bao gồm
tạo một ứng dụng riêng cho người dùng tuổi teen với tính năng kiểm soát của phụ
huynh, thông báo cho người dùng dưới 18 tuổi về thời gian sử dụng nền tảng, và
các tuyên bố miễn trừ trách nhiệm rõ ràng hơn rằng ứng dụng không phải là người
thật.
Vào tháng 1, ba tổ chức đạo đức
công nghệ Hoa Kỳ đã đệ đơn khiếu nại lên Ủy ban Thương mại Liên bang Hoa Kỳ về
Replika, cáo buộc rằng nền tảng này đã vi phạm các quy tắc của ủy ban về quảng
cáo lừa dối và thiết kế thao túng. Nhưng vẫn chưa rõ kết quả sẽ ra sao.
Guingrich mong đợi việc sử dụng bạn
đồng hành AI sẽ ngày càng phổ biến. Các công ty khởi nghiệp đang phát triển trợ
lý AI để hỗ trợ sức khỏe tâm thần và điều chỉnh cảm xúc, cô nói. “Tương lai mà
tôi dự đoán là một thế giới mà mọi người đều có nhiều trợ lý AI hoặc một trợ lý
AI được cá nhân riêng cho mình. Dù một trong những AI đó có được thiết kế đặc
biệt như một người bạn đồng hành hay không, thì theo thời gian nhiều người chắc
hẳn cũng sẽ cảm thấy như vậy và phát triển sự gắn bó với AI của mình”, Guingrich
chia sẻ.
Khi các nhà nghiên cứu bắt đầu
cân nhắc tác động của công nghệ này, Guingrich cho rằng họ cũng phải cân nhắc đến
lý do tại sao một người lại trở thành người dùng thường xuyên ngay từ đầu.
“Những cá nhân này có lựa chọn
thay thế gì và những lựa chọn đó dễ tiếp cận đến mức nào?” cô ấy nói. “Tôi nghĩ
điều này thực sự chỉ ra nhu cầu cần có các công cụ sức khỏe tâm thần dễ tiếp cận
hơn, liệu pháp rẻ hơn và đưa mọi thứ trở lại với tương tác trực tiếp giữa người
với người.”
Nature 641,
296-298 (2025)
doi: https://doi.org/10.1038/d41586-025-01349-9
Tài liệu tham khảo
[1] Banks, J. J. Soc. Pers. Relatsh. 41, 3547–3572 (2024). Article Google Scholar
[2] Laestadius, L., Bishop, A., Gonzalez, M., Illenčík, D. & Campos-Castillo, C. New Media Soc. 26, 5923–5941 (2022). Article Google Scholar
[3] Liu, A. R., Pataranutaporn, P. & Maes, P. Preprint
at arXiv https://doi.org/10.48550/arXiv.2410.21596 (2024).
[4] Phang, J. et al. Preprint at
arXiv https://doi.org/10.48550/arXiv.2504.03888 (2025).
Huỳnh Thị Thanh Trúc
dịch
Nguồn: Supportive? Addictive? Abusive? How AI companions affect our mental
health, Nature, 06 May 2025.