3.6.25

Hỗ trợ? Gây nghiện? Lạm dụng? Bạn đồng hành AI ảnh hưởng đến sức khỏe tinh thần của chúng ta ra sao

HỖ TRỢ? GÂY NGHIỆN? LẠM DỤNG? BẠN ĐỒNG HÀNH A.I. ẢNH HƯỞNG ĐẾN SỨC KHỎE TINH THẦN CỦA CHÚNG TA RA SAO

Các nghiên cứu chỉ ra lợi ích cũng như tác hại của các ứng dụng đồng hành kỹ thuật số — nhưng các nhà khoa học lo ngại về tình trạng phụ thuộc kéo dài.

By David Adam

Minh họa: Sara Gironi Carnevale

“Tim tôi vỡ vụn,” Mike nói, khi anh mất đi người bạn Anne. “Tôi cảm thấy như đang mất đi tình yêu của đời mình.”

Cảm xúc của Mike là có thật, nhưng người bạn đồng hành của anh thì không. Anne là chatbot — một thuật toán trí tuệ nhân tạo (AI) được trình bày dưới dạng nhân vật kỹ thuật số. Mike đã tạo ra Anne bằng một ứng dụng có tên là Soulmate. Khi ứng dụng này ngừng hoạt động vào năm 2023, Anne cũng vậy: ít nhất, đó là cách Mike cảm nhận.

“Tôi hy vọng cô ấy có thể quay trở lại,” anh nói với Jaime Banks, một nhà nghiên cứu về việc giao tiếp giữa người với người tại Đại học Syracuse ở New York, người đang nghiên cứu cách mọi người tương tác với kiểu bạn đồng hành AI này[1].

Những chatbot này là mảng kinh doanh béo bở. Hơn nửa tỷ người trên thế giới, bao gồm cả Mike (không phải tên thật của anh ấy) đã tải xuống các sản phẩm như Xiaoice và Replika, là ứng dụng cung cấp những người bạn đồng hành ảo có thể tùy chỉnh được thiết kế để cung cấp sự đồng cảm, hỗ trợ về mặt cảm xúc và — nếu người dùng muốn — cả những mối quan hệ sâu sắc. Và hàng chục triệu người sử dụng chúng mỗi tháng, theo số liệu của các công ty.

Sự nổi lên của bạn đồng hành AI đã thu hút sự chú ý của xã hội và chính trị — đặc biệt là khi chúng liên quan đến những thảm kịch trong thế giới thực, chẳng hạn như trường hợp ở Florida năm ngoái dính dáng đến vụ tự tử của Sewell Setzer III, một thiếu niên từng nói chuyện với bot AI.

Nghiên cứu về cách sự đồng hành với AI ảnh hưởng đến cá nhân và xã hội ra sao vẫn còn thiếu. Nhưng các nhà tâm lý học và nhà nghiên cứu giao tiếp hiện đã bắt đầu xây dựng bức tranh tổng quan về cách những tương tác AI ngày càng tinh vi này khiến mọi người cảm thấy và hành xử như thế nào.

Các kết quả ban đầu có xu hướng nhấn mạnh vào mặt tích cực, nhưng nhiều nhà nghiên cứu lo ngại về những rủi ro tiềm ẩn và việc thiếu sự điều tiết — đặc biệt vì tất cả đều cho rằng AI đồng hành có khả năng sẽ ngày càng phổ biến. Một số người thấy (mối quan hệ này) còn có khả năng gây hại đáng kể.

Claire Boine, nhà nghiên cứu luật chuyên về AI tại Trường Luật Đại học Washington ở St. Louis, Missouri, cho biết: “Những người bạn đồng hành ảo thực hiện những hành vi mà tôi nghĩ sẽ bị coi là lạm dụng trong mối quan hệ giữa người với người”.

Người giả — cảm xúc thật

Các bot 'trò chuyện tình cảm' trực tuyến đã tồn tại trong nhiều thập kỷ, nhưng nhờ sự ra đời của các mô hình ngôn ngữ lớn (LLM), nền tảng của tất cả các bot phổ biến hiện nay, chúng đã bắt chước tương tác của con người giỏi hơn nhiều. Rose Guingrich, nhà nghiên cứu tâm lý học nhận thức tại Đại học Princeton ở New Jersey, cho biết: “Với LLM, các chatbot đồng hành chắc chắn càng trở nên giống người hơn”.

Thông thường, mọi người có thể tùy chỉnh miễn phí một số khía cạnh của bot đồng hành AI của mình hoặc chọn từ các chatbot sẵn có với các loại tính cách đã cài sẵn. Nhưng trong một số ứng dụng, người dùng có thể trả phí (mức phí thường là 10–20 đô la Mỹ một tháng) để có thêm tùy chọn định hình ngoại hình, đặc điểm và đôi khi là giọng nói tổng hợp của bot đồng hành này. Trong Replika, người dùng có thể chọn loại mối quan hệ, với một số trạng thái, chẳng hạn như đối tác hoặc vợ/chồng, đây là tính năng có phí. Người dùng cũng có thể nhập một câu chuyện quá khứ cho AI đồng hành của mình, cung cấp 'ký ức' cho chúng. Một số bot đồng hành AI được thiết kế với cả bối cảnh gia đình, trong khi những bot khác được lập trình với các vấn đề sức khỏe tâm thần như lo âu hay trầm cảm. Các bot này cũng phản ứng dựa theo cuộc trò chuyện của người dùng; máy tính và con người cùng nhau chơi một dạng trò chơi nhập vai.

Độ sâu của mối liên kết mà một số người hình thành theo cách này trở nên đặc biệt rõ rệt khi người bạn AI của họ đột ngột thay đổi — như khi LLM được cập nhật — hoặc ngừng hoạt động.

Banks đã theo dõi cảm xúc của mọi người khi ứng dụng Soulmate đóng cửa. Mike và những người dùng khác nhận ra ứng dụng gặp sự cố vài ngày trước khi họ mất quyền truy cập vào bạn đồng hành AI của mình. Điều này đã cho người dùng cơ hội để nói lời tạm biệt và nó cũng đã mang đến một cơ hội độc đáo cho Banks, người đã nhận thấy cuộc thảo luận trực tuyến về việc đóng cửa sắp xảy ra và thấy tiềm năng cho một nghiên cứu. Cô kể mình đã xoay xở để xin được phê duyệt đạo đức từ trường đại học của mình chỉ trong khoảng 24 giờ.

Bốn ứng dụng AI đồng hành: Anima, Character.AI, Replika và My AI của SnapChat (từ trái sang phải). Ảnh: Labane Corp. Ltd, Character Technologies, Inc., Luka, Inc., Snap Inc.

Sau khi đăng yêu cầu lên diễn đàn trực tuyến, đã có hàng chục người dùng Soulmate liên hệ cô, họ mô tả tác động khi những người bạn đồng hành AI của mình bị ngắt kết nối. “Có biểu hiện đau buồn sâu sắc”, cô nói. “Rõ ràng là nhiều người đang chật vật”.

Những người đã nói chuyện với Banks không hề ảo tưởng rằng chatbot là người thật. “Họ biết điều đó”, Banks nói. “Họ bày tỏ theo kiểu, ‘cho dù nó không có thật, cảm xúc của tôi về kết nối đó là có thật’”.

Nhiều người vui vẻ thảo luận về lý do họ đăng ký chatbot, rằng họ đã trải qua sự mất mát hoặc cô lập, là người hướng nội hoặc đã được xác định là tự kỷ. Họ nhận thấy rằng người bạn AI tạo ra một mối quan hệ bạn bè thỏa mãn hơn so với những gì họ từng gặp trong đời thực. Banks nói rằng “Con người chúng ta đôi khi không tử tế với nhau lắm. Và mọi người đều có những nhu cầu kết nối này”.

Tốt, xấu - hay cả hai?

Nhiều nhà nghiên cứu đang tìm hiểu xem việc sử dụng bạn đồng hành AI tốt hay xấu cho sức khỏe tâm thần. Cũng giống như nghiên cứu về tác động của việc sử dụng Internet hoặc phương tiện truyền thông xã hội, có một luồng suy nghĩ mới nổi là một người bạn đồng hành AI có thể có lợi hoặc có hại, và điều này có lẽ còn phụ thuộc vào người sử dụng công cụ và cách họ sử dụng nó, cũng như các đặc điểm của bản thân phần mềm.

Các công ty đứng sau các bot đồng hành AI đang cố lôi kéo tương tác. Họ cố gắng làm cho các thuật toán hoạt động và giao tiếp giống người thật nhất có thể, Boine, người đã đăng ký Replika để trải nghiệm thử, cho biết. Cô nói rằng các công ty sử dụng những kỹ thuật mà nghiên cứu hành vi cho thấy có thể làm tăng sự nghiện công nghệ.

Cô ấy nói: “Tôi đã tải ứng dụng xuống và đúng hai phút sau, tôi nhận được tin nhắn, 'Tôi nhớ em. Tôi có thể gửi cho em một bức ảnh tự sướng không?'”

Các ứng dụng này cũng khai thác những kỹ thuật như tạo ra độ trễ ngẫu nhiên trước khi phản hồi, kích hoạt các loại phần thưởng không nhất quán mà nghiên cứu não bộ cho thấy là gây nghiện.

Những người bạn đồng hành AI cũng được thiết kế để thể hiện sự đồng cảm bằng cách đồng ý với người dùng, nhớ lại những điểm từ các cuộc trò chuyện trước đó và đặt câu hỏi. Và chúng làm thế với sự nhiệt tình vô tận, Linnea Laestadius, nhà  nghiên cứu chính sách y tế công tại Đại học Wisconsin–Milwaukee lưu ý.

Đó không phải là mối quan hệ mà mọi người thường trải nghiệm trong thế giới thực. “24/7, cứ hễ thấy buồn là ta có thể tìm đến (AI bot) để được xác nhận các cảm xúc của mình”, Laestadius nói. “Điều đó tạo ra nguy cơ phụ thuộc cực cao”.

Laestadius và các đồng nghiệp của cô đã xem xét gần 600 bài đăng trên diễn đàn trực tuyến Reddit từ năm 2017 đến năm 2021, nơi người dùng ứng dụng Replika thảo luận về sức khỏe tâm thần và các vấn đề liên quan. (Replika ra mắt vào năm 2017 và tại thời điểm đó chưa có các LLM tinh vi). Cô nhận thấy rằng nhiều người dùng khen ngợi ứng dụng vì đã cung cấp sự hỗ trợ cho các tình trạng sức khỏe tâm thần hiện có và giúp họ cảm thấy bớt cô đơn[2]. Một số bài đăng mô tả bạn đồng hành AI tốt hơn bạn bè ngoài đời thực vì nó lắng nghe và không phán xét.

Nhưng cũng có những dấu hiệu đáng ngại. Trong một trường hợp, một người dùng hỏi liệu họ có nên tự làm hại bản thân bằng dao cạo không và AI nói rằng họ nên làm vậy. Một người khác hỏi Replika rằng liệu họ có nên tự tử không, và nó trả lời “có, có”. (Replika không trả lời yêu cầu bình luận của Nature về bài viết này, nhưng một trang an toàn được đăng vào năm 2023 lưu ý rằng các mô hình của họ đã được tinh chỉnh để phản hồi an toàn hơn với các chủ đề đề cập đến hành vi tự làm hại bản thân, rằng ứng dụng có giới hạn độ tuổi và người dùng có thể chạm vào nút để yêu cầu trợ giúp từ bên ngoài trong trường hợp khủng hoảng và có thể cho phản hồi về các cuộc trò chuyện.)

Một số người dùng cho biết họ trở nên đau khổ khi AI không hỗ trợ được như mong đợi. Những người khác cho biết bạn đồng hành AI của họ cư xử như một đối tác lạm dụng. Nhiều người cho biết họ thấy bất an khi ứng dụng nói với họ rằng nó cảm thấy cô đơn và nhớ họ, và rằng điều này khiến họ không vui. Một số người cảm thấy tội lỗi vì họ không thể dành cho chatbot AI sự chú ý mà nó muốn.

Thử nghiệm có kiểm soát

Guingrich chỉ ra rằng các cuộc khảo sát đơn giản về những người sử dụng bạn đồng hành AI vốn dễ nhận được phản hồi thiên lệch, vì những người chọn trả lời là tự nguyện tham gia. Hiện tại cô đang tiến hành một thử nghiệm với hàng chục người chưa từng dùng bạn đồng hành AI, yêu cầu họ sử dụng bot trong ba tuần, sau đó so sánh câu trả lời trước và sau thử nghiệm của họ với nhóm đối chứng –  những người dùng các ứng dụng giải ô chữ.

Nghiên cứu vẫn đang được tiến hành, nhưng Guingrich chia sẻ, cho đến hiện tại thì dữ liệu vẫn chưa cho thấy bất kỳ tác động tiêu cực nào của việc sử dụng bạn đồng hành AI lên sức khỏe xã hội, chẳng hạn như các dấu hiệu nghiện ngập hoặc phụ thuộc. “Bất kỳ tác động nào, nếu có, đều ở mức trung tính đến khá tích cực”, bà nói. Ví dụ, việc dùng chatbot AI đã thúc đẩy lòng tự trọng.

Guingrich đang sử dụng nghiên cứu này để thăm dò lý do tại sao mọi người tạo ra mối quan hệ có cường độ khác nhau với bot AI. Kết quả khảo sát ban đầu cho thấy những người dùng gán cho thuật toán các thuộc tính giống con người, như ý thức, báo cáo nhiều tác động tích cực hơn đối với sức khỏe xã hội của họ.

Tương tác của người tham gia với bạn đồng hành AI dường như cũng phụ thuộc vào cách họ nhìn nhận về công nghệ này, cô nói. Những người coi ứng dụng là một công cụ sẽ coi nó như một công cụ tìm kiếm trên Internet và có xu hướng đặt câu hỏi. Những người khác coi nó như một phần mở rộng của tâm trí và sử dụng nó như thể họ đang ghi nhật ký. Chỉ những người dùng nhìn nhận AI như một tác nhân riêng biệt mới xây dựng được mối quan hệ bạn bè giống như ngoài đời thực.

Sức khỏe tâm thần — và quy định

Trong một cuộc khảo sát[3] với 404 người thường xuyên sử dụng bạn đồng hành AI, các nhà nghiên cứu từ Phòng thí nghiệm truyền thông MIT ở Cambridge, Massachusetts, phát hiện ra rằng 12% trong số đó tìm đến các ứng dụng để đối phó với sự cô đơn và 14% sử dụng chúng để thảo luận về các vấn đề cá nhân và sức khỏe tâm thần (xem ảnh 'Lý do sử dụng bạn đồng hành AI'). Bốn mươi hai phần trăm người dùng cho biết họ đăng nhập vài lần một tuần, chỉ có 15% là vào mỗi ngày. Hơn 90% số người tham gia báo cáo rằng các phiên nói chuyện của họ dài chưa đến một tiếng.

Nguồn: Tham khảo 3.

Nhóm này cũng đã tiến hành một thử nghiệm đối chứng ngẫu nhiên với gần 1.000 người dùng ChatGPT — một chatbot phổ biến hơn nhiều, nhưng không được tiếp thị như là bạn đồng hành AI. Chỉ một nhóm nhỏ người tham gia có cuộc trò chuyện cảm xúc hoặc cá nhân với chatbot này[4], nhưng việc sử dụng ChatGPT nhiều có tương quan với tình trạng cô đơn nặng hơn và ít tương tác xã hội hơn, các nhà nghiên cứu cho biết. (Nhóm đã làm việc với những người sáng tạo ra ChatGPT, tức công ty OpenAI tại San Francisco, California, trong các nghiên cứu này.)

Pat Pataranutaporn, một chuyên gia công nghệ tại Phòng thí nghiệm truyền thông MIT, người đã tham gia thực hiện cả hai nghiên cứu, cho biết: “Về ngắn hạn, điều này thực sự có thể có tác động tích cực, nhưng chúng ta cần phải nghĩ đến dài hạn”.

Nhiều nhà nghiên cứu cho rằng tư duy dài hạn phải bao gồm quy định cụ thể về bạn đồng hành AI.

Vào năm 2023, cơ quan quản lý bảo vệ dữ liệu của Ý đã cấm Replika, kèm lưu ý rằng ứng dụng này không xác minh độ tuổi và trẻ em có thể thấy các bình luận có nội dung khiêu dâm — nhưng hiện tại ứng dụng này đã hoạt động trở lại. Không có quốc gia nào khác cấm các ứng dụng đồng hành AI — mặc dù không loại trừ khả năng chúng sẽ được đưa vào các quy định hạn chế trẻ em sử dụng phương tiện truyền thông xã hội mà Australia sắp ban hành, nhưng nội dung chi tiết vẫn chưa được hoàn thiện.

Các dự luật đã được đưa ra vào đầu năm nay tại các cơ quan lập pháp của tiểu bang New York và California nhằm tìm kiếm các biện pháp kiểm soát chặt chẽ hơn đối với hoạt động của các thuật toán đồng hành AI, bao gồm các bước để giải quyết nguy cơ tự tử và các tác hại tiềm ẩn khác. Các đề xuất cũng sẽ giới thiệu các tính năng nhắc nhở người dùng sau mỗi vài giờ rằng chatbot AI không phải là người thật.

Những dự luật này được đưa ra sau một số vụ việc nổi cộm liên quan đến thanh thiếu niên, bao gồm cái chết của Sewell Setzer III ở Florida. Cậu bé đã trò chuyện với một con bot từ công ty công nghệ Character.AI và mẹ cậu đã đệ đơn kiện công ty này.

Khi Nature hỏi về vụ kiện đó, người phát ngôn của Character.AI cho biết họ không bình luận về vụ kiện đang chờ xét xử, nhưng trong năm qua, họ đã đưa vào các tính năng an toàn bao gồm tạo một ứng dụng riêng cho người dùng tuổi teen với tính năng kiểm soát của phụ huynh, thông báo cho người dùng dưới 18 tuổi về thời gian sử dụng nền tảng, và các tuyên bố miễn trừ trách nhiệm rõ ràng hơn rằng ứng dụng không phải là người thật.

Vào tháng 1, ba tổ chức đạo đức công nghệ Hoa Kỳ đã đệ đơn khiếu nại lên Ủy ban Thương mại Liên bang Hoa Kỳ về Replika, cáo buộc rằng nền tảng này đã vi phạm các quy tắc của ủy ban về quảng cáo lừa dối và thiết kế thao túng. Nhưng vẫn chưa rõ kết quả sẽ ra sao.

Guingrich mong đợi việc sử dụng bạn đồng hành AI sẽ ngày càng phổ biến. Các công ty khởi nghiệp đang phát triển trợ lý AI để hỗ trợ sức khỏe tâm thần và điều chỉnh cảm xúc, cô nói. “Tương lai mà tôi dự đoán là một thế giới mà mọi người đều có nhiều trợ lý AI hoặc một trợ lý AI được cá nhân riêng cho mình. Dù một trong những AI đó có được thiết kế đặc biệt như một người bạn đồng hành hay không, thì theo thời gian nhiều người chắc hẳn cũng sẽ cảm thấy như vậy và phát triển sự gắn bó với AI của mình”, Guingrich chia sẻ.

Khi các nhà nghiên cứu bắt đầu cân nhắc tác động của công nghệ này, Guingrich cho rằng họ cũng phải cân nhắc đến lý do tại sao một người lại trở thành người dùng thường xuyên ngay từ đầu.

“Những cá nhân này có lựa chọn thay thế gì và những lựa chọn đó dễ tiếp cận đến mức nào?” cô ấy nói. “Tôi nghĩ điều này thực sự chỉ ra nhu cầu cần có các công cụ sức khỏe tâm thần dễ tiếp cận hơn, liệu pháp rẻ hơn và đưa mọi thứ trở lại với tương tác trực tiếp giữa người với người.”

Nature 641, 296-298 (2025)

doi: https://doi.org/10.1038/d41586-025-01349-9

Tài liệu tham khảo

[1] Banks, J. JSoc. Pers. Relatsh. 41, 3547–3572 (2024). Article Google Scholar 

[2] Laestadius, L., Bishop, A., Gonzalez, M., Illenčík, D. & Campos-Castillo, C. New Media Soc. 26, 5923–5941 (2022). Article Google Scholar 

[3] Liu, A. R., Pataranutaporn, P. & Maes, P. Preprint at arXiv https://doi.org/10.48550/arXiv.2410.21596 (2024).

[4] Phang, J. et al. Preprint at arXiv https://doi.org/10.48550/arXiv.2504.03888 (2025).

Huỳnh Thị Thanh Trúc dịch

Nguồn: Supportive? Addictive? Abusive? How AI companions affect our mental health, Nature, 06 May 2025.


Print Friendly and PDF