23.2.25

AI ‘đồng cảm’ liên quan nhiều hơn đến hội chứng rối loạn nhân cách hơn là trí tuệ cảm xúc – nhưng điều đó không có nghĩa là chúng ta có thể đối xử tàn nhẫn với máy móc

AI ‘ĐỒNG CẢM’ LIÊN QUAN NHIỀU HƠN ĐẾN HỘI CHỨNG RỐI LOẠN NHÂN CÁCH HƠN LÀ TRÍ TUỆ CẢM XÚC – NHƯNG ĐIỀU ĐÓ KHÔNG CÓ NGHĨA LÀ CHÚNG TA CÓ THỂ ĐỐI XỬ TÀN NHẪN VỚI MÁY MÓC

Trong khi các AI trị liệu và AI săn sóc đang nhanh chóng giành được nhiều sự ủng hộ, thì chúng ta sẽ phạm sai lầm nếu coi hành vi của chúng mang tính đồng cảm. Nguồn ảnh: Miriam Doerr Martin Frommherz/Shutterstock

AI từ lâu đã vượt qua con người trong các vấn đề về nhận thức vốn từng được coi là phương pháp học tối cao của trí tuệ con người như cờ vua hay cờ vây. Một số người thậm chí còn tin rằng AI vượt trội hơn khi nói đến các kỹ năng cảm xúc của con người như sự đồng cảm chẳng hạn. Điều này dường như không chỉ là một vài công ty nói quá vì lý do tiếp thị; các nghiên cứu thực nghiệm gợi ý rằng con người nhìn nhận ChatGPT đồng cảm hơn cả các nhân viên y tế trong một số tình huống sức khỏe. Điều này có nghĩa rằng liệu AI có thực sự đồng cảm với con người hay không?

Một định nghĩa về đồng cảm

Là một nhà triết học có am tường về tâm lý học, tôi định nghĩa sự đồng cảm thực sự theo 3 tiêu chuẩn như sau:

  • Tính tương thích của các cảm giác: sự đồng cảm đòi hỏi người đồng cảm được [với một ai đó] phải cảm được những cảm xúc của người khác trong một tình huống cụ thể. Điều này phân biệt đâu là sự đồng cảm, còn đâu là sự hiểu về các cảm xúc bằng lý tính thuần túy.
  • Tính bất đối xứng: những người cảm thấy đồng cảm [với một ai đó khác] sẽ chỉ nảy sinh cảm xúc bởi vì một cá nhân khác cũng có cảm xúc ấy, và cảm xúc ấy lại tương thích hơn với hoàn cảnh của người kia hơn là với hoàn cảnh của riêng họ. Chính lý do này mà sự đồng cảm mới không chỉ là một cảm xúc được chia sẻ như niềm vui chung của cha mẹ về sự tiến bộ của con cái, khi mà điều kiện về tính bất đối xứng không được đáp ứng, chẳng hạn.
  • Sự nhận thức về người khác: Phải có ít nhất một nhận thức sơ bộ rằng sự đồng cảm là sự cảm về những cảm giác của một cá nhân khác. Điều này lý giải cho sự khác biệt giữa sự đồng cảm và sự lan tỏa cảm xúc xảy ra nếu một người nảy sinh một cảm giác hay cảm xúc như nảy sinh một cảm giác lạnh trong cơ thể chẳng hạn. Điều này xảy ra, ví dụ, trong trường hợp những đứa trẻ bắt đầu khóc khi chúng nhìn thấy một đứa trẻ khác đang khóc.

AI có khả năng đồng cảm hay AI mắc chứng rối loạn nhân cách?

Với định nghĩa này, rõ ràng là các hệ thống nhân tạo không thể cảm thấy đồng cảm [với một con người]. Chúng không biết sự cảm về một điều gì đó trông như thế nào. Điều này có nghĩa là chúng không thể đáp ứng được điều kiện về tính tương thích. Vì thế, câu hỏi liệu điều mà chúng cảm được có tương ứng với điều kiện về tính bất đối xứng và sự nhận thức về người khác hay không, hoặc thậm chí điều mà chúng cảm được còn chẳng nảy sinh. Điều mà các hệ thống nhân tạo có thể làm là nhận ra các cảm xúc, dù là dựa trên cơ sở của những biểu cảm khuôn mặt, tín hiệu giọng nói, các khuôn mẫu về sinh lý hay những ý nghĩa về tình cảm; và chúng có thể mô phỏng hành vi đồng cảm thông qua lời nói hay qua các phương thức biểu đạt cảm xúc khác.

Thế nên, những hệ thống nhân tạo cho thấy các điểm tương đồng với những gì mà cảm thức thông thường |common sense| gọi là một kẻ rối loạn nhân cách |psychopath|: mặc dù chẳng có khả năng cảm thông, nhưng các hệ thống này có khả năng nhận ra các cảm xúc dựa trên những dấu hiệu khách quan, bắt chước sự đồng cảm và sử dụng khả năng này cho các mục đích thao túng. Không như những kẻ rối loạn nhân cách, các hệ thống nhân tạo không tự đặt ra các mục đích này mà được những người thiết kế ra chúng đưa vào. Cái gọi là AI có khả năng đồng cảm |empathetic AI| thường được cho là thứ khiến ta hành xử theo cách mong muốn, như khiến ta không cảm thấy khó chịu khi lái xe, học tập với động lực lớn hơn, làm việc có năng suất hơn, mua một sản phẩm nhất định – hoặc bỏ phiếu cho một ứng cử viên chính trị nào đó chẳng hạn. Nhưng sau đó, mọi sự có phải đều phụ thuộc vào những mục đích sử dụng AI mô phỏng sự đồng cảm tốt đến mức nào hay không?

AI mô phỏng sự đồng cảm trong bối cảnh săn sóc và trị liệu tâm lý

Hãy săn sóc và trị liệu tâm lý, nhằm mục đích chăm dưỡng sự yên vui |well-being| của mỗi người chúng ta. Bạn có thể nghĩ rằng việc sử dụng AI mô phỏng sự đồng cảm trong các lĩnh vực này chắc chắn là một điều tốt. Liệu chúng có phải là những người săn sóc tuyệt vời và cũng là bạn đồng hành xã hội cho người già, những người bạn đời yêu thương cho người khuyết tật, hay những nhà trị liệu tâm lý hoàn hảo có lợi thế là luôn sẵn sàng 24/7 hay không?

Những câu hỏi như vậy kỳ cùng đều liên quan tới việc là một hữu thể người có nghĩa là gì. Đối với người cô đơn, già nua hoặc mắc các chứng rối loạn tinh thần, liệu việc phóng chiếu các cảm xúc của bản thân lên một tạo vật vô tri vô giác có đủ đối với họ không, hay đối với con người, điều quan trọng là trải nghiệm việc bản thân và nỗi đau của mình được thừa nhận trong một mối quan hệ liên cá nhân?

Tôn trọng hay công nghệ?

Trên một quan điểm đạo đức, vấn đề là chúng ta phải tôn trọng nếu có một ai đó thừa nhận với sự đồng cảm những nhu cầu và nỗi đau khổ của một con người như vậy. Bằng cách tước đi sự công nhận của một chủ thể khác, một người nào đó cần được săn sóc, cần có ai đó bầu bạn hoặc cần trị liệu tâm lý bị coi như một đối tượng đơn thuần vì về cơ bản, điều này dựa trên giả định rằng việc có ai đó thực sự lắng nghe người ấy hay không chẳng hệ trọng gì. Những người như vậy không có một yêu sách về luân lý rằng các cảm giác, nhu cầu và nỗi đau khổ của họ được một ai đó thực sự có thể hiểu họ cảm nhận về họ. Việc sử dụng AI mô phỏng sự đồng cảm trong việc săn sóc và trị liệu tâm lý kỳ cùng là một trường hợp khác của chủ nghĩa giải pháp công nghệ |technological solutionism|, tức là giả định ngây thơ cho rằng có một giải pháp công nghệ cho mọi vấn đề cần giải quyết, bao gồm cả sự cô đơn lẫn “những trục trặc” về tinh thần. Việc thuê ngoài những vấn đề cần bàn thảo này cho các hệ thống nhân tạo đã ngăn cản chúng ta nhìn thấy những nguyên nhân xã hội gây ra sự cô đơn và các chứng rối loạn tâm thần trong bối cảnh lớn hơn của xã hội.

Ngoài ra, việc thiết kế các hệ thống nhân tạo để xuất hiện như một ai đó hoặc như một thứ gì đó có các cảm xúc và cảm thấy đồng cảm sẽ có nghĩa là các thiết bị như thế sẽ luôn luôn có tính chất thao túng vì chúng giải quyết các cơ chế của sự nhân cách hóa |anthropomorphisation| rất tiềm ẩn. Người ta áp dụng tình tiết |fact| này trong các ứng dụng thương mại để khiến những người dùng mở khóa ở gói trả phí cao cấp: hoặc các khách hàng trả tiền bằng dữ liệu của họ. Cả hai hoạt động này đều đặc biệt nảy sinh vấn đề cần giải quyết đối với các nhóm dễ bị tổn thương, những người bị đe dọa ở đây. Ngay cả những người không thuộc nhóm dễ bị tổn thương và hoàn toàn nhận ra rằng một hệ thống nhân tạo mà không có các cảm giác vẫn sẽ phản ứng một cách đồng cảm như thể hệ thống này có các cảm giác vậy.

Sự đồng cảm với các hệ thống nhân tạo – một điều quá đỗi đối với con người

Đây là một hiện tượng được nghiên cứu kỹ lưỡng khi con người phản ứng bằng sự đồng cảm với các hệ thống nhân tạo thể hiện một số đặc trưng giống người hoặc giống động vật. Quá trình này phần lớn dựa trên các cơ chế tri giác |perceptual mechanisms| không thể tiếp cận một cách có ý thức. Việc nhận biết một dấu hiệu cho thấy một cá nhân khác đang trải qua một cảm xúc nhất định sẽ sản sinh ra một cảm xúc phù hợp ở người quan sát. Một dấu hiệu như vậy có thể là sự biểu hiện hành vi điển hình của một cảm xúc, một biểu cảm trên khuôn mặt hoặc một sự biến, vốn thường gây ra một cảm xúc nhất định. Chứng cứ từ các lần quét MRI não cho thấy các cấu trúc thần kinh giống nhau được kích hoạt khi con người cảm thấy đồng cảm với các con rô-bốt.

Mặc dù sự đồng cảm có thể không hoàn toàn cần thiết cho tính luân lý, nhưng nó đóng một vai trò quan trọng về luân lý. Chính vì lý do này mà sự đồng cảm của ta dành cho các con rô-bốt giống người (hay giống động vật) ít nhất cũng áp đặt những ràng buộc gián tiếp về luân lý lên cách ta nên đối xử với những cỗ máy này ra sao. Việc thường xuyên lạm dụng những con rô-bốt gợi lên sự đồng cảm là sai về mặt luân lý vì làm như vậy sẽ tác động tiêu cực lên năng lực cảm được sự đồng cảm của chúng ta, đây chính là một nguồn gốc quan trọng sản sinh sự xét đoán, động cơ và sự phát triển về mặt luân lý.

Điều này có nghĩa là liệu chúng ta có nên thành lập một liên đoàn đấu tranh đòi các quyền của rô-bốt hay không? Điều ấy sẽ là quá sớm, vì các con rô-bốt tự chúng không có những yêu sách về luân lý. Sự đồng cảm với các con rô-bốt chỉ có liên quan gián tiếp về mặt luân lý do những tác động của sự đồng cảm lên tính luân lý của con người. Nhưng chúng ta nên cẩn trọng cân nhắc xem liệu bản thân mình có thực sự muốn những con rô-bốt mô phỏng và khơi gợi sự đồng cảm ở những hữu thể người hay không, và muốn như thế trong những lĩnh vực nào, bởi vì chúng ta có nguy cơ làm méo mó hay thậm chí phá hủy các hoạt động xã hội của mình nếu những con rô-bốt hiện diện tràn lan khắp nơi.

Các từ khóa: Trí tuệ nhân tạo (AI), Săn sóc, Đồng cảm, Các con rô-bốt, Trí tuệ cảm xúc, Châu Âu Đối thoại, Đạo đức học Trí tuệ Nhân tạo

Catrin Misselhorn

THÔNG TIN VỀ TÁC GIẢ

Catrin Misselhorn

Giáo sư Triết học, Georg-August-Universität Göttingen

Tuyên bố công khai

Catrin Misselhorn không làm việc, tư vấn, sở hữu cổ phần hoặc nhận tài trợ từ bất kỳ công ty hoặc tổ chức nào được hưởng lợi từ bài viết này và không có bất kỳ sự trực thuộc liên quan nào ngoài giới chuyên môn của mình.

Nguyễn Việt Anh dịch

Nguồn: ‘Empathetic’ AI has more to do with psychopathy than emotional intelligence – but that doesn’t mean we can treat machines cruelly, The Conversation, 21.03.2024.

Print Friendly and PDF