NHỮNG ĐIỀU CHÚNG TA BIẾT — VÀ KHÔNG BIẾT — VỀ CÁCH THÔNG TIN SAI LỆCH LAN TRUYỀN TRỰC TUYẾN
Hiểu biết của chúng ta về cách thức cũng như lý do tại sao các thông tin kỹ thuật số lại lan rộng vẫn còn thiếu hụt. Để thiết kế các biện pháp can thiệp hiệu quả nhằm giảm thiểu sự lan truyền của thông tin sai lệch, các nhà nghiên cứu cần dữ liệu và tính minh bạch từ các nền tảng trực tuyến.
![]() |
Thông tin sai lệch trực tuyến đã góp phần gây ra cuộc bạo loạn ở Điện Capitol ngày 6 tháng 1 năm 2021. Ảnh: Samuel Corum/Getty |
“Thảm họa Holocaust đã xảy ra. Vắc-xin COVID-19 đã cứu sống hàng triệu người. Không có gian lận diện rộng trong cuộc bầu cử tổng thống Hoa Kỳ năm 2020.” Đây là ba tuyên bố về sự thật không thể tranh cãi. Không thể tranh cãi — nhưng vẫn bị đem ra bàn cãi gay gắt ở một số nơi trên Internet.
Chúng xuất hiện trong một bài Bình luận [Comment][1] của nhà khoa học nhận thức Ullrich Ecker tại Đại học Tây Úc ở Perth và các đồng nghiệp, vốn là một phần trong chuỗi bài chuyên về thông tin sai lệch trực tuyến trong số này của Nature. Đây là thời điểm quan trọng để nêu bật chủ đề này. Với hơn 60% dân số thế giới hiện đang trực tuyến, thông tin sai lệch và gây hiểu lầm đang lan truyền dễ dàng hơn bao giờ hết, với những hậu quả như sự do dự về tiêm vắc-xin tăng lên[2] và sự phân cực chính trị mạnh hơn.[3] Trong một năm mà các quốc gia nơi có khoảng bốn tỷ người sinh sống đang tổ chức các cuộc bầu cử lớn, thì sự nhạy cảm xung quanh thông tin sai lệch chỉ tăng chứ không giảm.
Đọc thêm: Thông tin sai lệch là mối đe dọa cho nền dân chủ lớn hơn bạn nghĩ
Tuy nhiên, nhận thức chung về thông tin sai lệch và những gì mà các nghiên cứu có căn cứ vững chắc cho chúng ta biết không phải lúc nào cũng đồng nhất, như Ceren Budak tại Khoa Thông tin của Đại học Michigan ở Ann Arbor và các đồng nghiệp của cô chỉ ra trong một bài Quan điểm [Perspective].[4] Mức độ mà mọi người tiếp xúc (với tin giả - ND) có xu hướng bị đánh giá quá cao, cũng như ảnh hưởng của các thuật toán trong việc tác động đến mức độ tiếp xúc này. Và việc tập trung vào phương tiện truyền thông xã hội thường có nghĩa là các xu hướng xã hội và công nghệ rộng hơn góp phần vào thông tin sai lệch bị bỏ qua.
Thông điệp từ các nhà nghiên cứu là thông tin sai lệch có thể bị kiềm chế. Nhưng để làm được điều đó, các nền tảng và cơ quan quản lý phải hành động, cũng như bằng chứng về cách thức và lý do thông tin sai lệch lan rộng phải được thu thập từ nhiều xã hội khác nhau trên toàn thế giới.
Vai trò của các nền tảng truyền thông xã hội trong việc tiếp tay cho sự lan truyền thông tin sai lệch được thể hiện trong bài nghiên cứu[5] của David Lazer, một nhà khoa học chính trị và máy tính tại Đại học Northeastern ở Boston, Massachusetts, và các đồng nghiệp của ông. Họ đã phân tích hoạt động của hơn 550.000 người dùng Twitter trong chu kỳ bầu cử tổng thống Hoa Kỳ năm 2020. Phát hiện của họ phù hợp với quan điểm cho rằng việc tiếp xúc với thông tin sai lệch nói chung đã bị cường điệu hóa: chỉ có 7,5% người dùng từng chia sẻ ít nhất một mẩu thông tin sai lệch trong suốt thời gian nghiên cứu.
Cuộc tấn công vào Điện Capitol Hoa Kỳ vào ngày 6 tháng 1 năm 2021 cũng nằm trong giai đoạn này, sau sự kiện đó, Twitter đã xóa 70.000 tài khoản người dùng được cho là đang phát tán thông tin sai lệch. Các tác giả cho thấy động thái (xóa tài khoản của Twitter – ND) này trùng với sự sụt giảm lớn trong việc chia sẻ thông tin sai lệch. Khó có thể biết liệu lệnh cấm đã trực tiếp thay đổi hành vi người dùng, hay liệu bạo lực tại Điện Capitol đã gián tiếp ảnh hưởng đến xu hướng người dùng chia sẻ những câu chuyện về cuộc bầu cử tổng thống bị 'đánh cắp' năm 2020 vốn đã thúc đẩy cuộc bạo loạn đó. Dù sao đi nữa, nhóm nghiên cứu viết, thì tình huống này cũng tạo nên một thí nghiệm tự nhiên cho thấy các nền tảng truyền thông xã hội có thể chống lại thông tin sai lệch bằng cách thực thi các điều khoản sử dụng của họ ra sao.
Đọc bài báo: Hiểu sai về các tác hại của thông tin sai lệch trực tuyến
Những thí nghiệm như vậy hiện có vẻ khó có thể lặp lại được. Như Lazer nói với Nature, anh và các đồng nghiệp của mình đã may mắn khi thu thập được dữ liệu trước và trong cuộc tấn công, và đã làm thế vào thời điểm mà Twitter còn cho phép các nhà khoa học trích xuất dữ liệu. Kể từ khi doanh nhân Elon Musk tiếp quản Twitter, nền tảng này, hiện được đổi tên thành X, không chỉ giảm việc kiểm duyệt nội dung và thực thi (các điều khoản) mà còn hạn chế quyền truy cập của các nhà nghiên cứu vào dữ liệu của mình.
Có sự mờ ám tương tự trong một phần khác của hệ sinh thái thông tin sai lệch, phần này thậm chí còn ít được nghiên cứu hơn: nguồn tài trợ của nó. Thông tin sai lệch không phải do Internet hoặc phương tiện truyền thông mạng xã hội tạo ra, nhưng mô hình kinh doanh dựa trên quảng cáo của phần lớn các trang web này đã thúc đẩy sự ra đời của chúng. Ví dụ, các sàn giao dịch quảng cáo tự động đấu giá không gian quảng cáo cho các công ty dựa vào việc người dùng đang xem trang web nào – bao gồm cả các trang chứa thông tin sai lệch – và các trang web đó nhận được một phần doanh thu mỗi khi người dùng xem và nhấp vào quảng cáo.
Trong bài nghiên cứu thứ hai[6], Wajeeha Ahmad, một ứng viên tiến sĩ tại Đại học Stanford ở California, và các đồng nghiệp của cô cho thấy rằng, nếu công ty sử dụng các sàn giao dịch tự động, khả năng quảng cáo của họ xuất hiện trên các trang web chứa thông tin sai lệch sẽ cao gấp mười lần. Mặc dù các công ty có thể theo dõi xem quảng cáo của họ nằm ở đâu, nhưng hầu hết những người ra quyết định chạy quảng cáo đều đánh giá thấp sự liên quan của họ với thông tin sai lệch — và tương tự, người tiêu dùng cũng không ý thức được điều đó.
Đọc thêm: Liệu thông tin sai lệch của AI có ảnh hưởng đến cuộc bầu cử ở Ấn Độ không?
Theo lời Ahmad, quảng cáo trực tuyến “đang diễn ra một cách mập mờ”: giống như với phương tiện truyền thông mạng xã hội, các nền tảng trực tuyến nắm giữ phần lớn dữ liệu cần thiết để hiểu cách thông tin sai lệch lan truyền. Nếu các nền tảng đang tự tiến hành các biện pháp can thiệp để cố gắng kiềm chế sự lan truyền của thông tin sai lệch, thì họ đang làm mà không có sự giám sát của công chúng.
Bước đầu tiên để giải quyết vấn đề thông tin sai lệch phải là việc các công ty tăng cường hợp tác với các nhà nghiên cứu. Các nghiên cứu đã được thực hiện cho thấy việc hợp tác một cách có đạo đức về dữ liệu trong khi vẫn đảm bảo quyền riêng tư của mọi người là khả thi. Hơn nữa, việc thực thi các biện pháp chống lại sự lan truyền của những thông tin sai sự thật không đồng nghĩa với hạn chế tự do ngôn luận nếu được triển khai minh bạch. Nếu các công ty không sẵn sàng chia sẻ dữ liệu, các cơ quan quản lý nên buộc họ phải làm thế.
Sự gia tăng của các ứng dụng trí tuệ nhân tạo (AI) tạo sinh, vốn hạ thấp rào cản trong việc tạo ra nội dung đáng ngờ, là lý do khác để chúng ta phải khẩn trương giải quyết vấn đề (thông tin sai lệch). Như Kiran Garimella tại Đại học Rutgers ở New Brunswick, New Jersey và Simon Chauchard tại Đại học Carlos III ở Madrid chỉ ra trong bài Bình luận[7], nghiên cứu của họ về người dùng ứng dụng nhắn tin WhatsApp ở Ấn Độ cho thấy rằng nội dung AI tạo sinh dường như vẫn chưa phổ biến trong hỗn hợp thông tin sai lệch — nhưng từ những gì chúng ta biết về sự phát triển của cách sử dụng công nghệ, có vẻ như đây chỉ là vấn đề thời gian.
Thế giới có lợi ích chung trong việc kiềm chế sự lan truyền của thông tin sai lệch và giữ cho cuộc tranh luận công khai tập trung vào các vấn đề bằng chứng và sự thật. Những biện pháp kiềm chế nào hiệu quả và (hiệu quả) đối với ai cần được kiểm nghiệm — và trước tiên, các nhà nghiên cứu độc lập cần có quyền truy cập vào dữ liệu cho phép xã hội đưa ra những lựa chọn sáng suốt.
Nature 630, 7-8 (2024)
doi: https://doi.org/10.1038/d41586-024-01618-z
Huỳnh Thị Thanh Trúc dịch
Nguồn:What we do — and don’t — know about how misinformation spreads online, Nature, 05 June 2024.
[1] Ecker, U. et al. Nature 630, 29–32 (2024). Article Google Scholar
[2] Borges do Nascimento, I. J. et al. Bull. World Health Organ. 100, 544–561 (2022). Article PubMed Google Scholar
[3] Lorenz-Spreen, P., Oswald, L., Lewandowsky, S. & Hertwig, R. Nature Hum. Behav. 7, 74–101 (2023). ArticlePubMed Google Scholar
[4] Budak, C., Nyhan, B., Rothschild, D. M., Thorson, E. & Watts, D. J. Nature 630, 45–53 (2024). Article Google Scholar
[5] McCabe, S. D., Ferrari, D., Green, J., Lazer, D. M. J. & Esterling, K. M. Nature 630, 132–140 (2024). Article Google Scholar
[6] Ahmad, W., Sen, A., Eesley, C. & Brynjolfsson, E. Nature 630, 123–131 (2024). Article Google Scholar
[7] Garimella. K. & Chauchard, S. Nature 630, 32–34 (2024). Article Google Scholar