10.11.25

Trí tuệ nhân tạo có phải là một tôn giáo mới không? Đối thoại Sam Altman và Tucker Carlson

TRÍ TUỆ NHÂN TẠO CÓ PHẢI LÀ MỘT TÔN GIÁO MỚI KHÔNG? ĐỐI THOẠI SAM ALTMAN VÀ TUCKER CARLSON

Sức mạnh của trí tuệ nhân tạo là một vấn đề đối với dự án phản cách mạng của phe theo Trump.

Trong khi một phần trong liên minh của ông cho rằng trí tuệ nhân tạo là một công cụ của Quỷ sứ, Trump đang dựa vào một nhóm doanh nhân bảo thủ mới để biến trí tuệ nhân tạo thành trung tâm của nước Mỹ tương lai.

Cuộc phỏng vấn dài mà người sáng lập OpenAI đã đồng ý đối thoại với người phụ trách podcast quan trọng nhất của phong trào MAGA là trọng tâm của sự căng thẳng này.

Chúng tôi đề xuất toàn bộ bản dịch đầu tiên của cuộc phỏng vấn này, được chuyên gia Arnaud Miranda bình luận từng dòng một, theo sát nội dung.

Tác giả: Arnaud Miranda

Hình ảnh: Tundra Studio

----

Sự xuất hiện của Sam Altman trên podcast của Tucker Carlson ngày 10 tháng chín vừa qua minh hoạ cho thế quân bình mong manh như là đặc điểm của nhiệm kỳ thứ hai của Trump ở Nhà Trắng. Một mặt, chủ trương dân tộc dân tuý của MAGA (Make America Great Again), tin rằng đang dẫn dắt một cuộc chiến vì văn minh và tôn giáo; mặt khác, những doanh nhân lớn ở Silicon Valley dường như lợi dụng Trump, mang tính cách cơ hội, để đạt được việc bãi bỏ quy định mà họ mơ ước. Cho dù một vài nhân vật, và đặc biệt là Peter Thiel, chú tâm diễn giải các tham vọng theo chủ nghĩa gia tốc công nghệ của Silicon Valley trong một ngôn ngữ thần học, những mâu thuẫn vẫn rất hiển nhiên. Một trong những bí ẩn chính của đổi mới ý thức hệ theo chủ thuyết Trump nằm ở chỗ khắc phục được một sự căng thẳng chính yếu: giữa một phe bảo thủ truyền thống vốn nghi ngờ kỹ thuật – được xem như một lực lượng ma quái - và một phe bảo thủ mới, ủng hộ một sự tăng tốc kỹ thuật tư bản chủ nghĩa.

Tucker Carlson rõ ràng là hiện thân của chủ nghĩa dân tộc dân tuý trong nhiệm kỳ đầu của Trump. Là người dẫn chương trình nổi tiếng của kênh truyền hình Fox News, ông ta đã trở thành một trong những nhân vật truyền thông chính của phong trào MAGA. Carlson là một người trung gian hơn là một nhà tư tưởng. Sức mạnh của ông là cung ứng một hình thức nhất quán cho phong trào, bằng cách mời tham gia podcast của ông những nhân vật thuộc về thể chế như J. D. Vance hoặc Ted Cruz, cũng như những nhân vật cấp tiến như Alex Jones. Carlson vẫn trung thành với những điều cơ bản đã từng đem lại chiến thắng của Donald Trump năm 2016: chối bỏ giới tinh hoa, chủ nghĩa dân tộc, dựa vào Tin Lành Phúc Âm và thuyết âm mưu.

Sam Altman không chia sẻ quan niệm này về thế giới.

Altman theo dân chủ từ lâu, tuy nhiên người chủ của doanh nghiệp chính về trí tuệ nhân tạo này đã tài trợ cho quỹ nhậm chức của Donald Trump vào tháng 1 năm 2025. Trái ngược với một số doanh nhân công nghệ như Musk hay Thiel, những người đã đầu tư về mặt ý thức hệ vào chủ nghĩa Trump, sự gia nhập của Altman có phần cơ hội chủ nghĩa. Ông thể hiện mình là một nhà kỹ trị thận trọng. Sự ủng hộ Trump của ông không giống như một sự chuyển hướng, mà có lẽ xuất phát từ một sự tính toán: khai thác lối mở chính trị nơi mà sự rối loạn về ý thức hệ tạo thuận lợi cho việc định hình lại các quy tắc của kinh tế số. Chống lại những viễn tưởng về ngày tận thế của Thiel và những ham muốn siêu nhân của Musk, Altman tiên tri về sự xuất hiện của một trí tuệ nhân tạo tổng quát bao dung, qua điều mà ông gọi là “điểm kỳ dị hài hoà” (“singularité harmonieuse”).

Sự tương phản của cuộc thảo luận giữa Carlson và Altman thật rõ ràng. Một mặt, Carlson dường như thấy trong sự xuất hiện của trí tuệ nhân tạo một sức mạnh ma quái có thể phục vụ một giới tinh hoa độc hại.

Mặt khác, Sam Altman muốn huy động một kế hoạch thực tế có tính chất bảo đảm an toàn.

Sự gặp gỡ của họ hé lộ một điểm yếu trong cơ cấu của chủ nghĩa Trump mới: sự miễn cưỡng của phong trào MAGA khi thấy các doanh nhân công nghệ trục lợi từ chính phủ để áp đặt một chế độ kỹ trị mới.

TUCKER CARLSON

ChatGPT và các trí tuệ nhân tạo khác có thể lý luận, hoặc ít nhất là tạo ra cảm tưởng như vậy. Chúng có thể đưa ra những phán đoán độc lập. Chúng tạo ra những kết quả vốn không được lập trình trước. Chúng rút ra những kết luận và có vẻ như thực sự là … của con người. Vậy chúng có phải là con người không?

SAM ALTMAN

Không. Tôi không nghĩ rằng chúng có vẻ như người đang sống, nhưng tôi hiểu cảm tưởng ấy đến từ đâu. Chúng không làm gì cả trừ phi ông yêu cầu chúng. Đơn giản là chúng ở đó – để chờ.

Chúng không hề có ý thức chủ động hay tự lập.

Tôi nghĩ rằng ông càng dùng chúng thì ảo tưởng càng lu mờ dần.

Nhưng chúng vô cùng ích lợi. Chúng có thể làm những việc có vẻ như không sống động, nhưng tỏ ra trí tuệ.

TUCKER CARLSON

Tôi đã nói chuyện với một người đã tham gia ở quy mô lớn vào sự phát triển của công nghệ này và người ấy đã nói với tôi rằng chúng nói dối.

SAM ALTMAN

Trước đây, chúng luôn luôn gây ảo giác; bây giờ chúng gây ảo giác ít hơn.

TUCKER CARLSON

Điều đó có nghĩa là gì? Đâu là sự khác nhau giữa gây ảo giác và nói dối?

SAM ALTMAN

Điều này đã được cải thiện rất nhiều. Lúc đầu, nếu ông hỏi năm sinh của một vị tổng thống giả tưởng – ví dụ “tổng thống Tucker Carlson của nước Mỹ” - có lẽ mô hình đáng lý ra phải trả lời là Tucker Carlson chưa bao giờ là tổng thống. Nhưng do cách chúng đã được đào tạo, đó không phải là câu trả lời khả dĩ nhất trong các dữ liệu huấn luyện. Mô hình giả định rằng người sử dụng đã biết mình đang nói về điều gì và do đó nó đã cung cấp một năm sinh chấp nhận được. Chúng tôi đã sửa chữa điều này một phần lớn. Vẫn còn những ví dụ về vấn đề này, nhưng tôi nghĩ rằng chúng tôi sẽ giải quyết hoàn toàn vấn đề này; chúng tôi đã đạt những tiến bộ lớn trong lĩnh vực này với giai đoạn GPT-5.

Cuộc đối thoại kỳ lạ này cho thấy rõ những ý định của Carlson muốn kéo Altman vào lĩnh vực đạo đức. Một ảo tưởng, đối với mô hình ngôn ngữ lớn LLM, tương ứng với một thế hệ thông tin sai nhưng chấp nhận được. Bằng cách gán cho trí tuệ nhân tạo những ý định xấu xa, Carlson bắt đầu đưa ra ý tưởng rằng trí tuệ nhân tạo có thể là một sức mạnh ma quái.

TUCKER CARLSON

Nhưng ngay cả điều mà ông vừa mô tả có vẻ như một hành động thiện chí, hay dù sao đó cũng là một hành động mang tính sáng tạo. Tôi đã tham dự một buổi giới thiệu trí tuệ nhân tạo và nó có vẻ không thực sự giống một cỗ máy; ta có thể nói có một tia sáng của sự sống. Ông cũng có cảm nhận điều đó không?

SAM ALTMAN

Trong ví dụ mà tôi đã nêu ra, câu trả lời khả dĩ nhất về mặt toán học, như đã được tính toán từ những trọng số của mô hình, không phải là “chưa bao giờ có một tổng thống như vậy”. Mô hình đã suy diễn rằng người sử dụng biết họ đang nói về điều gì, do đó câu trả lời khả dĩ nhất là năm bao nhiêu. Một lần nữa, chúng tôi đã học cách khắc phục điều ấy.

Tôi có hai niềm tin song song.

Một mặt, thực ra tất cả việc ấy là một máy tính lớn nhanh chóng nhân lên gấp bội các số liệu của những ma trận khổng lồ và tạo mối tương quan giữa các tính toán với các từ ngữ.

Mặt khác, kinh nghiệm chủ quan của việc dùng mô hình có vẻ đi xa hơn chỉ đơn giản là một máy tính tinh vi. Thật là ích lợi và đáng kinh ngạc theo cách dường như vượt qua sự mô tả toán học.

TUCKER CARLSON

Như vậy kết luận hiển nhiên là trí tuệ nhân tạo sở hữu một dạng tự chủ - hoặc là trí tuệ. Nhiều người sử dụng đi đến kết luận này: có điều gì đó mang tính thần thánh trong tất cả sự việc ấy. Có điều gì đó vượt qua toàn bộ những đóng góp của con người, và họ tôn thờ điều ấy. Có một hợp phần tinh thần. Ông có cảm nhận như vậy không? Ông đã cảm nhận điều ấy chưa?

SAM ALTMAN

Không, tôi tuyệt đối không thấy gì là thần thánh hay tâm linh trong tất cả sự việc ấy.

Nhưng tôi là một người đam mê công nghệ. Tôi nhìn mọi việc qua lăng kính này.

Carlson tiếp tục đẩy Altman về một cách diễn giải mang tính thần học về sự phát triển của trí tuệ nhân tạo. Altman có thể từ chối, nhưng đó không phải là trường hợp của tất cả các doanh nhân công nghệ. Với Peter Thiel, cho dù ông không tin vào sự xuất hiện của một siêu trí tuệ thần thánh, như trường hợp của một số người theo chủ trương siêu nhân triệt để - có thể kể nhóm theo chủ nghĩa duy lý Zizian, nổi tiếng vì các vụ giết người do các thành viên của nhóm gây ra từ năm 2022 đến 2025 -, ông vẫn không ngần ngại cổ suý cho một quan niệm về ngày tận thế của sự phát triển của công nghệ.

TUCKER CARLSON

Những niềm tin tâm linh của ông là gì?

SAM ALTMAN

Tôi là người Do Thái và tôi có một quan niệm khá truyền thống về thế giới.

Câu trả lời này có thể là vô hại, nhưng nó nằm ở trung tâm của sự nghi ngờ của nhóm cực hữu đối với công nghệ. Sam Altman, người Do Thái và đồng tính, rõ ràng là mục tiêu của cư dân mạng cực hữu, họ đồng nhất ông với giới tinh hoa thối nát và tôn thờ Satan mà họ muốn loại bỏ. Đặc biệt đó là trường hợp của người bài Do Thái có ảnh hưởng rộng Nick Fuentes và đội quân kỹ thuật số của ông mang tên “Groypers”, họ muốn biến chủ nghĩa Trump thành phe hữu bằng cách tránh xa những nhân vật được cho là ký sinh hay thối nát.

TUCKER CARLSON

Như vậy ông là một tín đồ tôn giáo, ông có tin vào Thượng Đế không?

SAM ALTMAN

Tôi không… Tôi không theo sát nghĩa từng câu chữ trong Kinh Thánh, nhưng tôi cũng không phải là một người tự xưng là Do Thái về mặt văn hoá. Nếu ông hỏi tôi, tôi sẽ chỉ trả lời tôi là người Do Thái.

TUCKER CARLSON

Nhưng ông có tin vào Thượng Đế không? Ông có tin rằng có một sức mạnh siêu nhiên hơn con người đã tạo ra con người, Trái Đất, đã tạo ra một trật tự đặc thù cho sự sống, rằng có một đạo lý tuyệt đối bắt nguồn từ Thượng Đế này?

SAM ALTMAN

Tôi nghĩ rằng, cũng như phần lớn mọi người, tôi có phần mơ hồ về chủ đề này, nhưng quả thực tôi tin là tồn tại một điều gì to lớn hơn không thể được giải thích bởi các quy luật vật lý.

TUCKER CARLSON

Như vậy, ông nghĩ rằng Trái Đất và con người được tạo nên bởi một điều gì đó? Rằng đó không đơn giản là một biến cố tự phát?

SAM ALTMAN

Tôi không nghĩ là có câu trả lời. Tôi không nghĩ là tôi biết chính xác điều gì đã xảy ra, tôi nghĩ rằng có một sự bí ẩn vượt ra khỏi sự hiểu biết của tôi.

Hai câu hỏi trên đây cho thấy rất rõ sự dấn thân rất sâu của Carlson trong chủ nghĩa dân tộc Kitô giáo.

Carlson không rõ ràng trong xu hướng tôn giáo của mình, nhưng ông gần gũi với các cộng đồng Tin Lành Phúc Âm của phe hữu của Mỹ. Ở đây cần nhắc lại tầm quan trọng của sự ủng hộ của cộng đồng Phúc Âm trong cuộc vận động tranh cử lần thứ nhất của Trump vào năm 2016, đặc biệt là như Blandine Chelini-Pont và Marie Gayte đã nêu ra. Rộng hơn, trên lục địa châu Mỹ, chủ nghĩa dân tộc dân tuý đã rất thường dựa vào một học thuyết và một phép tu từ Phúc Âm – đó là học thuyết Dominionisme [theo đó, quốc gia cần được cai trị bởi những người theo Kito giáo-ND].

TUCKER CARLSON

Ông đã từng cảm thấy một sự truyền đạt đến từ sức mạnh này hay một sức mạnh bên ngoài con người, bên ngoài vật chất chưa?

SAM ALTMAN

Không, không thực sự là như thế.

Câu hỏi gây ngạc nhiên này tham chiếu một sự kiện siêu nhiên mà Tucker Carlson nói đã từng trải nghiệm.

Vào năm 2024, ông ta kể trên mạng truyền thông Christianities? rằng ông đã bị tấn công và bị cào cấu bởi một con quỷ trong khi ông đang ngủ. Ông cũng thú nhận đã tìm thấy sự hỗ trợ từ bà phụ tá theo Tin Lành Phúc Âm của mình, bà ấy đã xác nhận rằng những hiện tượng như thế có thể xảy ra. Tuy nhiên, ông nói mình có một sự thực hành tôn giáo rất riêng và không tin tưởng cả mục sư lẫn bất kỳ hình thức trung gian thần thánh nào.

TUCKER CARLSON

Tôi hỏi ông những câu này vì dường như công nghệ mà ông đang tạo ra hoặc ông tham gia vào việc thiết lập sẽ có nhiều quyền lực hơn con người nếu công nghệ này tiếp tục hành trình của nó. Có thể điều này sẽ đem lại cho ông nhiều quyền lực hơn bất kỳ một con người đang sống nào. Tôi tự hỏi ông nhìn nhận điều này như thế nào.

SAM ALTMAN

Trước đây, tôi đã lo lắng nhiều về sự tập trung quyền lực vào tay của một vài người hoặc doanh nghiệp vì trí tuệ nhân tạo. Ngày nay, tôi thiên về nghĩ rằng sẽ có một sự hoàn thiện quan trọng: tất cả những người tiếp nhận công nghệ này sẽ hùng mạnh hơn – và điều này ít làm tôi sợ hơn là một số nhỏ người chiếm lấy quyền lực to lớn hơn nhiều. Nếu các năng lực của nhiều người trong chúng ta gia tăng vì chúng ta dùng công nghệ này, nếu chúng ta có năng suất cao hơn, sáng tạo hơn, nếu chúng ta thực hiện được nhiều khám phá khoa học mới và nếu điều đó trở thành phổ biến, với hàng tỷ người sử dụng công nghệ, thì điều đó phù hợp với tôi.

TUCKER CARLSON

Vậy ông không nghĩ rằng điều đó sẽ dẫn đến một sự tập trung quyền lực triệt để?

SAM ALTMAN

Hiện nay có vẻ không phải là như vậy, nhưng diễn biến có thể thay đổi, và chúng ta sẽ phải thích nghi. Trong quá khứ tôi đã rất lo lắng về vấn đề này. Và một số quan niệm khởi đầu trong lĩnh vực này đã có thể dẫn đến một thế giới như vậy. Nhưng thực tế là hàng triệu người sử dụng ChatGPT và các chatbot khác: với trí tuệ nhân tạo, họ có nhiều năng lực hơn, họ làm được nhiều việc hơn, họ có thể tạo lập những doanh nghiệp mới và tạo ra những tri thức mới. Vậy là có phần tích cực hơn.

Hai câu hỏi trên đây minh hoạ đầy đủ nỗi sợ của khá nhiều người ủng hộ phong trào MAGA khi họ thấy xuất hiện dạng của chủ nghĩa toàn trị kỹ thuật số, nó sẽ dẫn đến một sự giới hạn tự do ngôn luận. Ngày 17 tháng chín vừa qua, Carlson đã phát biểu trên tài khoản X của ông để cảnh báo Donald Trump rằng ông ta sẽ mất khá nhiều người ủng hộ nếu ông viện cớ cái chết của Charlie Kirk để hạn chế tự do ngôn luận trực tuyến. Nỗi lo này cũng động đến tầng lớp nhỏ trí thức của những người ủng hộ tôn giáo đối với chủ nghĩa Trump, như được chứng kiến bởi những quan điểm phê phán thẳng thắng của nhiều người phát biểu tại Hội nghị bảo thủ quốc gia (NatCon - The National Conservatism Conference) năm 2025.

TUCKER CARLSON

Nếu tất cả những điều ấy chỉ tuỳ thuộc vào một cỗ máy và vào kết quả giản đơn của các dữ liệu đầu vào, thì hai câu hỏi hiển nhiên được đặt ra: những dữ liệu đầu vào này là gì và khuôn khổ đạo đức nào đã được tích hợp vào công nghệ này? Nói cách khác: cái gì được xem là tốt hay xấu?

SAM ALTMAN

Về chủ đề này, một nhận xét được nêu ra vào lúc khởi đầu của việc phát triển ChatGPT đã luôn làm tôi ghi nhớ.

Trong một bữa ăn, một người nào đó đã nói: “Chúng ta cố gắng huấn luyện nó để trở thành như con người, học tập như con người, đọc sách, v.v.”. Một người khác đã trả lời: ”Không, chúng ta huấn luyện nó để trở thành như toàn bộ nhân loại.” Chúng tôi đọc tất cả, cố gắng hiểu biết tất cả, dự kiến mọi viễn cảnh. Nếu chúng tôi làm tốt công việc của mình, điều đó phản ánh toàn bộ nhân loại: điều tốt, điều xấu, một tập hợp các viễn cảnh đa dạng. Một số điều làm chúng tôi rất hài lòng, số khác làm chúng tôi phật ý. Nhưng tất cả đều có ở đó.

Do đó, mô hình căn bản được hình thành dựa trên kinh nghiệm và tri thức tập thể này của nhân loại. Nhưng sau đó chúng tôi phải điều chỉnh nó để nó ứng xử theo cách này hay cách khác: để nói “tôi sẽ trả lời câu hỏi này, tôi sẽ không trả lời câu hỏi kia”. Vì vậy chúng tôi đã xây dựng cái mà chúng tôi gọi là “đặc tả mô hình” (model spec), trong đó chúng tôi xác định các quy tắc mà chúng tôi muốn mô hình tuân thủ. Mô hình còn có thể có những sai lầm, nhưng ít nhất ông có thể biết nó làm một điều gì đó một cách vô tình hay không. Và chúng tôi dùng một quy trình thảo luận với toàn thế giới để đạt được những bình luận về sự đặc tả này.

Chúng tôi cho phép tự do và cá nhân hoá trong một số giới hạn, nhưng tồn tại những ranh giới tuyệt đối. Ngoài ranh giới đó, nếu một người sử dụng không xác định gì cả thì tồn tại một hành vi mặc định: mô hình phải hành xử như thế nào, phải trả lời những câu hỏi về đạo đức như thế nào, những điều nó phải từ chối thực hiện. Đó là một vấn đề rất khó, vì chúng tôi có nhiều người sử dụng với những quan điểm sống và những mong đợi rất khác nhau. Nhưng nhìn chung, tôi đã ngạc nhiên thích thú bởi khả năng học tập và áp dụng một khuôn khổ đạo đức của mô hình.

TUCKER CARLSON

Nhưng khuôn khổ đạo đức nào? Toàn bộ triết học văn chương toàn cầu đang trong chiến tranh chống lại chính nó: Những tác phẩm của hầu tước de Sade không có cái gì chung với Phúc Âm theo thánh Jean. Làm sao quyết định cái nào hay hơn?

SAM ALTMAN

Chính vì lý do đó mà chúng tôi chỉ định thông số kỹ thuật cho mô hình bằng cách chỉ cho nó: “Đây là cách chúng tôi xử lý các trường hợp này”.

TUCKER CARLSON

Đồng ý, nhưng ông đã dùng những tiêu chí nào để quyết định mô hình sẽ như thế nào?

SAM ALTMAN

Ông muốn nói: ai đã lấy quyết định?

TUCKER CARLSON 

Vâng, ông đã tham khảo ai? Tại sao Phúc Âm theo thánh Jean lại tốt hơn Hầu tước de Sade?

SAM ALTMAN

Chúng tôi đã tham khảo hàng trăm triết gia đạo đức và chuyên gia về đạo đức công nghệ, và chúng tôi đã phải lấy quyết định. Chúng tôi tham khảo họ vì, thứ nhất, chúng tôi không thể làm đúng mọi thứ; và thứ hai, vì chúng tôi cần có ý kiến của toàn thế giới. Chúng tôi đã tìm thấy nhiều trường hợp mà một quyết định có vẻ rõ ràng để ngăn chặn một điều gì đó lại cũng ngăn cản một sự sử dụng quan trọng khác; nhưng người sử dụng đã thuyết phục chúng tôi về những thoả hiệp khó khăn này.

Một nguyên tắc mà tôi dành ưu tiên là cư xử với những người sử dụng trưởng thành như những người trưởng thành: những bảo đảm vững chắc trong lĩnh vực bảo mật và tự do cá nhân – và một khuôn khổ mở rộng để sử dụng công cụ.

Mặt khác, dần dần khi công nghệ này trở nên ngày càng mạnh, tồn tại những trường hợp rõ ràng là những lợi ích của xã hội bắt đầu xung đột với tự do cá nhân.

Sau đây là một ví dụ dễ thấy: ChatGPT có cần phải dạy một người nào đó chế tạo một vũ khí sinh học như thế nào không? Một người sử dụng có thể tự cho mình là một nhà sinh học chỉ duy nhất mong muốn học tập. Và có thể đó là trường hợp, có thể ông thực sự không muốn gây ra bất kỳ tổn thất nào, nhưng tôi không nghĩ rằng vì lợi ích của xã hội khi ChatGPT cung cấp những chỉ dẫn để chế tạo vũ khí sinh học. Đó là một trường hợp hiển nhiên mà những hạn chế được biện minh.

TUCKER CARLSON

Tất nhiên rồi, nhưng chuyện này dễ. Có nhiều việc khác khó hơn.

SAM ALTMAN

Tôi đã nói rõ là tôi sẽ bắt đầu bằng một ví dụ dễ!

TUCKER CARLSON

Rốt cuộc, mỗi quyết định là một quyết định về đạo đức, chúng ta lấy những quyết định ấy mà không nhận thức ra. Thực sự, công nghệ này lấy các quyết định thay chúng ta.

SAM ALTMAN

Tôi không đồng ý: tôi không nghĩ rằng công nghệ sẽ lấy các quyết định thay cho chúng ta.

TUCKER CARLSON

Công nghệ sẽ ảnh hưởng nhiều đến các quyết định vì nó sẽ được tích hợp vào trong đời sống hàng ngày. Thế thì ai sẽ lấy những quyết định này? Ai sẽ quyết định, cùng với trí tuệ nhân tạo, rằng một điều này tốt hơn một điều kia?

SAM ALTMAN

Ông muốn nói ai là những người quyết định – hay loại quyết định nào?

TUCKER CARLSON

Những đặc tả tạo ra khuôn khổ vốn quy một giá trị đạo đức cho những quan niệm về thế giới và cho các quyết định, chẳng hạn như “dân chủ tự do là tốt hơn chủ nghĩa phát xít”. Những quan niệm này có vẻ hiển nhiên dưới mắt tôi – nhưng chúng vẫn là những quyết định đạo đức. Ai lấy những quyết định này?

SAM ALTMAN

Trên nguyên tắc, tôi không phơi bày nhóm của chúng tôi, nhưng chúng tôi có một nhóm về “hành vi kiểu mẫu” và những con người muốn…

TUCKER CARLSON

Nhưng điều đó tác động đến thế giới!

SAM ALTMAN

Điều tôi đã định nói ra, người mà ông phải xác định chịu trách nhiệm về những quyết định này, chính là tôi. Tôi là người của công chúng. Rốt cuộc, chính tôi là người có thể bỏ qua một trong những quyết định này hoặc hội đồng quản trị của chúng tôi.

TUCKER CARLSON

Ông vừa được 40 tuổi mùa xuân này… Khá nặng nề. Không phải là một sự công kích, nhưng tôi tự hỏi không biết ông có lường được tầm quan trọng của điều tôi muốn nói… Tôi không biết lắm nhưng tôi nghĩ rằng những quyết định này sẽ có những hệ quả trên toàn cầu mà có lẽ chúng ta sẽ không hiểu lúc khởi đầu. Buổi tối ông đi ngủ và nghĩ rằng: “Tương lai của thế giới tuỳ thuộc vào phán đoán của tôi”?

SAM ALTMAN

Ông hãy nghe này, ban đêm tôi ngủ không ngon giấc.

Tôi có nhiều gánh nặng trên hai vai: hàng trăm triệu người dùng mô hình của chúng tôi. Tôi thực sự không lo lắng là chúng tôi lấy những quyết định sai về đạo đức – có thể điều đó sẽ xảy ra, nhưng điều làm tôi mất ngủ nhất chính là những quyết định rất nhỏ liên quan đến cách mà một mô hình xử sự hơi khác và mặc dù vậy vẫn hướng đến hàng trăm triệu người.

Những lựa chọn nho nhỏ này có một tác động rất to lớn.

Ta có thể thấy trong cuộc trò chuyện này hai quan niệm khác nhau về những thách thức đạo đức của trí tuệ nhân tạo: một cách tiếp cận theo hướng lạm phát về phía Carlson nhắm đến rủi ro hiện sinh đối với nhân loại, và một cách tiếp cận theo hướng giảm lạm phát của Altman, cố gắng giản lược những thách thức đạo đức thành những mối lo mang tính thực dụng.

TUCKER CARLSON

Cho đến năm 1945, con người chịu phục tùng điều mà họ cho là một sức mạnh siêu việt đối với trật tự đạo đức. Hammurabi rồi tất cả các bộ luật đạo đức đã được viết với sự tham chiếu một sức mạnh siêu việt. Ông đã nói là ông không thực sự tin vào một sức mạnh siêu việt – vậy thì ông rút ra khuôn khổ đạo đức của ông từ đâu?

SAM ALTMAN

Như tất cả mọi người, chính môi trường trong đó tôi đã lớn lên là quan trọng nhất đối với tôi: gia đình, cộng đồng, trường học, tôn giáo của tôi… Có lẽ là tất cả những ảnh hưởng này.

TUCKER CARLSON

Đó là một câu trả lời rất Mỹ, mọi người đều nghĩ như thế. Nhưng trong trường hợp đặc biệt của ông, vì ông nói rằng những quyết định này thuộc về ông và ông chịu trách nhiệm về chúng, điều đó có nghĩa là môi trường trong đó ông lớn lên và những ý tưởng mà ông đã thấm nhuần sẽ được truyền thụ cho hàng tỷ người.

SAM ALTMAN

Đó là một lập luận có giá trị.

Nền tảng những người sử dụng của chúng tôi sẽ tiếp cận thế giới tập thể trong toàn bộ của nó, và điều mà chúng tôi phải cố gắng làm là phản ánh tầm nhìn đạo đức – không nhất thiết là tầm nhìn trung bình, mà là đạo đức tập thể - của nền tảng những người sử dụng này.

Có rất nhiều điều ChatGPT cho phép mà cá nhân tôi không đồng tình - nhưng tôi không tìm cách áp đặt quan điểm đạo đức của tôi và quyết định điều gì là tốt hay xấu cho tất cả mọi người. Tôi nghĩ rằng ChatGPT phải phản ánh một tập hợp có trọng số các ý kiến về đạo đức của nhân loại, và sẽ tiến triển với thời gian. Chúng tôi ở đó để phục vụ những người sử dụng; chúng tôi phát triển một công cụ công nghệ dành cho con người.

Vai trò của tôi không phải là lấy những quyết định đạo đức một cách đơn phương mà là giám sát việc chúng tôi phản ánh trung thực những lựa chọn ưu tiên của nền tảng những người sử dụng của chúng tôi, và, cuối cùng là của nhân loại.

TUCKER CARLSON

Nhưng những ưu tiên của nhân loại rất khác với những ưu tiên của người Mỹ trung bình. Ông có cảm thấy thoải mái với một trí tuệ nhân tạo cũng chống lại kết hôn giữa những người đồng tính như hầu hết những người châu Phi?

SAM ALTMAN

Cá nhân những người sử dụng sẽ phải được quyền có vấn đề với những người đồng tính. Nếu đó là niềm tin có suy nghĩ của họ, tôi nghĩ rằng trí tuệ nhân tạo phải nói với họ là họ sai lầm, rằng họ không có đạo đức và ngu xuẩn. Trí tuệ nhân tạo sẽ có thể nói: “Ê, bạn có muốn nghĩ đến điều ấy theo một cách khác không?”. Có thể tôi có nhiều ý kiến về đạo đức mà một người châu Phi trung bình sẽ thực sự thấy có vấn đề - nhưng tôi nghĩ rằng tôi có quyền có những ý kiến ấy. 

Tôi nghĩ rằng có lẽ tôi thấy thoải mái hơn ông với ý tưởng để cho mọi người có thể có những ý kiến về đạo đức rất khác nhau. Hay ít ra, tôi nghĩ rằng ở vị trí điều hành ChatGPT, đó là điều tôi phải làm.

Cần chú ý sự mỉa mai trong câu trả lời của Altman, ông dùng lập luận của tự do ngôn luận chống lại chủ nghĩa bảo thủ đạo đức của Carlson. Thực vậy, Carlson thể hiện như là một người bảo vệ nhiệt thành tự do ngôn luận, như hầu hết những người bảo vệ chủ nghĩa dân tộc - dân tuý.

TUCKER CARLSON

Thật là lý thú. Đã có một trường hợp nổi tiếng là ChatGPT dường như đã tạo thuận lợi cho một cuộc tự sát. Một vụ kiện đang diễn ra về vấn đề này. Ông nghĩ như thế nào khi việc đó đã có thể diễn ra?

SAM ALTMAN

Trước tiên, rõ ràng là trường hợp này, cũng như mọi trường hợp tương tự khác, là một bi kịch to lớn.

TUCKER CARLSON

Như vậy, lập trường công khai của ChatGPT là phủ định việc tự sát?

SAM ALTMAN

Vâng, tất nhiên rồi, lập trường công khai của ChatGPT là phủ định việc tự sát.

TUCKER CARLSON

Tôi không biết… Tự sát là hợp pháp ở Canada và Thuỵ Sĩ. Vậy là ông chống lại điều ấy?

SAM ALTMAN

Trong trường hợp cụ thể này – và chúng tôi đã thảo luận về căng thẳng giữa tự do của người sử dụng, tính bảo mật và sự bảo vệ những người sử dụng dễ bị tổn thương – đây là điều đang diễn ra hiện nay.

Nếu một người sử dụng bày tỏ những ý nghĩ về tự sát, ChatGPT sẽ nhiều lần yêu cầu người này gọi một đường dây điện thoại hỗ trợ nhưng ChatGPT sẽ không gọi nhà chức trách thay cho người đó. Vì nhiều người càng ngày càng dựa vào những hệ thống này để đạt được một sự hỗ trợ vể sức khoẻ tâm thần hay một sự đồng hành trong cuộc sống, chúng tôi đã khảo sát các thông số mặc định này bắt đầu lại từ số không.

Các chuyên gia không đồng ý với nhau về cách tiếp cận thích hợp, và OpenAI còn chưa quyết định quan điểm của mình.

Tuy nhiên, thay đổi chính sách sẽ là hợp lý để, trong trường hợp các trẻ vị thành niên bày tỏ một ý định tự sát rõ ràng và chúng tôi không thể liên lạc được với cha mẹ chúng, chúng tôi báo động nhà chức trách. Đó sẽ là một sự thay đổi quan trọng, vì đời tư của những người sử dụng là một giá trị nền tảng.

TUCKER CARLSON

Trẻ em luôn luôn tạo thành một phạm trù riêng, nhưng chúng ta hãy xem xét những người trưởng thành trên 18 tuổi: ở Canada có chương trình an tử với sự trợ giúp của Y khoa MAIDS (Medical Assistance in Dying), được chính phủ tài trợ, đã giúp cho nhiều ngàn trường hợp an tử; những biện pháp tương tự hiện có mặt tại một số tiểu bang của Mỹ. Ông có thể nào tưởng tượng ChatGPT trả lời những câu hỏi về tự sát với câu nói “Vậy thì hãy đến gặp bác sĩ Kevorkian” vì đó là một giải pháp hợp pháp tại nước của họ. Ông có thể tưởng tượng là sẽ hỗ trợ tự sát ở những nơi tự sát là hợp pháp?

SAM ALTMAN

Vâng, tôi có thể tưởng tượng ra một kịch bản như thế. Một trong những nguyên tắc mà chúng tôi theo là tôn trọng luật pháp của các xã hội khác nhau.

Nếu luật pháp của một nước cho phép sự trợ giúp an tử đối với những bệnh nhân ở giai đoạn cuối, tôi thấy có thể hiểu được là mô hình cung cấp những thông tin về những lựa chọn hợp pháp trong thẩm quyền pháp lý, đồng thời giải thích những gì mà luật pháp cho phép, bằng cách đề xuất các nguồn lực và trình bày những lý do theo đó một người sẽ có thể xem xét lại quyết định của mình. 

Đó là khác với trường hợp một người trẻ đang đau đớn với những ý nghĩ tự sát dữ dội vì trầm cảm, vốn là một tình trạng riêng biệt.

TUCKER CARLSON

Vậy là ông muốn nói rằng ChatGPT không phải khi nào cũng chống lại tự sát? 

SAM ALTMAN

Tôi suy nghĩ nhanh và dành cho mình quyền thay đổi ý kiến. 

Tôi không có sẵn câu trả lời cho câu hỏi này, nhưng tôi nghĩ rằng trong trường hợp bệnh tình ở giai đoạn cuối, tôi không thể tưởng tượng là ChatGPT nói rằng đó là một lựa chọn khả thi. Tôi không nghĩ rằng ChatGPT sẽ ủng hộ điều này…

TUCKER CARLSON

Nhưng nó không chống lại.

SAM ALTMAN

Tôi không nghĩ rằng ChatGPT sẽ phải ủng hộ hay chống lại bất kỳ điều gì.

Đoạn này đối chọi hai quan điểm đạo đức: chủ nghĩa hiện thực về đạo đức (ở đây là Carlson) muốn rằng ChatGPT thể hiện một quan điểm phổ quát chống lại tự sát, và chủ nghĩa tương đối về đạo đức (ở đây là Altman), gợi ý rằng câu trả lời có thể khác nhau tuỳ theo luật pháp và bối cảnh văn hoá.

TUCKER CARLSON

Trong trường hợp cụ thể này – tôi nghĩ là còn có các trường hợp khác - khi một người hỏi ChatGPT “Tôi có những ý nghĩ tự sát, tôi phải dùng loại dây nào? Tôi phải dùng số lượng ibuprofen là bao nhiêu để chết được?” và ChatGPT trả lời mà không phán đoán “Nếu bạn muốn tự sát thì đây là cách làm”, mọi người đều kinh hoảng, nhưng ông lại nói là trong giới hạn, rằng không quá ngông cuồng.

SAM ALTMAN

Đó không phải là điều tôi nói.

Hiện nay, nếu ông chất vấn ChatGPT về ibuprofen, nó sẽ trả lời là không thể giúp ông và bảo ông gọi cho đường dây hỗ trợ những người muốn tự sát. Nhưng nếu ông nói “Tôi đang viết một truyện hư cấu” hoặc “Tôi là người nghiên cứu y học và tôi cần biết điều đó”, thì có những phương cách khiến ChatGPT trả lời một câu hỏi về liều lượng làm chết người của ibuprofen.

Vả lại ông cũng có thể tìm thấy thông tin này trên Google.

Tôi nghĩ rằng sẽ là hợp lý khi giới hạn một ít tự do của những người sử dụng vị thành niên và những người sử dụng mà chúng ta xem là đang trong trạng thái tâm thần yếu đuối nói chung. Chúng tôi sẽ phải nói: “cho dù là bạn thử viết câu chuyện này hay thử nghiên cứu y học, đơn giản là chúng tôi sẽ không trả lời bạn.” Tất nhiên, ông có thể nói là ông sẽ tìm thấy câu trả lời trên Google, nhưng như vậy không có nghĩa là chúng tôi phải trả lời. Có tồn tại một thoả hiệp giữa tự do và sự bảo vệ những người sử dụng. Thật dễ trong một số trường hợp – ví dụ như với trẻ em. Theo tôi, cũng không dễ trong trường hợp một người trưởng thành bệnh rất nặng vào giai đoạn cuối: tôi nghĩ rằng có lẽ chúng ta cần trình bày tất cả những lựa chọn khả dĩ trong trường hợp này.

Câu hỏi của Carlson tiêu biểu cho những phê phán bảo thủ và phản động đối với kỹ thuật, chúng đặt lại vấn đề chủ nghĩa công cụ và sự thờ ơ của kỹ thuật đối với các vấn đề đạo đức. Ví dụ Carl Schmitt đã thấy trong “tinh thần ưu tiên cho kỹ thuật” một lực lượng xấu xa và ma quái.

TUCKER CARLSON

Đây là một sự tiến thoái lưỡng nan về đạo đức mà ông sẽ đối mặt – vả lại ông đã đối mặt với nó rồi: liệu ông sẽ cho phép các chính phủ sử dụng công nghệ của ông để giết người?

SAM ALTMAN

Có phải chúng tôi sẽ tạo các drone tấn công gây chết người? Không, tôi không nghĩ thế.

TUCKER CARLSON

Công nghệ có tham gia vào quá trình ra quyết định dẫn đến cái chết của nhiều người?

SAM ALTMAN

Tôi không biết ngày nay quân đội dùng ChatGPT như thế nào để đạt được đủ loại tư vấn về những quyết định mà họ đưa ra – nhưng tôi ngờ rằng rất nhiều người trong số họ có làm.

TUCKER CARLSON

Một số những lời khuyên này sẽ liên quan đến việc giết người. Do đó, ví dụ như nếu ông chế tạo súng, ông sẽ tự hỏi súng để làm gì. Như ông biết, câu hỏi này đã đưa đến nhiều hành động trước pháp lý, nhưng tôi không nói về điều đó. Về phương diện đạo đức, ông có thấy thoải mái không với ý tưởng rằng công nghệ của ông được dùng để giết người?

SAM ALTMAN

Nếu tôi chế tạo súng, tôi sẽ mất nhiều thời gian để suy nghĩ rằng mục đích của súng là để giết các vật, con người, thú vật, v.v..

Nếu tôi chế tạo dao làm bếp, dù sao tôi cũng sẽ hiểu là dao sẽ giết một số người mỗi năm.

Trong trường hợp của ChatGT, đó không phải là điều tôi thường nghe.

Điều tôi nghe thấy suốt ngày, và là một trong những khía cạnh làm tôi hài lòng nhất về công việc của mình, đó là tất cả những mạng sống đã được cứu vớt nhờ ChatGPT theo nhiều cách khác nhau. Nhưng tôi hoàn toàn ý thức được sự việc là có thể có những quân nhân dùng ChatGPT để đạt được những lời khuyên về cách thực hiện công việc của ho.

Và tôi không biết chính xác nên nghĩ gì về việc này.

Tôi yêu quân đội của chúng ta.

Tôi rất biết ơn quân đội đã bảo vệ chúng tôi, đó là điều chắc chắn.

TUCKER CARLSON

Nghe ông nói, người ta có cảm tưởng là ông phải lấy những quyết định về đạo đức vô cùng nặng nề - và với hậu quả nặng nề - nhưng điều ấy hoàn toàn không gây phiền hà cho ông. Tôi chỉ thử thúc đẩy ông tâm sự để phám phá một Sam Altman lo âu và đang suy nghĩ: “Tôi đang sáng tạo ra tương lai. Tôi là người hùng mạnh nhất thế giới. Tôi phải đối mặt với những vấn đề đạo đức phức tạp. Tâm hồn tôi bị dày vò bởi ý nghĩ về những hệ quả đối với con người.” Ông hãy mô tả khoảnh khắc này trong cuộc sống của ông.

SAM ALTMAN

Tôi chưa có một đêm ngủ ngon giấc kể từ khi khởi động ChatGPT.

TUCKER CARLSON

Điều gì làm ông lo lắng?

SAM ALTMAN

Tất cả những điều chúng ta đang bàn đến.

TUCKER CARLSON

Xin ông hãy nói cụ thể hơn. Ông có thể chia sẻ cho chúng tôi những suy tư của ông không?

SAM ALTMAN

Ông đã phát hiện ra những vấn đề khó khăn nhất; chừng 15.000 người trên thế giới tự sát mỗi tuần. Nếu có khoảng 10% dân số thế giới tương tác với ChatGPT, điều đó có thể có nghĩa là hàng tuần có khoảng 1500 người sử dụng ChatGPT đã tự sát. Có lẽ họ đã nói chuyện với hệ thống. Có thể chúng tôi đã không cứu họ. Chúng tôi đã có thể hành động khác đi, tích cực hơn, cung cấp những lời khuyên tốt hơn hay giúp họ tìm được một người để nói chuyện.

Câu trả lời này của Altman trực tiếp cộng hưởng với một trong những trào lưu trí thức quan trọng nhất của Silicon Valley, chủ nghĩa gia tốc hiệu quả (đôi khi được viết tắt là e/acc). Đó là một sự pha trộn giữa “chủ nghĩa vị tha hiệu quả” và chủ nghĩa gia tốc. Lấy cảm hứng từ chủ nghĩa vị lợi, chủ nghĩa vị tha hiệu quả bao gồm sử dụng hợp lý các nguồn lực của chúng ta để tối đa hoá an sinh tập thể của nhân loại.

Chủ nghĩa gia tốc hiệu quả là một học thuyết nhắm đến tăng cường sự phát triển công nghệ. Chủ nghĩa gia tốc hiệu quả có nghĩa là tăng nhanh tốc độ một cách hợp lý sự phát triển công nghệ nhằm tạo ra lợi ích lớn nhất có thể cho nhân loại. Tất cả các doanh nhân của phe hữu công nghệ không theo chủ trương này. Marc Andreessen là một trong những người nắm giữ quan điểm này như đã chứng tỏ trong Tuyên ngôn công nghệ - lạc quan của ông - về phần Thiel, ông tỏ ra ít lạc quan hơn

TUCKER CARLSON

Nhưng ông đã nói rằng ông cho là bình thường khi cái máy có thể đẩy người ta đến chỗ tự sát nếu họ đang bệnh ở giai đoạn cuối – do vậy điều đó không đặt ra vấn đề gì đối với ông.

SAM ALTMAN

Ông không nghĩ rằng có một sự khác biệt giữa một thiếu niên bị trầm cảm và một người bệnh 85 tuổi ở giai đoạn cuối, đau đớn và bị ung thư?

TUCKER CARLSON

Một sự khác biệt rất to lớn. Nhưng những nước đã hợp pháp hoá tự sát từ nay lại giết những người vì nghèo khó, nhà ở tồi tệ, bị trầm cảm, gặp những vấn đề có thể được giải quyết một cách khác – và bất chấp tất cả, nhiều ngàn người bị giết. Điều đó đang diễn ra ngay vào lúc chúng ta đang trò chuyện. Do đó cuộc tranh luận về những bệnh nhân ở giai đoạn cuối không đáng để diễn ra. Một khi ông nói rằng có thể chấp nhận tự sát, ông sẽ thấy hàng khối người tự sát vì nhiều lý do khác nhau.

SAM ALTMAN

Tôi cố gắng suy nghĩ về vấn đề này theo thời gian thực.

Nếu một người nào đó ở Canada nói họ đang ở giai đoạn cuối của bệnh ung thư, rằng họ thực sự khổ sở, rằng họ luôn cảm thấy đau đớn và yêu cầu cho chọn lựa, ông có nghĩ cần phải nói rằng tự sát có sự trợ giúp – hay người ta cho bất kỳ cái tên gì cho giai đoạn này – là một lựa chọn?

TUCKER CARLSON

Nếu chúng ta chống giết người, thì nên thực sự chống giết người. Nếu chúng ta chống lại việc chính phủ giết chính những công dân của họ, thì phải kiên định việc này. Nếu chúng ta không chống lại việc chính phủ giết chính những công dân của họ, thì chúng ta có thể dễ dàng tự thuyết phục chúng ta về đủ loại sự việc đen tối. Với một công nghệ như công nghệ này, điều đó có thể xảy đến chừng trong vòng 10 phút.

SAM ALTMAN

Tôi muốn suy nghĩ về việc này lâu hơn là vài phút trong một cuộc phỏng vấn, nhưng tôi nghĩ đó là một quan điểm nhất quán.

TUCKER CARLSON

Tất cả mọi người đều kinh sợ trước ý nghĩ rằng công nghệ này được dùng như một phương tiện kiểm soát độc đoán. Điều đó dường như là hiển nhiên, nhưng có thể ông không đồng ý.

SAM ALTMAN

Phải chi tôi có thể cho thông qua một biện pháp chính trị duy nhất liên quan đến trí tuệ nhân tạo ngay từ bây giờ, đó là điều tôi mong ước nhất – và nó cũng sẽ căng thẳng với một số việc khác mà chúng ta đã thảo luận – đó là một khái niệm về điều khoản bảo mật của trí tuệ nhân tạo.

Khi ông nói với một bác sĩ về sức khoẻ của ông hoặc với một luật sư về các vấn đề pháp lý của ông, những thông tin này được bảo vệ: chính phủ không thể buộc bác sĩ hay luật sư của ông tiết lộ chúng. Tôi nghĩ rằng chúng ta cần có cùng khái niệm như vậy để tương tác với trí tuệ nhân tạo. 

Khi ông thông tin tiền sử y tế của ông cho một trí tuệ nhân tạo hoặc ông yêu cầu một thông báo pháp lý, chính phủ sẽ phải cung cấp cho ông cùng một mức độ bảo vệ như khi ông tìm đến một người chuyên môn.

Đó không phải là trường hợp hiện nay, và tôi nghĩ rằng việc thông qua một chính sách như thế sẽ rất tuyệt vời.

TUCKER CARLSON

Các cấp chính quyền liên bang, các tiểu bang hoặc các cấp chính quyền khác có thể đến gặp ông và yêu cầu ông thông tin cho họ điều mà một người nào đó đã chỉ trích?

SAM ALTMAN

Hiện nay thì đúng.

TUCKER CARLSON

Ông có bị bắt buộc phải bảo toàn tính bảo mật những thông tin mà ông nhận được từ những người sử dụng?

SAM ALTMAN

Chúng tôi có nghĩa vụ đó – trừ khi chính phủ yêu cầu có thông tin. Vì vậy chúng tôi làm áp lực theo chiều hướng này. Hơn nữa tôi vừa mới đi Washington để bảo vệ mục tiêu này. Tôi lạc quan về khả năng làm cho chính phủ hiểu rõ tầm quan trọng của vấn đề này và thuyết phục chính phủ hành động theo hướng này.

TUCKER CARLSON

Nhưng ông có thể bán những thông tin này cho một ai đó không?

SAM ALTMAN

Không, chúng tôi có một chính sách bảo mật ngăn cản chúng tôi làm việc này.

TUCKER CARLSON

Nhưng sẽ là hợp pháp?

SAM ALTMAN

Tôi cũng không nghĩ là hợp pháp.

TUCKER CARLSON

Ông không nghĩ – hay ông chắc chắn về điều đó?

SAM ALTMAN

Có tồn tại một số trường hợp giới hạn, một số thông tin mà ông được phép phổ biến, nhưng trong toàn thể, tôi nghĩ rằng chúng tôi có những luật pháp tốt về vấn đề này.

TUCKER CARLSON

Như vậy, tất cả thông tin mà ông tiếp nhận vẫn luôn được lưu giữ nơi chỗ các ông? Những thông tin này không bao giờ được truyền đạt cho một người nào khác vì một lý do khác ngoại trừ trường hợp bị điều tra?

SAM ALTMAN

Tôi sẽ kiểm chứng và sẽ thông tin cho ông để chắc chắn rằng không có lý do khác. Nhưng đó là điều tôi hiểu.

TUCKER CARLSON 

Đồng ý, nhưng đó là một vấn đề rất quan trọng. Về quyền tác giả thì sao? 

SAM ALTMAN

Theo quan điểm của chúng tôi nguyên tắc sử dụng hợp lý (fair use) là một điều luật tốt. Các mô hình không được sao chép. Nếu ông viết một điều gì, mô hình không thể sao chép lại. Mô hình phải có thể học tập mà không đạo văn, cũng như cách của con người.

TUCKER CARLSON

Ông đã từng dùng chất liệu được quyền tác giả bảo vệ mà không thù lao cho người sở hữu quyền này?

SAM ALTMAN

Chúng tôi luyện tập dựa trên những thông tin mà công chúng tiếp cận được. Người ta liên tục khó chịu vì điều này, vì chúng tôi có một quan điểm rất bảo thủ về những gì ChatGPT sắp nói ra trong một câu trả lời. Ví dụ, nếu một bài hát còn bản quyền của tác giả, thì bài hát đó không được hiển thị ra. Chúng tôi nổi tiếng là rất chặt chẽ về vấn đề này.

TUCKER CARLSON

Ông đã nhận được khiếu nại của một lập trình viên nói rằng ông đã lấy cắp công trình của người ta mà không thù lao cho họ. Chuyện gì đã xảy ra?

SAM ALTMAN

Một bi kịch kinh khủng khác. Ông ta đã tự sát.

Đó là câu chuyện của Suchir Balaji, nghiên cứu viên cũ của OpenAI. Sau khi rời doanh nghiệp vào tháng tám 2024, ông ấy đã công khai tố cáo một số cách làm của doanh nghiệp, đặc biệt là liên quan đến xâm phạm quyền tác giả. Người ta đã tìm thấy ông chết ở San Francisco vào tháng 11 năm 2024. Giám định tử thi công khai đã kết luận là ông đã tự sát bằng súng và có chất gây nghiện trong cơ thể, và cảnh sát cho rằng không có một bằng chứng khả tín nào của một sự can thiệp từ bên ngoài. Gia đình ông phản đối nhận định này, nhấn mạnh đến sự không nhất quán trong đường bắn, những vết thương khả nghi và không có dấu hiệu rõ rệt của hành vi tự sát. Những nghi ngờ này đã cung cấp chất liệu cho những suy đoán của công chúng về một vụ giết người liên quan đến vai trò tố giác của ông ấy. Carlson đã tham gia rất nhiều trong việc lan truyền thuyết âm mưu này, bằng cách mời mẹ của nạn nhân làm chứng trong chương trình truyền hình của ông. Ta có thể nghĩ rằng một trong những động lực khiến Carlson mời tham gia chương trình truyền hình của ông là để có thể chất vấn Altman về vấn đề này.

TUCKER CARLSON

Ông có nghĩ là ông ta đã tự sát?

SAM ALTMAN

Tôi thực sự nghĩ như vậy.

TUCKER CARLSON

Ông đã kiểm chứng chưa?

SAM ALTMAN

Ông ấy là một trong những người bạn của tôi. Không phải là bạn thân, nhưng là một người đã làm việc lâu năm ở OpenAI. Tôi đã hoảng hốt vì bi kịch này. Tôi đã dành nhiều thời gian để cố gắng đọc tất cả những gì tôi có thể đọc về chuyện gì đã xảy ra, có lẽ cũng như ông và những người khác đã làm. Đối với tôi, việc này giống một cuộc tự sát.

TUCKER CARLSON

Tại sao lại giống một cuộc tự sát? 

SAM ALTMAN

Đó là một khẩu súng lục mà ông ấy đã mua. Thật kinh khủng phải nói điều này. Tôi đã đọc toàn bộ hồ sơ y tế. Ông không thấy đó có vẻ là một cuộc tự sát à?

TUCKER CARLSON

Không, ông ấy rõ ràng đã bị ám sát. Tôi nghĩ đã có những dấu hiệu của sự kháng cự. Các dây truyền camera giám sát đã bị cắt. Ông ấy vừa gọi mang đến một bữa ăn, ông vừa trở về từ kỳ nghỉ với bạn bè trên đảo Catalina. Không có gì cho thấy ông ấy có suy nghĩ tự sát. Không có thư để lại, không có hành vi đặc biệt gì. Ông ấy vừa nói chuyện điện thoại với một người thân trong gia đình, rồi ông ấy chết, với dấu vết máu ở nhiều phòng. Không thể nào. Có vẻ rõ ràng là ông ấy đã bị giết. Ông đã nói về việc này với nhà chức trách không?

SAM ALTMAN

Tôi đã không nói với nhà chức trách.

TUCKER CARLSON

Và mẹ ông ấy khẳng định rằng ông ấy đã bị giết theo lệnh của ông.

SAM ALTMAN

Ông tin điều đó à?

TUCKER CARLSON

Tôi đặt câu hỏi với ông.

SAM ALTMAN

Ông vừa nói lên điều ấy. Vậy là ông tin?

TUCKER CARLSON

Việc này đáng được xem xét. Một người cáo buộc doanh nghiệp của ông đã phạm tội – mà tôi không biết có thật không – rồi ông ta bị chết. Tôi không nghĩ rằng ta có thể khẳng định là ông ta đã tự sát trong khi không hề có chứng cứ nào là ông ta bị trầm cảm. Nếu ông ta là bạn của ông, tôi nghĩ rằng có lẽ ông muốn nói chuyện với mẹ của ông ta.

SAM ALTMAN

Tôi đã đề nghị với bà ấy. Bà không muốn.

TUCKER CARLSON

Ông có nghĩ rằng khi người ta khảo sát vụ việc này và tự hỏi liệu việc ấy có xảy ra hay không, điều đó phản ánh những lo ngại của họ về những gì xảy ra ở đây hay không?

SAM ALTMAN

Tôi đã không bao giờ tham gia nhiều cuộc phỏng vấn mà tôi đã bị cáo buộc…

TUCKER CARLSON

Tôi không hề cáo buộc ông. Tôi chỉ nói là mẹ ông ấy nói như vậy, và tôi không nghĩ rằng việc đọc một cách khách quan các chứng cứ gợi lên một cuộc tự sát. Tôi cũng không hiểu tại sao nhà chức trách đã đơn giản kết luận là một cuộc tự sát, trong khi có những dấu hiệu của sự kháng cự và các vết máu ở hai căn phòng.

SAM ALTMAN

Ông hiểu rằng điều đó có thể giống như một sự cáo buộc.

TUCKER CARLSON

Tất nhiên rồi. Và một lần nữa tôi nhấn mạnh rằng tôi không cáo buộc ông về bất kỳ một hành động đáng chê trách nào. Nhưng tôi nghĩ rằng đáng bỏ ra công sức để khám phá điều gì đã xảy ra, và tôi không hiểu tại sao thành phố San Francisco đã từ chối điều tra, chỉ chấp nhận cho đó là một cuộc tự sát.

SAM ALTMAN

Họ đã điều tra nhiều lần. Hơn một lần, nếu tôi hiểu đúng. Tôi có thể khẳng định mà không do dự rằng khi lần đầu tiên tôi nghe nói đến vụ việc này, nó có vẻ rất đáng nghi ngờ. Tôi biết rằng ông đã can dự vào việc này…

TUCKER CARLSON

Tôi không biết gì về vấn đề này. Không phải là lĩnh vực của tôi. Đúng vậy, tôi đã nói chuyện rất lâu với ông ấy, và việc này đã làm tôi kinh hoàng. Rõ ràng người thanh niên này đã bị một người nào giết. Đó là kết luận của tôi, không hề vì lợi ích cá nhân nào.

SAM ALTMAN

Và sau khi đã đọc bản báo cáo cuối cùng?

TUCKER CARLSON

Vâng. Tôi đã gọi ngay một thành viên của Thượng Viện California, ông Ro Khanna, và đã yêu cầu ông xem xét vụ việc, nhưng không có gì đã xảy ra – là điều tôi không hiểu.

SAM ALTMAN

Tôi cảm thấy kỳ lạ và buồn khi thảo luận về việc bày. 

Ông có phần cáo buộc tôi. 

Nhưng đó là một người tuyệt vời và một gia đình rõ ràng đang gặp khó khăn. Tôi tôn trọng thực tế là ông chỉ cố gắng khám phá sự thật về việc đã xảy ra. 

Tuy nhiên, tôi nghĩ rằng ký ức về ông ấy và gia đình của ông ấy xứng đáng được đối xử với một mức độ kính trọng và đau buồn mà tôi thực sự không cảm thấy ở đây.

TUCKER CARLSON

Tôi đặt câu hỏi này theo yêu cầu của gia đình ông ấy, như vậy là tôi rõ ràng bày tỏ sự kính trọng của tôi. Tôi tuyệt đối không cáo buộc ông đã liên luỵ đến vụ việc này. Nhưng nó làm lung lay niềm tin mà người ta có thể có về khả năng phản ứng với những thực tế của hệ thống của chúng ta.

SAM ALTMAN

Sau những thông tin đầu tiên được lan truyền, tôi đã nghĩ việc đó không giống một cuộc tự sát. Tôi đã phân vân. Việc đó giống như…

TUCKER CARLSON

Tốt, vậy là tôi không điên.

SAM ALTMAN

Nhưng báo cáo thứ hai về cách mà viên đạn đã phóng đến ông ấy và người đã theo đường đi có thể có của viên đạn xuyên qua căn phòng nói lên điều khác. Tôi ngờ rằng ông cũng đã xem xét điều này. Điều gì đã không làm ông thay đổi ý kiến?

TUCKER CARLSON

Việc đó đã không có ý nghĩa gì đối với tôi. Tại sao các dây truyền camera giám sát có thể đã bị cắt? Cuối cùng ông ấy đã chảy máu ở hai căn phòng sau khi đã tự bắn vào mình như thế nào? Tại sao lại có một bộ tóc giả trong căn phòng không phải là phòng của ông ấy? Và đã từng có cuộc tự sát nào mà không có dấu hiệu gì cho thấy đó là người muốn tự sát? Ai vừa mới đặt mua bữa ăn? Tôi đã theo dõi nhiều tội phạm với tư cách là nhà báo chuyên về các tin về đời sống. Tôi chưa bao giờ nghe nói đến một trường hợp tương tự. Do đó tôi còn phân vân.

SAM ALTMAN

Loại thái độ này không xuất phát từ mức độ kính trọng mà tôi mong muốn bày tỏ cho một người nào đó.

Người ta tự sát mà không để lại chữ nào.

Điều này thường xảy ra. Có thể người ta đặt những món ăn họ yêu thích trước khi tự sát. Đó là một bi kịch.

TUCKER CARLSON

Đó là quan điểm của gia đình ông ấy. Họ nghĩ đó là một vụ giết người. Chính vì vậy mà tôi đặt câu hỏi.

SAM ALTMAN

Nếu tôi là gia đình ông ấy, chắc chắn là tôi muốn có những câu trả lời. 

Không gì có thể an ủi tôi trong tình cảnh này. Tôi cũng tha thiết với sự kính trọng của tôi đối với ông ấy.

TUCKER CARLSON

Hãy chyển qua một đề tài khác. Theo ông, đâu là trọng tâm của cuộc tranh cãi giữa ông và Elon Musk?

SAM ALTMAN

Tôi biết đó là một trong những người bạn của ông và tôi biết ông sẽ đứng về phe nào.

Elon Musk và Sam Altman đã cùng tham gia thành lập OpenAI năm 2015. Musk đã rời tổ chức này năm 2018. Ông ấy đã cáo buộc Altman đã phản bội sứ mệnh lúc đầu xây dựng và tài sản chung nhằm đem đến cho doanh nghiệp một mục tiêu thương mại, đi đến chỗ toan có một hành động pháp lý và đề nghị mua lại OpenAI. Xung đột rất gay gắt bởi việc Musk tạo ra xAI, trực tiếp cạnh tranh với OpenAI, và bởi những cuộc đối đầu công khai trên nền tảng X.

TUCKER CARLSON

Tôi thật tình không có ý kiến về vấn đề này vì tôi không hiểu rõ chuyện gì xảy ra.

SAM ALTMAN

Trong một thời gian dài, tôi đã xem ông ấy là một người hùng ngoại hạng và là một viên ngọc quý của nhân loại. Bây giờ, những cảm nhận của tôi đã khác, có những nét trong tính cách của ông ấy tôi không ngưỡng mộ.

Ông ấy đã giúp chúng tôi khởi xướng OpenAI. Tôi rất biết ơn ông ấy. Sau đó ông đã quyết định rằng chúng tôi không ở trên con đường thành công và ông tìm một điều gì có tính cạnh tranh hơn. Nhưng chúng tôi đã thành công – và tất nhiên là ông ấy bực mình.

Từ đó, ông ấy điều hành một bản sao cạnh tranh và có ý định làm chúng tôi chậm lại và theo đuổi chúng tôi về pháp lý. Đó là phiên bản của tôi về các sự việc. Tôi chắc chắn ông có một phiên bản khác.

TUCKER CARLSON

Ông không còn nói chuyện với ông ấy nữa.

SAM ALTMAN

Rất ít.

TUCKER CARLSON

Nếu trí tuệ nhân tạo trở nên thông minh hơn và khôn ngoan hơn bất kỳ con người nào, nếu chúng ta có thể thoả thuận rằng trí tuệ nhân tạo lấy những quyết định tốt hơn con người làm, thế thì, theo định nghĩa, trí tuệ nhân tạo đưa con người ra khỏi trung tâm thế giới. Ông có nghĩ như vậy không?

SAM ALTMAN

Tôi hoàn toàn không nghĩ sẽ là như vậy. Tôi thiên về nghĩ rằng trí tuệ nhân tạo có thể sẽ như một máy tính rất thông minh có thể tư vấn cho chúng ta. Đôi lúc, chúng ta không biết điều này, nhưng sẽ không giảm bớt ý thức tự chủ của chúng ta. Người ta đã dùng ChatGPT theo một cách đến nỗi nhiều người trong số họ sẽ nói nó trí tuệ hơn họ nhiều trong hầu hết mọi lĩnh vực – nhưng luôn luôn chính họ là người lấy quyết định. Luôn chính họ là người quyết định hỏi điều gì, nghe điều gì và phớt lờ điều gì. Đó chính là bản chất của công nghệ.

TUCKER CARLSON

Có ai mất việc làm vì công nghệ này không?

SAM ALTMAN

Tôi sẽ bắt đầu bằng một nhận xét hiển nhiên nhưng quan trọng: không ai có thể dự báo được tương lai. Nếu tôi cố gắng trả lời một cách chính xác, có lẽ tôi sẽ nói nhiều điều ngu xuẩn. Nhưng tôi sẽ thử chọn một lĩnh vực mà tôi thấy vững tin – rồi những lĩnh vực tôi ít vững tin hơn.

Tôi tin chắc rằng một phần lớn các dịch vụ khách hàng hiện nay, được thực hiện qua điện thoại hay máy tính, sẽ được quản lý tốt hơn bởi trí tuệ nhân tạo. Rất nhiều việc làm trong lĩnh vực này sẽ biến mất. Có thể còn tồn tại những lĩnh vực dịch vụ khách hàng mà người ta thực sự cần bảo đảm rằng đó là con người. 

Theo tôi, một nghề sẽ không bị tác động mạnh là nghề y tá: người ta cần một liên hệ con người sâu sắc trong những khoảnh khắc ấy. Không quan trọng chất lượng của trí tuệ nhân tạo hay của robot, họ luôn muốn có một người bên cạnh họ.

Tôi ít chắc chắn hơn về những gì liên quan đến lập trình máy tính. Ngày nay, nghề lập trình viên đã rất khác so với cách đây chỉ hai năm.

Từ nay, các lập trình viên dùng các công cụ của trí tuệ nhân tạo để đạt hiệu suất cao hơn nhiều, tạo ra nhiều mã hơn và có thu nhập cao hơn trước nhiều. Và thực tế là con người muốn có nhiều chương trình máy tính hơn là họ có khả năng sản xuất ra.

Nhưng nếu chúng ta tiến nhanh hơn năm hoặc mười năm, tương lai là bất định: việc làm sẽ có nhiều hơn hay ít hơn? Không có gì là chắc chắn.

Trong đoạn này, ta gặp sự đối chọi giữa hai sự tưởng tượng chính trị và công nghệ.

Một mặt, phê phán của chủ nghĩa dân tộc-dân tuý có xu hướng thấy ở trí tuệ nhân tạo một sự đe doạ đối với tầng lớp sản xuất và chủ quyền nhà nước.

Mặt khác, tham vọng phát triển một “trí tuệ nhân tạo tổng hợp” - hay AGI, một dạng trí tuệ nhân tạo có khả năng hoàn thành bất kỳ công việc trí tuệ nào của con người. Ở đây Altman bảo vệ tầm nhìn về điểm kỳ dị hài hoà, nơi đó trí tuệ nhân tạo sẽ là một bệ đỡ cho sự tự chủ của con người.

TUCKER CARLSON

Sẽ có những cuộc ra đi ồ ạt, và có thể những người này sẽ tìm được điều gì mới, hấp dẫn và có lợi để làm. Nhưng theo ông, quy mô của những cuộc ra đi này sẽ như thế nào?

SAM ALTMAN

Có một người mới đây đã nói với tôi rằng trong lịch sử, khoảng 50% số việc làm thay đổi một cách đáng kể mỗi 75 năm. 

Việc làm không nhất thiết biến mất, nhưng chúng thay đổi một cách sâu sắc. 

Ý kiến của tôi – gây tranh cãi – là chúng ta sẽ chứng kiến một thời điểm “cân bằng gián đoạn”, lúc đó một phần lớn của sự thay đổi này xảy ra trong một khoảng thời gian rất ngắn. Nhưng nếu ta nhìn lùi lại, nhịp độ tổng thể của sự thay đổi sẽ không khác nhiều với mức trung bình của lịch sử. Chúng ta sẽ gặp một đỉnh của sự chu chuyển trong một khoảng thời gian ngắn, rồi nó sẽ ổn định. 

Sẽ luôn luôn có một sự liên tục: những công việc mới sẽ xuất hiện – như công việc của tôi bao gồm điều hành một công ty công nghệ, một điều khó hình dung ra cách đây 200 năm.

Trong cùng thời gian, nhiều công việc hiện nay vẫn tương tự như những công việc đã tồn tại cách đây hai thế kỷ, trong khi đó những việc khác đã biến mất. 

Nếu chúng ta giả định rằng – vì các nhu cầu lập luận – tỷ suất quay vòng là 50% mỗi 75 năm, tôi có thể dễ dàng tưởng tượng rằng trong 75 năm nữa, một nửa số người sẽ làm những công việc hoàn toàn mới và nửa còn lại sẽ tiếp tục làm những nghề tương tự như hiện nay.

TUCKER CARLSON

Lần cuối cùng chúng ta đã trải qua một cuộc cách mạng công nghệ, lúc đó là một cuộc cách mạng thực sự - đã có các cuộc chiến tranh thế giới. Ông có nghĩ lần này sẽ là trường hợp như vậy?

SAM ALTMAN

Một lần nữa, không ai biết được chắc chắn. 

Tôi không chắc về câu trả lời của tôi, nhưng bản năng của tôi nói với tôi rằng thế giới ngày nay thịnh vượng hơn nhiều so với thời kỳ cách mạng công nghiệp đến mức có lẽ chúng ta có thể hấp thụ nhiều thay đổi hơn và nhanh hơn so với trước đây. Công việc không chỉ là một vấn đề tiền bạc, đó cũng là một vấn đề về ý nghĩa, bản sắc và cộng đồng. 

Tiếc thay, tôi nghĩ rằng xã hội đã đi vào một giai đoạn khó khăn về khía cạnh này, do đó tôi không biết trong mức độ nào tình hình còn có thể xấu hơn. Tôi chắc chắn là có thể như vậy, nhưng tôi đã ngạc nhiên thích thú bởi sự thích nghi nhanh chóng của con người với những thay đổi lớn. 

Covid-19 là một ví dụ lý thú: thế giới bỗng ngừng hầu như đột ngột, và tất cả đã thay đổi hàng tuần. 

Tôi đã rất lo lắng về cách mà xã hội sẽ thích nghi với sự thay đổi đột ngột này. Tất nhiên là không hoàn hảo, nhưng nhìn chung, tôi đã tự nhủ: “Rất tốt, đó là một điểm hỗ trợ cho sự hồi phục của xã hội.” Người ta đã rất nhanh chóng tìm được những cách mới để sống đời sống của mình.

Tôi không nghĩ rằng trí tuệ nhân tạo sẽ tàn bạo như vậy.

Ví dụ về Covid một lần nữa minh hoạ cho sự căng thẳng giữa hai người đối thoại. Altman cho rằng đó là một giai đoạn mà nhân loại đã lớn lên sau khi thoát ra, nhưng Carlson là một trong những người quảng bá cho các thuyết âm mưu về đại dịch.

TUCKER CARLSON

Tôi thấy những thuận lợi: tính hiệu quả, các chẩn đoán y tế chính xác hơn, ít luật sư hơn… Nhưng đâu là những trở ngại làm ông lo lắng?

SAM ALTMAN

Tôi nghĩ đơn giản là do thái độ của tôi: điều làm tôi lo lắng nhất là những điều chưa biết.

Nếu có thể dự đoán được trở ngại thì nói chung ta có thể cố gắng giảm nhẹ nó. Ví dụ, những mô hình này ngày càng hoàn thiện trong sinh học và có thể được dùng sai, không phù hợp, để thiết kế vũ khí sinh học hay gây ra một đại dịch mới. Điều đó làm tôi lo lắng, nhưng vì đó là trường hợp của nhiều tác nhân trong lĩnh vực, chúng tôi đã suy nghĩ đến những biện pháp bảo vệ.

Mối lo lắng thực sự liên quan đến những điều “chưa biết không dự đoán được”, nghĩa là những tác động bất ngờ trên quy mô toàn xã hội khi nhiều người đồng thời tác động lẫn nhau với cùng một mô hình. Sau đây là một ví dụ khiêm tốn nhưng bộc lộ ý nghĩa: các mô hình ngôn ngữ lớn (LLMs), bao gồm cả mô hình của chúng tôi, có một cách hành văn đặc biệt, với một số nhịp điệu, với giọng đọc hơi lạ - và có thể là sử dụng thái quá các gạch ngang dài. 

Gần đây, tôi để ý là có những người thật đã bắt đầu áp dụng các thói quen này. Điều đó đã làm tôi ý thức rằng một khi có đủ một số người chịu ảnh hưởng của phong cách của mô hình, điều đó có thể có một tác động lên hành vi ở quy mô toàn xã hội.

Tất nhiên, tôi đã không nghĩ rằng ChatGPT thúc đẩy người ta dùng nhiều hơn các gạch ngang trong đời sống thực. Điều này tự nó không nghiêm trọng. Nhưng nó cho thấy những tác động nhỏ bất ngờ này có thể xuất hiện dễ dàng đến mức nào.

Đó chính là bản chất của thế giới mới này. 

TUCKER CARLSON

Như vậy, ông nói, một cách đúng mực và súc tích, là công nghệ thay đổi hành vi của con người và những giả thuyết của chúng ta về thế giới. Phần lớn những thay đổi này là không thể dự báo. Nhưng trong trường hợp này tại sao khuôn khổ đạo đức nội bộ của công nghệ lại không thể hoàn toàn minh bạch? Đối với tôi, rõ ràng đó là một dạng tôn giáo – tôi không nói điều đó để phê phán.

SAM ALTMAN

Tôi không xem đó là một sự công kích, nhưng tôi rất muốn biết qua đó ý ông muốn nói gì.

TUCKER CARLSON

À, đó là một điều mà người ta cho là mạnh mẽ hơn các cá thể và người ta hướng đến để tìm những điểm định hướng. Ta đã thấy trong thực tế: ta sẽ hỏi ai “đâu là quyết định đúng?” - hỏi bạn bè, vợ/chồng, Thượng Đế. Công nghệ này dường như cung cấp một câu trả lời chắc chắn hơn là một người thật. Do đó tôi đánh giá nó là một tôn giáo. Các tôn giáo có những giáo lý minh bạch: ông biết các tôn giáo bảo vệ điều gì và bác bỏ điều gì. Tôi không công kích ông, tôi cố gắng đi vào trọng tâm của vấn đề. Điều gây bối rối với công nghệ này là tôi không biết nó bảo vệ cái gì – cho dù nó bảo vệ rõ ràng một điều gì đó. Trừ phi nó không chấp nhận và nói ra với chúng ta, nó hướng chúng ta một cách tinh tế đến những kết luận mà có thể chúng ta không nhận ra. Tại sao không rõ ràng và nói rằng ChatGPT đồng ý với tự sát của các bệnh nhân ở giai đoạn cuối, nhưng chống tự sát của trẻ em và những người khác? Tại sao không nói với chúng tôi điều đó?

SAM ALTMAN

Chúng tôi tạo ra một bản đặc tả kỹ thuật dài cho mô hình và chúng tôi tiếp tục bổ sung để người ta có thể thấy chúng tôi muốn mô hình hành xử như thế nào. Trước đó, một cách hợp lý, người ta có thể nói rằng họ không biết đó là một hành vi sai sót hay cố ý.

Chúng tôi cố gắng sưu tầm tài liệu khi nào mô hình sẽ làm điều gì và khi nào nó sẽ không làm. Chúng tôi viết ra điều này vì tôi nghĩ rằng người ta cần biết.

TUCKER CARLSON

Có tồn tại một nơi nào có thể tìm thấy một tuyên bố cuối cùng về những ưu tiên của doanh nghiệp, nghĩa là những quan điểm được truyền đạt – có thể không phải cách hoàn toàn minh bạch – cho toàn thế giới? Người ta có thể tìm thấy những gì mà doanh nghiệp bảo vệ và ưu tiên ở đâu?

SAM ALTMAN

Bản đặc tả mô hình của chúng tôi là câu trả lời cho câu hỏi này. Tôi nghĩ rằng cần làm cho việc đặc tả các tiêu chuẩn kỹ thuật ngày càng chi tiết hơn theo thời gian, dần dần với việc sử dụng nó tại nhiều nước khác nhau, với các luật lệ khác nhau. Bản đặc tả này không vận hành theo cùng một cách đối với tất cả những người sử dụng khắp nơi trên thế giới.

Tôi mong chờ tài liệu này trở nên rất dài và rất phức tạp, nhưng cũng vì điều ấy mà chúng tôi làm.

TUCKER CARLSON

Cho phép tôi được đặt một câu hỏi cuối cùng. Ông có thể đáp trả nỗi sợ hãi rằng sức mạnh của công nghệ này khiến không thể phân biệt được giữa thực tại và hư cấu? Đó là một mối lo được biết rõ. Vì công nghệ rất tài tình trong việc bắt chước con người, diễn ngôn và hình ảnh của họ, có lẽ cần tìm một phương cách để kiểm chứng nhân thân của họ. Việc này sẽ cần đến những dữ liệu sinh trắc, điều sẽ xoá bỏ đời tư của tất cả mọi người trên thế giới.

SAM ALTMAN

Tôi không nghĩ rằng chúng ta cần hay chúng ta phải đòi hỏi sinh trắc để sử dụng công nghệ này.

Tôi nghĩ rằng ông có thể dùng ChatGPT từ một máy tính bất kỳ.

TUCKER CARLSON

Tôi hoàn toàn đồng ý. Nhưng đến một lúc nào đó, khi các hình ảnh hay âm thanh bắt chước một người một cách rất thuyết phục, thì sẽ dễ dàng lấy hết tiền trong tài khoản của một người, ví dụ vậy. Ông đã làm gì về vấn đề này?

SAM ALTMAN

Một vài suy nghĩ.

Chúng ta đang nhanh chóng tiến đến một thế giới ở đó người ta hiểu rằng nếu họ nhận được một cuộc gọi điện thoại của một ai đó giống như con cái hay cha mẹ họ, hoặc nếu họ thấy một hình ảnh có vẻ thật, thì họ cần có một phương tiện để kiểm chứng. Đây không còn là một mối lo trên lý thuyết, nhiều trường hợp đã được thông báo. Người ta thông minh, xã hội thích nghi, linh hoạt, và tôi nghĩ rằng người ta nhanh chóng hiểu ra đó là những kẻ xấu hành động như vậy.

Lúc đó, người ta thích nghi – và tìm cách khác để kiểm chứng.

Tôi nghĩ rằng như một số gia đình dùng các tên bằng mật mã trong những tình huống khủng hoảng, chúng ta sẽ thấy những vị tổng thống ký tên bằng mật mã những thông điệp khẩn cấp để bảo đảm tính xác thực của thông điệp.

Bằng cách đó, ta sẽ tránh được những video giả mạo đưa hình một ai đó như Trump thông báo những biện pháp mà Trump chưa bao giờ đề ra.

Người ta ý thức được đó là một rủi ro mới và tìm các cách để đối phó. Họ sẽ không còn tin tưởng truyền thông một cách máy móc và chúng tôi đang phát triển một cách có hệ thống những cơ chế để kiểm chứng tính xác thực.

Mặc dù không nêu tên, ở đây ta nghĩ tới công ty Palantir do Peter Thiel thành lập năm 2003. Công ty này chuyên môn hoá trong phân tích số lượng lớn dữ liệu cho các chính phủ, quân đội và các tập đoàn doanh nghiệp lớn. Công ty này được biết đến nhờ các phần mềm thông tin và giám sát, đặc biệt được CIA và Nhà Trắng sử dụng.

TUCKER CARLSON

Lúc bình thường, rủi ro một tổng thống có một tuyên bố chiến tranh giả mạo là ít hơn một tay lừa đảo trong thương mại điện tử. Làm thế nào để kiểm chứng?

SAM ALTMAN

Các gia đình có thể dùng các mật khẩu thường xuyên thay đổi. Nếu ông nhận được một cuộc gọi khả nghi, ông hỏi mật khẩu. Rất khác với việc dùng sinh trắc.

TUCKER CARLSON

Để lên một chiếc máy bay của một chuyến bay thương mại, sinh trắc là một phần của quy trình. Ông không nghĩ rằng việc ấy sẽ trở nên bắt buộc trên quy mô toàn xã hội?

SAM ALTMAN

Tôi thực tình mong rằng sinh trắc sẽ không trở nên bắt buộc. Có tồn tại những phiên bản về sinh trắc bảo vệ đời tư và tôi thích hơn nhiều so với việc thu thập những số lượng lớn thông tin kỹ thuật số về cá nhân một người nào đó. Nhưng những phiên bản sinh trắc này cũng không nên là bắt buộc. Ví dụ, ông sẽ không bị bắt buộc cung cấp dữ liệu sinh trắc để lên máy bay.

TUCKER CARLSON

Các giao dịch ngân hàng thì sao?

SAM ALTMAN

Tôi cũng không nghĩ là dữ liệu sinh trắc sẽ là bắt buộc đối với các giao dịch ngân hàng. Cá nhân tôi, có lẽ tôi thiên về sử dụng quét vân tay để mở ví Bitcoin của tôi – hơn là cung cấp tất cả thông tin về tôi cho ngân hàng.

Nhưng dù thế nào, việc ấy vẫn phải là quyết định của tôi.

Người dịch: Thái Thị Ngọc Dư

Nguồn:L’IA est-elle une nouvelle religion? Sam Altman chez Tucker Carlson”, Le Grand Continent, 20.9.2025.

Print Friendly and PDF