23.4.24

Tác động kinh tế và xã hội của trí tuệ nhân tạo, một cuộc đàm thoại với Martin Tisné, Ann Bradford, Anne Bouverot, Marc Faddoul và Brando Gabriel Ramos

TÁC ĐỘNG KINH TẾ VÀ XÃ HỘI CỦA TRÍ TUỆ NHÂN TẠO, MỘT CUỘC ĐÀM THOẠI VỚI MARTIN TISNÉ, ANU BRADFORD, ANNE BOUVEROT, GABRIELA RAMOS, MARC FADDOUL VÀ BRANDO BENIFEI

ChatGPT mới xuất hiện gần một năm nay. Từ đó, trí tuệ nhân tạo đã trở thành một chủ đề bàn luận toàn cầu. Giữa những vấn đề địa chính trị mà cuộc cách mạng công nghệ này là nguồn gốc và những xáo trộn mà ChatGPT gây ra trong các xã hội Phương Bắc và Phương Nam, trí tuệ nhân tạo làm lung lay mọi điều mà ta đã tin chắc. Liệu chúng ta còn có thể tác động đến tương lai mà trí tuệ nhân tạo dành cho chúng ta? Đó là toàn bộ nội dung của cuộc thảo luận phong phú với sáu người tham gia đã diễn ra trong buổi họp thượng đỉnh năm 2023 của Grand Continent.

Các tác giả: Anu Bradford, Gabriela Ramos, Anne Bouverot, Brando Benifei, Marc Faddoul, Martin Tisné

Cuộc đàm thoại này được ghi lại từ bàn tròn “Tác động kinh tế và xã hội của trí tuệ nhân tạo” do Martin Tisné điều hành, đã qui tụ Anu Bradford, Anne Bouverot, Gabriela Ramos, Marc Faddoul và Brando Benifei trong lần xuất bản đầu tiên Hội nghị thượng đỉnh của Grand Continent diễn ra tại Vallée d’Aoste, từ 18 đến 20 tháng 12 năm 2023. Chúng tôi công bố kỷ yếu hội nghị và các video của các phiên toàn thể.

MARTIN TISNÉ

Martin Tisné

Năm 2024 là một năm bầu cử bản lề quan trọng trên toàn thế giới, liên quan đến 2 tỷ cử tri. Có phải chúng ta sẽ chứng kiến một sự thay đổi về chất trong tác động của thông tin sai lệch về các cuộc bầu cử và dân chủ? Có phải điều đó sẽ thay đổi một cách cơ bản mối quan hệ của dân chúng với sự thật, tiếp sau sự xói mòn (sự thật) mà chúng ta đã chứng kiến? Hay đó chỉ là một sự khác biệt về lượng, nhờ đó mà ta sẽ có thể làm nhiều hơn với ít phương tiện hơn?

MARC FADDOUL

Chúng ta đang chứng kiến sự xuất hiện của những công cụ đổi mới tạo thuận lợi cho việc tạo ra một kiểu thông tin sai lệch chưa từng thấy. Nhìn chung, những công cụ này được đưa ra dần dần, chứ không phải một cách đột ngột, như điều ta quan sát được với các Deepfakes (một kỹ thuật sử dụng trí tuệ nhân tạo để tạo ra hình ảnh, âm thanh và video giả mạo -ND-) chẳng hạn. Mặc dù là chủ đề thảo luận trong thời gian gần đây, Deepfakes chưa tiêu biểu cho một dạng thống trị của thông tin sai lệch. Tuy nhiên, nhiều kiểu thông tin sai lệch đang xuất hiện, đặc biệt là những kiểu thông tin gắn với trí tuệ nhân tạo tạo sinh.

Marc Faddoul

Hãy lấy ví dụ các cuộc bầu cử, một lĩnh vực mà tổ chức không vì lợi nhuận của tôi, IA Forensic, đã nghiên cứu sâu. Gần đây, chúng tôi nhận thấy các chatbots (tạm dịch: trò chuyện tự động - ND) khi được hỏi về các cuộc bầu cử thường cung cấp những thông tin sai lạc, chẳng hạn như những kết quả thăm dò không đúng hay sự tồn tại của những cuộc bầu cử giả mạo, và nêu cả tên các ứng viên vốn không tồn tại. Chúng tôi đã quan sát thấy có đến 30% các câu trả lời của các chatbots hàm chứa những điều thực sự không chính xác. Một hiện tượng đáng lo ngại khác là các chatbots dẫn chứng những nguồn đáng tin cậy nhưng đưa ra những sai lầm trong các câu trả lời của chúng. Kiểu thông tin sai lệch này, vốn không được biết cho đến lúc đó, là đáng lo ngại, vì nó tạo thuận lợi cho nhiều người hơn có thể sản xuất và phổ biến thông tin sai lệch trên một quy mô rộng lớn hơn.

Như vậy, càng ngày người ta càng có thể tham gia vào những hoạt động tạo thông tin sai lệch. Tác động của hiện tượng này sẽ là gì? Ông đã chuẩn bị như thế nào cho IA Forensic cho năm tới? Ông có cảm thấy tình hình có phần hơi khác với những gì đã có trước đây?

MARC FADDOUL

Thách thức của lĩnh vực của chúng tôi bao gồm điều tra và thu thập những dữ liệu chính xác, điều này giúp chúng tôi hiểu được hệ thống này diễn biến như thế nào. Về phần chúng tôi, diễn biến này chủ yếu có nghĩa là phải tạo ra một cơ sở hạ tầng mới để thu thập dữ liệu. Digital Service Act (Đạo luật về dịch vụ kỹ thuật số) một mặt nào đó đã tạo thuận lợi cho việc này bằng cách tạo ra những hệ thống truy cập dữ liệu mới cho những nhà nghiên cứu như chúng tôi. Nhưng với tư cách một tác nhân từ bên ngoài, cách tiếp cận của chúng tôi bao gồm việc kiểm toán các hệ thống, và chúng tôi cũng làm việc đó một cách tích cực, bằng cách thu thập các dữ liệu mà không nhất thiết phải hỏi các nền tảng số.

BRANDO BENIFEI

Brando Benifei

AI Act (Đạo luật Trí tuệ nhân tạo) sẽ không tạo ra hiệu ứng trực tiếp trong năm tới, đặc biệt là vì nó sẽ chưa có hiệu lực vào dịp bầu cử của châu Âu và Mỹ. Việc áp dụng nó đòi hỏi nhiều thời gian hơn. Tuy nhiên, quan trọng là văn bản mới được phê duyệt gần đây từ nay đòi hỏi một sự minh bạch bắt buộc đối với nội dung do trí tuệ nhân tạo tạo ra, bao gồm cả việc áp dụng một hình mờ (watermarking là hình thức đóng dấu mờ lên văn bản hoặc hình ảnh nhằm đánh dấu độc quyền, tránh việc sao chép từ các đối thủ - ND). Mặc dù phương pháp kỹ thuật đặc thù đang còn được thảo luận và một quy chuẩn cần được thiết lập, chúng tôi đã cương quyết trên một điểm: các máy móc phải nhận được là nội dung do trí tuệ nhân tạo tạo ra ở ngay tận nguồn. Sự nhận diện này không chỉ giới hạn vào sự hủy bỏ hay dán nhãn bởi một nền tảng mạng lưới xã hội đặc thù, mà là do phải tạo điều kiện nhận biết nội dung như là do trí tuệ nhân tạo tạo ra.

Gần đây, chúng tôi nhận thấy các chatbots khi được hỏi về các cuộc bầu cử thường cung cấp những thông tin sai lạc.

MARC FADDOUL

Ngay khi văn bản cuối cùng được phê duyệt, dự kiến là vào tháng ba, chúng tôi sẽ khởi động một chương trình tự nguyện tuân thủ. Chúng tôi sẽ khuyến khích các doanh nghiệp chuyên môn hóa trong lĩnh vực trí tuệ nhân tạo tạo sinh bắt đầu áp dụng những quy tắc này, cho dù một cách không hoàn hảo và không vĩnh viễn, để giúp cho chúng tôi kiềm chế, ngoài những việc khác, tác động của deepfakes vốn làm chúng tôi lo ngại nhiều. Chúng tôi ý thức về rủi ro mà deepfakes gây ra về phương diện tạo ra một kiểu thông tin sai lệch mới. Nhưng từ các deepfakes, chúng tôi nghĩ điều chính yếu là thông báo rõ ràng những nội dung không có thực và trái lại chúng bị tạo ra hoặc bị thao túng bởi trí tuệ nhân tạo. Như vậy, mặc dù AI Act không được áp dụng đầy đủ vào những cuộc bầu cử sắp tới, chúng tôi nghĩ điều cốt tử là thông báo những nội dung không có thực, bị tạo ra và bị thao túng bởi trí tuệ nhân tạo. Cũng như chúng tôi đã làm với Voluntary Code for Social Media (Quy tắc ứng xử tự nguyện trên truyền thông mạng xã hội) trước khi Digital Service Act (DSA - Đạo Luật về Dịch vụ kỹ thuật số) có hiệu lực, tôi lạc quan một cách dè dặt về tác động tích cực của AI Act, ngay cả trước khi nó được áp dụng đầy đủ.

Một cách cụ thể, ai sẽ chịu trách nhiệm về công việc này? Các doanh nghiệp có đảm nhận trong nội bộ hay ông sẽ tùy thuộc vào các thực thể bên ngoài như AIFL? Tiến trình sẽ vận hành như thế nào?

BRANDO BENIFEI

Các doanh nghiệp rất muốn xã hội dân sự hay một người nào khác phụ trách việc này; sẽ cần lập trình viên tích hợp watermarking vào nội dung do trí tuệ nhân tạo tạo ra như là một thiết bị bắt buộc cho tất cả các hệ thống trí tuệ nhân tạo tạo sinh của doanh nghiệp. Đó phải là trách nhiệm của lập trình viên. Vâng, những tác nhân khác là có ích, nhưng chúng tôi muốn họ nhận trách nhiệm của họ.

Vấn đề trách nhiệm là một đường đứt gãy thực sự.

GABRIELA RAMOS

Gabriela Ramos

Tôi thấy dường như thông tin sai lệch, sự thao túng, sự can thiệp vào dân chủ không phải là những thách thức mới. Tuyên truyền vốn tồn tại từ lâu. Trái lại, điều thực sự gây ngạc nhiên chính là sự thiếu vắng những khuôn khổ trách nhiệm để xác định và xử lý vấn đề. Tất nhiên là sau đó có nhiều chuyển động để tiết chế nội dung, vì trách nhiệm của các nền tảng số liên quan đến những gì các nền tảng này phổ biến ra, đến những gì chúng không chấp nhận – chừng nào Decency Act (Đạo luật về chuẩn mực truyền thông) và điều quy định không chịu trách nhiệm về những gì người ta phổ biến vẫn tồn tại, thì vấn đề vẫn còn rất phức tạp. Trước đó, đặt ra vấn đề sử dụng các dữ liệu của công dân, đáng chú ý là những dữ liệu thần kinh, vì những hành vi của bạn được thu thập và quan sát: bạn sẽ không bao giờ bị thôi thúc hành động đến như thế nếu các hành vi của bạn không có tất cả những thông tin về điều đó.

Tôi thấy dường như thông tin sai lệch, sự thao túng, sự can thiệp vào dân chủ không phải là những thách thức mới

GABRIELA RAMOS

Do đó, tôi nghĩ rằng chúng ta cần bảo đảm rằng có tồn tại các quyền về thần kinh và bạn không thể bị thu thập nhân thân của bạn, điều này đưa chúng ta đến câu hỏi thay đổi mô hình kinh doanh (business model) như thế nào. Tất cả những gì tôi nói là dựa trên khuyến nghị về đạo đức của trí tuệ nhân tạo mà UNESCO đã đạt được sự tán thành của 193 nước, và khuyến nghị này đề cập nhiều đến những vấn đề này. Từ nay, chúng ta sẽ làm việc về các dữ liệu thần kinh: trong lúc làm như vậy, có thể chúng ta sẽ ngăn ngừa được nhiều sự thao túng. 

Tôi cũng muốn nói về tác động kinh tế và xã hội của trí tuệ nhân tạo, đặc biệt là đối với nguồn nhân lực. Một mặt, ta nói về sự giảm sút rõ ràng số việc làm, mặt khác, ta lại nói về một sự thay đổi triệt để trên thị trường lao động.

ANNE BOUVEROT

Anne Bouverot

Hiện nay chúng ta đang chứng kiến sự xuất hiện của một kiểu trí tuệ nhân tạo mới, với ChatGPT và các công cụ tương tự khác, mà ta gọi là trí tuệ nhân tạo tạo sinh. Công nghệ này, có khả năng tạo ra các văn bản, các câu và hình ảnh, làm thay đổi rất nhiều cách làm việc của chúng ta, đặc biệt là trong các lĩnh vực sáng tạo, hành chính và nghề nghiệp mà công việc nặng về dùng từ ngữ và hình ảnh. Trí tuệ nhân tạo tạo sinh là một con dao hai lưỡi. Một mặt, nó là một sự trợ giúp quý báu – chính tôi cũng dùng nó cho một số công việc – và mặt khác, nó thiên về thay thế các hoạt động có tính chất lập lại, ít sáng tạo và thường là ít có ý nghĩa. Không thể chối cãi rằng tác động của trí tuệ nhân tạo tạo sinh đối với thế giới việc làm bao gồm những khía cạnh tích cực, nhưng cũng gây ra những rủi ro. Một số công việc, đặc biệt là trong lĩnh vực hành chính, thường do phụ nữ đảm nhiệm, có thể bị ảnh hưởng. Mặc dù có ít việc làm có thể được thay thế hoàn toàn, nhiều việc làm khác sẽ chịu những biến đổi đáng kể. Điều này đòi hỏi phải thiết lập những biện pháp như tăng cường năng lực, kinh nghiệm và đào tạo, hay còn là sự chuyển hướng nghề nghiệp với một quy mô chưa từng có, nhất là với tốc độ nhanh chóng của những thay đổi quan sát được. Cần nhắc lại rằng ChatGPT ra đời mới gần một năm, và từ nay nó là chủ đề của những cuộc thảo luận không ngơi nghỉ. Có nhiều chiến lược để tiếp cận những thách thức này, và mới đây chúng tôi đã thành lập tại Pháp một viện để khảo sát một số trong những vấn đề này.

Khi nói về trí tuệ nhân tạo, nhiều người yêu thích tìm những yếu tố tương đồng. Có giống như hạt nhân không? Có giống như điện không? Người ta tìm cách rút ra những bài học từ quá khứ. Nhưng đứng trước một sự thay đổi triệt để như vậy trên thị trường lao động, bà có biết, hay bà có thể tính đến những trường hợp khác mà hành động của chính phủ đã đặc biệt thành công trong lĩnh vực chuyển hướng và chuyển đổi nghề nghiệp của nguồn nhân lực?

ANNE BOUVEROT

Tôi mong làm được điều đó, nhưng tôi nghĩ rằng chúng ta chưa bao giờ gặp một sự thay đổi nhanh chóng như vậy. Tất nhiên, lịch sử đã gặp những xáo trộn đáng kể, như với sự ra đời của máy hơi nước hay của báo in, nhưng nói chung những diễn biến này trải dài qua nhiều thế hệ. Ngày nay, chỉ trong vòng một năm, chúng ta đã chứng kiến những thay đổi quan trọng tại Pháp. Chúng ta đã thực sự bắt đầu hiểu ChatGPT là gì có lẽ vào khoảng tháng hai tháng ba, khi nó đối thoại được bằng tiếng Pháp. Tôi tin rằng hiện tượng này lặp lại tại các nước khác, nó xuất hiện đột ngột với một nhịp độ nhanh chưa thừng thấy, thậm chí vượt trội hơn nhịp độ của các mạng xã hội. Do dó, tìm những so sánh trong lịch sử là đặc biệt gay go.

Cần nhắc lại rằng ChatGPT ra đời mới gần một năm, và từ nay nó là chủ đề của những cuộc thảo luận không ngơi nghỉ.

ANNE BOUVEROT

Đồng thời, đó là những công cụ có thể giúp chúng ta học hỏi, nghĩa là chúng ta thực sự cần các doanh nghiệp và chính phủ tham gia vào việc đào tạo cho mọi lứa tuổi và cho mọi loại việc làm, cho những người đang đi học, nhưng cũng cho những nhân viên hiện nay đang làm việc.

ANU BRADFORD

Anu Bradford

Tôi nghĩ cần ghi nhớ cuộc khủng hoảng dân số mà chúng ta đang trải qua ở châu Âu. Chúng ta đang đi vào giai đoạn không có đủ nhân lực để thực hiện tất cả các công việc cần được thực hiện. Trước đây theo truyền thống chúng ta dự kiến ba giải pháp: tăng tuổi nghỉ hưu, viện đến nhập cư, hay tuyển nhiều phụ nữ hơn tham gia thị trường lao động. Ngày nay, cả ba giải pháp này hợp lại không còn đủ nữa để giải quyết khủng hoảng dân số. Trí tuệ nhân tạo biểu thị một cơ hội để gia tăng hiệu suất của châu Âu và tạo điều kiện cho công nghệ giúp đỡ chúng ta, nhưng tôi không hề đánh giá thấp sự chuyển đổi và những xáo trộn xã hội đi kèm nếu sự chuyển đổi không diễn ra một cách hoàn toàn thuận lợi. Nhưng tôi chỉ muốn thêm rằng điều đó cũng có thể là một cơ hội tiềm tàng cho châu Âu.

GABRIELA RAMOS

Không chỉ là một vấn đề việc làm ở châu Âu, mà còn liên quan đến thị trường lao động toàn cầu. Chúng ta phải thực sự tìm hiểu vấn đề những người lao động tại các nước đang phát triển khi họ nhận mức lương 2 đô là một giờ đồng thời phải đối phó với sự độc hại của nền kinh tế mới này. Điều này cực kỳ quan trọng.

Nếu ta xem xét mong muốn của châu Âu muốn tạo thuận lợi cho các doanh nghiệp có tinh thần cạnh tranh và xây dựng quy chế cho các doanh nghiệp hiện hữu, ở bất kỳ địa điểm nào, thì một câu hỏi được đặt ra: Liên minh châu Âu có thể đóng vai trò gì trong hệ sinh thái của trí tuệ nhân tạo, nhất là trong bối cảnh mà các nền tảng số của Mỹ đang thống trị cơ sở hạ tầng từ hơn một thập kỷ qua? Chúng ta phải chọn chỗ đứng nào khi cơ sở hạ tầng này dường như bị khóa chặt trong giai đoạn hiện nay?

ANU BRADFORD

Tôi rất lo ngại về hiệu ứng lan rộng mà trí tuệ nhân tạo có thể có trên một số vấn đề, nhất là vấn đề thông tin sai lệch. Vấn đề này vốn đã tồn tại, việc điều chỉnh có nguy cơ trở nên phức tạp hơn với trí tuệ nhân tạo. Mối lo ngại này cũng lan rộng đến sự thống trị các thị trường công nghệ hiện nay vốn cực kỳ tập trung. Người dân châu Âu hoàn toàn ý thức về điều này và đang tích cực làm việc về vấn đề này từ thập kỷ vừa qua. Ví dụ, Google đã là đối tượng của ba trình tự tố tụng, kết quả là bị phạt khoảng 10 tỷ đô la. Tuy nhiên, chúng ta đã không thực sự thành công trong việc mở những thị trường này để làm cho chúng mang tính cạnh tranh hơn. Nếu ta quan sát cuộc chạy đua về trí tuệ nhân tạo, ta nhận thấy rằng những người lãnh đạo là những người khổng lồ công nghệ rất mạnh của Mỹ. Từ nay, họ có những công cụ mới để tăng cường sự thống trị của họ. Họ tiêu biểu cho thị trường toàn cầu về trí tuệ nhân tạo xuất sắc nhất và đáng nể nhất. Chính vì lý do đó mà tôi hoan nghênh sự phê duyệt AI Act: chúng ta càng đợi thì sự thống trị này càng được tăng cường và trở nên khó kiềm chế. Tôi nghĩ có ba lý do chính giải thích sự tập trung trí tuệ nhân tạo vào tay những người khổng lồ về công nghệ. Vậy thì điều gì thực sự là cần thiết để sở hữu những năng lực này của trí tuệ nhân tạo nhằm tham gia vào cuộc chạy đua?

Trước tiên, cần có dữ liệu. Tôi bảo vệ quyền cơ bản bảo vệ các dữ liệu, như các bạn đã thấy trong bất cứ quyển sách nào của tôi. Nhưng tôi cũng nói rằng chúng ta cần hiểu là phải có một cách cho chúng ta thương mại hóa các dữ liệu một cách tương thích với cam kết của chúng ta về bảo vệ các dữ liệu. Chúng ta phải làm nhiều hơn nữa để tạo ra một không gian các dữ liệu của châu Âu, và chúng ta thực sự tham gia vào để các doanh nghiệp châu Âu có thể khai thác những dữ liệu được tạo ra ở châu Âu. Các doanh nghiệp Mỹ và Trung Quốc đang đi trước chúng ta về vấn đề này. Những người khổng lồ công nghệ, nhất là các người khổng lồ công nghệ Mỹ vốn đang thống trị thế giới, truy cập được nhiều thông tin đa dạng trên quy mô toàn thế giới. Trung Quốc truy cập mạnh các dữ liệu của thị trường nội địa rộng lớn của họ, với một dân số kết nối với mạng Internet rất cao và dành nhiều thời gian tham gia trực tuyến.

Thứ hai, ngoài các dữ liệu, ta cần năng lực tính toán mạnh, vốn rất đắt và rất khó có được. Hiện nay, những doanh nghiệp công nghệ lớn nhất của Mỹ tiếp cận được rất nhanh năng lực này. Mỹ và Trung Quốc đã tự mình có được năng lực tính toán mạnh mẽ.

Trung Quốc truy cập mạnh các dữ liệu của thị trường nội địa rộng lớn của họ, với một dân số kết nối với mạng rất cao và dành nhiều thời gian tham gia trực tuyến.

ANU BRADFORD

Và yếu tố thứ ba là tài năng. Một lần nữa, đó là điều mà người dân châu Âu phải thực sự coi trọng để chúng ta có thể dẫn đầu trong cuộc đua về trí tuệ nhân tạo.

Tóm lại, cùng lúc chúng ta cố gắng, qua đạo luật AI Act và qua luật lệ trên các thị trường kỹ thuật số, mở khóa thị trường và làm suy yếu một phần sự thống trị của các đối thủ cạnh tranh của chúng ta, chúng ta cũng phải có một chiến lược song song để giúp cho các doanh nghiệp trí tuệ nhân tạo châu Âu thành công, cho họ truy cập các dữ liệu, cố gắng hiểu làm cách nào họ có thể có được năng lực tính toán mà họ cần, và tối đa hóa năng lực thu hút nhân tài vào các doanh nghiệp của họ.

Liên quan đến vấn đề đứt đoạn của tích hợp theo chiều dọc, chúng ta có nên cho phép chỉ một nhóm làm chủ toàn bộ chuỗi sản xuất, đi từ mô hình như ChatGPT, đến Cloud (điện toán đám mây) dựa trên đó nó được phát triển, như Azure, và cho đến kiểm soát ứng dụng và giao diện người dùng, không quan trọng cách ứng dụng này được thiết kế như thế nào? Đó có phải là một khía cạnh mà bà xem xét?

ANU BRADFORD 

Thật vậy, tôi nghĩ rằng chính xác là vì lý do này mà những sáng kiến như GaiaX[*] đã ra đời, tìm cách giảm sự lệ thuộc của chúng ta đối với các dịch vụ đám mây của Mỹ, đồng thời chú ý xem xét sự thống trị của Trung Quốc trong lĩnh vực này.Tôi không chắc có ai ở đây có thể đưa ra một cách nhìn tích cực hơn về tình trạng hiện nay của GaiaX, nhưng đúng là những toan tính tạo ra một phương án thay thế của châu Âu đã kết thúc trong thất bại. Điều này biểu thị một thách thức khổng lồ, và vấn đề tích hợp theo chiều dọc quả thật là điều cốt tử.

Vấn đề then chốt là cần biết chúng ta có thể đưa ra những giải pháp mang tính cấu trúc và chúng thực sự hạn chế năng lực kiểm soát mỗi khía cạnh của hệ sinh thái công nghệ hay không. Chủ đề này đang được thảo luận rộng rãi và bắt đầu thu hút sự chú ý ngay cả ở Mỹ, họ bắt đầu có ý thức về vấn đề này, dù có phần trễ. Cũng ở bên Mỹ, sự lo lắng gia tăng trước tính chất phân nhánh của các doanh nghiệp này khi ngày nay họ kiểm soát tất cả mọi khía cạnh của hệ sinh thái. Điều đó có nghĩa là bất kỳ tác nhân mới nào có ý định thâm nhập thị trường phải đối phó với nhiều thách thức.

BRANDO BENIFEI

Tôi hoàn toàn đồng ý với những điểm đã được nêu ra trên đây, nhất là liên quan đến tầm quan trọng của các dữ liệu và năng lực tính toán, cả hai cần tiếp cận với các nguồn lực trong nội bộ châu Âu. Như Ursula Von der Leyen đã nhấn mạnh trong bài nói chuyện của bà cách đây vài tháng, tôi cho rằng khía cạnh này là cốt yếu. Các nhân tài cũng là chính yếu. Tuy nhiên, tôi tạm thời rời khỏi vai trò người thương lượng về AI Act để phát biểu với tư cách một chính trị gia, rõ ràng vấn đề này mang một chiều kích chính trị quan trọng. Đang thiếu sự thống nhất chính trị và ý chí ở tầm vóc châu Âu.

Để vượt qua những thách thức này, cần có một mục tiêu chung và quyền tự chủ. Khi khảo sát tổ chức các thị trường vốn của chúng ta và sự luân chuyển các nhân tài, nhiều khía cạnh của tính cạnh tranh của trí tuệ nhân tạo trong nội bộ châu Âu lệ thuộc vào năng lực của các quốc gia thành viên, vì lý do các quyền năng hạn chế của Liên minh châu Âu, những ràng buộc về ngân sách và thiếu quyền lực về thuế để khuyến khích các quyết định. Hơn nữa, chúng ta thiếu một chính sách công nghiệp thực sự ở tầm vóc châu Âu. Tôi không muốn đánh lạc hướng cuộc thảo luận hiện tại của chúng ta, nhưng chúng ta phải chấp nhận vấn đề đặt ra do sự hội nhập của châu Âu còn yếu. Theo ý tôi, vấn đề chính trị này phải được biết nếu chúng ta mong muốn sửa chữa các thiếu sót.

Để vượt qua những thách thức này, cần có một mục tiêu chung và quyền tự chủ.

BRANDO BENIFI

Mặt khác, ngay cả khi ở cấp châu Âu có một quyền năng đáng kể trong lĩnh vực những quy định chống độc quyền và điều hành thị trường, thì như chúng ta đã đề cập ở trên, tác động của tiền phạt tỏ ra có giới hạn. Có thể rằng, một lần nữa, vấn đề nằm trong lĩnh vực quyền tự chủ và ý chí chính trị, mà nay vẫn còn thiếu. Tôi tin rằng cuộc thảo luận này tự thân nó gắn với các cuộc thảo luận hiện nay của chúng ta.

Vào lúc khởi đầu của sự việc sau này sẽ trở thành Liên minh châu Âu, ý tưởng là hợp thành liên bang, có phải vậy không? Tập hợp lại chung quanh than đá và thép. Trong cùng mạch suy nghĩ này, ta có thể dự kiến liên kết các năng lực tính toán về máy tính giữa các quốc gia thành viên khác nhau không?

BRANDO BENIFEI

Nhất định rồi.

ANNE BOUVEROT

Tôi không phải là chính trị gia và tôi sẽ cố gắng không là như vậy. Tôi muốn đề cập đến vấn đề này từ một quan điểm mang tính công nghệ hơn.

Gần đây chúng ta đã quan sát thấy sự xuất hiện của nhiều doanh nghiệp khởi nghiệp trong lĩnh vực trí tuệ nhân tạo tạo sinh. Mặc dù rất nhiều trong số họ gắn với các doanh nghiệp lớn đã vững vàng, có một số hoạt động một cách độc lập. Ví dụ, OpenAI, vốn là độc lập, đã ký một thỏa thuận quan trọng 13 tỷ đô la với Microsoft. Tương tự như vậy, Anthropic, một doanh nghiệp khởi nghiệp riêng biệt, đã ký một thỏa thuận với Amazon. Tại châu Âu cũng xuất hiện những sáng kiến tương tự: nước Đức có Aleph Alpha, và nước Pháp có LightOn và Mistral. Những ví dụ này cho thấy có những cơ hội để dấn thân vào những phân khúc đặc thù của chuỗi giá trị. Mặc dù tích hợp theo chiều dọc có thể là một giải pháp tạm thời với nhiều rủi ro, nó cũng cung cấp một cơ hội, nhất là với sự tiếp cận nguồn mở.

Tất nhiên nguồn mở không phải là giải pháp cho mọi vấn đề, nhưng nó biểu thị một phương tiện tiếp cận một thị trường không cạnh tranh và cố gắng mở nó ra. Cách tiếp cận này đáng được tìm hiểu, nhất là ở châu Âu. Có thể nó không cung cấp tất cả các câu trả lời, nhưng nó thể hiện một sáng kiến đầy hứa hẹn.

Chúng ta đã thảo luận về vai trò mà Nhà Nước có thể đảm nhiệm và những khích lệ mà Nhà nước có thể đem lại. Nhưng xét cho cùng, dường như tất cả đều phải được quyết định bởi các tác nhân tư nhân trong lòng một thị trường cũng được tư nhân hóa. Trong khuôn khổ đó, có phải chúng ta chỉ đơn giản phải chấp nhận chờ xem mô hình doanh nghiệp nào sẽ xuất hiện để rồi sau đó cố gắng điều chỉnh nó một cách hậu nghiệm? Hay là Nhà nước đảm nhiệm một vai trò khác, chủ động hơn trong bối cảnh này?

GABRIELA RAMOS 

Tôi nghĩ rằng AI Act, nghị định của tổng thống Biden, hội nghi thượng đỉnh về trí tuệ nhân tạo và tiến trình Hiroshima[**] cùng đóng góp vào một sự thay đổi trong diễn ngôn về trí tuệ nhân tạo. Sự tập trung ngày càng tăng của thị trường và quyền lực do các doanh nghiệp này nắm giữ biểu thị những rủi ro từ nay được nhận biết và các chính phủ cố gắng đáp lại. Những hành động do các Nhà nước tiến hành, bao gồm cả những hành động được đề cập đến trong những nghị định của tổng thống Mỹ, gợi ra rằng có một chuyển động hướng đến một mô hình thương mại khác, không quan tâm đến sự thiếu vắng các quy định.

Sự tham gia của tôi vào hội nghị thượng đỉnh về trí tuệ nhân tạo tại Vương Quốc Anh là một phát hiện. Trước hội nghị, tổng thống Biden đã ban hành nghị định của ông, và khi hội nghị kết thúc, đã có một sự đồng thuận về quy chế. Điều đó đã đánh dấu một bước ngoặt đáng kể trong diễn ngôn, tăng cường niềm tin rằng quy định hóa là có thể thực hiện được. Vấn đề từ nay là cần biết tiến hành như thế nào. Mặc dù con đường không phải là không có trở ngại, chúng ta có những công cụ cần thiết. Các doanh nghiệp này hành động như những độc quyền đương nhiên, đầu tư các thị trường, tạo ra, nắm giữ các quyền sở hữu trí tuệ và kiểm soát các nguồn lực ngay từ lúc đầu.

Có một chuyển động hướng đến một mô hình thương mại khác, không quan tâm đến sự thiếu vắng các quy định.

GABRIELA RAMOS

Một yếu tố then chốt của sự thay đổi này là sự đánh giá lại cách chúng ta quản lý các dữ liệu, đồng thời thừa nhận vai trò vật trao đổi của dữ liệu để tạo ra những sản phẩm mới. Một khía cạnh khác của sự thay đổi trong diễn ngôn là sự thừa nhận rằng các thị trường gây ảnh hưởng nhiều hơn các quy định bằng cách uốn nắn các chính phủ, và ngược lại. Với tư cách là nhà kinh tế học và người chịu trách nhiệm về chính trị, trước đây trong một thời gian dài tôi đã tin là các chính phủ rút về phía sau, nhưng họ có nhiều công cụ khác nhau như sự khuyến khích, các loại thuế, các thị trường công và các quy định, để tác động vào hành vi của các thị trường.

Châu Âu đi tiên phong trong sự thay đổi này. Mặc dù là tiệm tiến, chuyển động này chỉ ra một sự thay đổi trong cách mà các chính phủ can thiệp vào. Việc lập ra các viện nghiên cứu tại Pháp, Vương Quốc Anh và Mỹ là đáng chú ý và phản ánh diễn tiến của diễn ngôn. Tôi hy vọng là các chính phủ nhận ra rằng họ không những có các công cụ cần thiết để điều chỉnh những thách thức này, mà còn là một bổn phận trong lĩnh vực này, đó là điều vô cùng quan trọng.

Khi tôi bắt đầu làm việc về quản trị toàn cầu trí tuệ nhân tạo năm 2017, có 9 sáng kiến toàn cầu về quản trị trí tuệ nhân tạo và ngày nay có 50 sáng kiến. Chúng ta có những tác nhân toàn cầu từ khu vực tư nhân, thực sự là toàn cầu, và chúng ta có những cách tiếp cận khác nhau từ các vùng khác nhau. Đem đến một ý nghĩa cho sự phân vùng các cách tiếp cận như thế nào? Việc có một khung châu Âu có tạo nên một con đường đúng để đi theo không vì đó là một cực thu hút đối với những cách tiếp cận khác? Hay là, trái lại, sự phân vùng tiềm ẩn một vấn đề vì khi tiến quá xa so với các vùng khác, thì thực ra chúng ta tạo ra một quang cảnh toàn cầu bị phân mảnh có thể bị dễ dàng thao túng?

ANU BRADFORD

Tất nhiên, có một sự đồng thuận ngày càng gia tăng trên toàn thế giới về vấn đề là trí tuệ nhân tạo phải là đối tượng của một sự quy định hóa. Tuy nhiên, vẫn không có thỏa thuận về một cách tiếp cận tốt nhất trong lĩnh vực quy định hóa. Các chính phủ đang xem xét ba mô hình chính về quản trị trí tuệ nhân tạo.

Mô hình Mỹ được xây dựng dựa trên thị trường đặt nặng thị trường tự do, giảm nhẹ vai trò của chính phủ và dành ưu tiên cho đổi mới sáng tạo. Sự thờ ơ với quy định hóa là hệ quả của động thái cạnh tranh của sự đua tranh công nghệ với Trung Quốc: Mỹ không thể lấy rủi ro làm suy yếu một trong những nguồn lực quan trọng nhất trong cuộc đối đầu này.

Ngược lại, Trung Quốc đi theo một mô hình được quy định do Nhà Nước điều khiển, nhắm đến tăng cường sự kiểm soát chính trị của Đảng Cộng Sản Trung Quốc và duy trì ổn định xã hội. Cùng với việc hưởng lợi từ một số khía cạnh của trí tuệ nhân tạo, ví dụ như nhận diện, để giám sát đại trà, Trung Quốc cũng đối diện với các thách thức, vì trí tuệ nhân tạo tạo sinh có thể có tiềm năng làm suy yếu sự kiểm soát bằng cách tạo ra nhưng nội dung không tương thích với chế độ kiểm duyệt của Trung Quốc. Trung Quốc đã phản ứng bằng cách kiềm chế trí tuệ nhân tạo tạo sinh để kéo những sản phẩm về phía các thông điệp của đảng.

Ngược lại, châu Âu đồng thời bác bỏ mô hình dựa trên thị trường và mô hình dựa trên Nhà Nước. Thay vào điều đó, châu Âu đã phát triển một mô hình có quy tắc được xây dựng trên các quyền, và việc bảo vệ các quyền cơ bản, bảo tồn các cơ cấu dân chủ và một nền kinh tế kỹ thuật số công bằng là trọng tâm của những mối quan tâm của châu Âu. Đạo luật AI Act minh chứng cho sự cam kết này bằng cách tích hợp sự quản trị vào luật pháp, trong khuôn khổ Nhà nước pháp quyền và các thiết chế dân chủ.

Tôi quan sát một số xu hướng trên thế giới, mặc dù thiếu một thỏa thuận toàn cầu. Từ nay, nhiều nước xa rời mô hình Mỹ dựa trên thị trường, như các bài học về cách mạng Internet đã chứng tỏ. Sự tin cậy đã sút giảm do bị đặt sai chỗ trong sự tự quản của các doanh nghiệp công nghệ, ngay cả tại Mỹ. Hàng trăm trang của nghị định tổng thống mới nhất ra lệnh cho hơn 25 tổ chức phải đặt quy chế cho trí tuệ nhân tạo chứng tỏ điều đó.

Ngay cả Mỹ cũng rời xa những bản năng kỹ trị-tự do của mình, trong khi phần còn lại của thế giới hướng về một nền quản trị ngày càng phát triển. Vấn đề then chốt là phải biết sự thay đổi này có đứng về phía mô hình quản trị Trung Quốc hay không. Nhiều nhà nước chuyên chế, không đồng tình với điều mà Brando Benifei và các đồng nghiệp của ông tại Nghị Viện châu Âu đề nghị, thích cách tiếp cận của Trung Quốc hơn. Những nước này không cần các quyền và nền dân chủ và nhìn Trung Quốc với sự ngưỡng mộ.

Sự tin cậy đã sút giảm do bị bị đặt sai chỗ trong sự tự quản của các doanh nghiệp công nghệ, ngay cả tại Mỹ.

ANU BRADFORD

Có một sự thật khó chịu mà tôi phải thừa nhận: thật khó cho chúng ta phản đối mô hình điều khiển của Trung Quốc. Trung Quốc đã chứng minh rằng tự do không phải là điều kiện tiên quyết của đổi mới sáng tạo. Dù chúng ta có thích hay không, Trung Quốc đã xây dựng một nền kinh tế công nghệ phồn thịnh, bao gồm cả lĩnh vực trí tuệ nhân tạo, mà không chấp nhận tự do. Thật khó cho chúng ta thuyết phục thế giới tiếp nhận mô hình của chúng ta khi Trung Quốc đã cho thấy mô hình của họ thuận lợi cho một sự kiểm soát mà không hy sinh tăng trưởng kinh tế và đổi mới sáng tạo. Họ đã thành công trong việc cân bằng điều này bằng cách áp dụng một chế độ kiểm duyệt để duy trì việc kiểm soát, hạn chế các dữ liệu cho việc đào tạo các mô hình này. Mặc dù chúng ta phải tiếp tục đối phó với thách thức này, chúng ta không nên giả định rằng mô hình dựa trên các quyền là chuẩn mực của thế giới. Một bộ phận ngày càng tăng của thế giới đang thích nghi với chủ nghĩa chuyên chế.

Bà đã viết một bài báo nổi tiếng về hiệu ứng Bruxelles[***], bà nhìn hiện tượng này xuất hiện như thế nào? Ví dụ, gần đây chúng ta đã thấy tiểu bang California chấp thuận một cách tiếp cận rất khác về vấn đề bảo vệ các dữ liệu và xích lại gần cách của Liên minh châu Âu. Tiểu bang California cũng đã chấp thuận một cách tiếp cận rất khác liên quan đến quyền riêng tư của trẻ em trên mạng trực tuyến. Những diễn tiến này diễn ra như thế nào trên các thị trường khác nhau trong các nước khác nhau?

ANU BRADFORD

Nếu chúng ta theo dõi ý tưởng có sự tăng cường một sức bật toàn cầu thuận lợi cho việc lập quy chế, một ví dụ rõ ràng là Liên minh châu Âu, một cơ quan lập pháp có uy tín đã chứng tỏ một sự quản trị trí tuệ nhân tạo hiệu quả. Liên minh châu Âu đã ấn định một tập hợp đầy đủ các quy tắc và điều luật, cung cấp một mô hình có thể lặp lại cho tất cả các chính phủ trên toàn thế giới. Từ nay, những nước tìm cách lập quy chế về trí tuệ nhân tạo có sẵn một mô hình lập pháp dân chủ như một phương án thay thế cho mô hình Trung Quốc. Điều này thể hiện một tiềm năng quan trọng cho hiệu ứng Bruxelles, ở đó cách tiếp cận của Liên minh châu Âu có thể được nhiều chính phủ tiếp nhận.

Liên minh châu Âu đã ấn định một tập hợp đầy đủ các quy tắc và điều luật, cung cấp một mô hình có thể lặp lại cho tất cả các chính phủ trên toàn thế giới.

ANU BRADFORD

Hơn nữa, có thể có một hiệu ứng Bruxelles tỏa ra từ các doanh nghiệp trí tuệ nhân tạo. Khi tìm cách thích ứng với AI Act, các doanh nhiệp này có thể lựa chọn mở rộng những nghĩa vụ bắt buộc của họ trong lĩnh vực quản trị dữ liệu ra các thị trường khác. Mặc dù đó không phải là một hiệu ứng Bruxelles đầy đủ, vẫn có những trường hợp các doanh nghiệp có thể chịu ảnh hưởng, đặc biệt là do diễn ngôn chính trị hiện thời nhấn mạnh đến những lựa chọn của họ để định hình những thực hành đạo đức ở châu Âu. Dần dần theo diễn tiến của những mong đợi, chúng ta có thể chứng kiến một sự mở rộng những biện pháp thích ứng ở quy mô toàn cầu.

Nhân hội nghị thượng đỉnh Anh Quốc về an toàn của trí tuệ nhân tạo, nghị định tổng thống của Joe Biden đã được công bố và hội nghị đã khai mạc hai ngày sau: ta có cảm tưởng là một cuộc đua kéo tất cả lên phía trên. Khi tôi nói với một công chức cao cấp rằng tôi thấy điều đó thật tuyệt, ông ta đã trả lời đó không phải là một cuộc đua, mà tất cả đã được phối hợp: những nỗ lực đã được hoạch định. AI Act là như thế nào trong trường hợp này? Ông nghĩ gì về vai trò toàn cầu mà trí tuệ nhân tạo có thể đảm trách? AI Act tham gia vào những vấn đề địa chính trị khác nhau hiện nay như thế nào?

BRANDO BENIFEI

Thứ nhất, cách tiến hành của chúng ta bao gồm biến đổi những quy tắc ứng xử hiện hữu và những khuyến nghị thành các luật bắt buộc. Ví dụ, quy tắc ứng xử của các nước G7 về trí tuệ nhân tạo tạo sinh hài hòa với quy tắc về AI Act, nhưng sự khác biệt quan trọng nằm ở khả năng của chúng ta để áp dụng các quy tắc này, hơn là chỉ đơn giản yêu cầu sự tuân thủ của các doanh nghiệp công nghiệp lớn. Mục tiêu của chúng ta là điều hành, giám sát và áp dụng các quy tắc này.

Tôi cũng muốn nhấn mạnh trường hợp của Nam Mỹ, tạo thành một ví dụ lý thú. Nhiều nước ở Nam Mỹ tham gia cuộc thảo luận về bảo vệ các dữ liệu và lập quy chế cho trí tuệ nhân tạo. Tuy nhiên, các nhà làm luật gặp những thách thức, đáng chú ý là do thiếu vắng một thị trường tích hợp. Các doanh nghiệp công nghệ lớn tạo một áp lực lên các thị trường nội địa, điều này có nguy cơ gây hại cho các nền kinh tế. Phải thừa nhận rằng có một thị trường duy nhất đưa đến cho ta khả năng xác định các quy tắc, mặc dù có sự chống đối của một số doanh nghiệp công nghệ lớn.

Cách tiến hành của chúng ta bao gồm biến đổi những quy tắc ứng xử hiện hữu và những khuyến nghị thành các luật bắt buộc.

BRANDO BENIFEI

Diễn biến của cuộc thảo luận về trí tuệ nhân tạo bộc lộ rõ ràng trong trường hợp watermarking (áp dụng hình mờ) các nội dung do trí tuệ nhân tạo tạo ra, lúc đầu bị các doanh nghiệp công nghệ khổng lồ xem là không thể được. Ngày nay, nguyên tắc này (watermarking) được chấp nhận rộng rãi và cuộc thảo luận hướng về các vấn đề quyền tác giả, điều này cho thấy các quan điểm có thể tiến triển. Quan trọng là nhấn mạnh rằng thị trường tích hợp tăng cường vị trí của chúng ta trước những gã khổng lồ công nghệ. Mặc dù luật về trí tuệ nhân tạo đề nghị một mô hình đổi mới sáng tạo, việc áp dụng ngay luật này ở những nơi khác có thể khó khăn do những khác biệt về văn hóa trong lĩnh vực bảo vệ các dữ liệu và những người tiêu dùng.

Tôi nhận thấy càng ngày người ta càng khăng khăng nhấn mạnh cần có một pháp chế cụ thể hơn. Có thể sẽ có những biến thể và những mức độ khác nhau trong việc thực hiện luật pháp. Tôi đã có nhiều cuộc thảo luận với các công chức và luật gia Canada, thăm dò những mức độ đánh giá khác nhau của sự phù hợp bắt buộc và đánh giá tác động đối với các quyền cơ bản. Dường như có một sự ức chế nhất định trước cách tiếp cận những khuyến nghị không hiệu quả và sự cam kết tự nguyện, rõ ràng là không thực hiện được.

Tôi hy vọng là sẽ có thể tiến triển một cách tổng thể theo hướng của chúng ta chứ không phải theo một hướng độc đoán. Một số lớn những người hiện diện ở đây biết rằng chúng ta đã dành rất nhiều thời gian và nỗ lực cho vấn đề giám sát sinh trắc học. Đó là một mối quan tâm rất quan trọng trong những thương lượng để ngăn cản sự xuất hiện đột ngột một xã hội giám sát ở châu Âu mà các công dân không biết và không nhận ra. Khía cạnh này là cốt yếu và thực sự phân biệt chúng ta với cách tiếp cận của Trung Quốc.

ANNE BOUVEROT

Sau hội nghị thượng đỉnh về trí truệ nhân tạo ở Anh, nước Pháp sẽ tổ chức hội nghị sắp tới, và tôi thấy điều đó thật cuốn hút. Đó là điều mà một số trong chúng ta đã bảo vệ. Ngày chính xác chưa được xác định, nhưng có lẽ là vào cuối năm. Do có khoảng cách một năm giữa hai kỳ hội nghị, mục tiêu của chúng ta là thăm dò những gì chúng ta có thể thực hiện trong thời gian giữa hai ngội nghị, đặc biệt là trong lĩnh vực quản trị trí tuệ nhân tạo. Hiện đã có 50 sáng kiến, như chúng ta đã nghe thấy, bao gồm cả phúc trình của UNESCO mà Gabriela Ramos đã tham gia soạn thảo.

Một khi AI Act được chính thức thông qua, sẽ sớm thôi, chúng tôi dự kiến sẽ nghiên cứu cách mà đạo luật mở rộng tác động của nó trên quy mô toàn thế giới. Cần tìm một thế quân bình tinh tế giữa những sự kiện và nhóm khác nhau, như nhóm G7 đã làm khi tác động vào luật về trí tuệ nhân tạo. Thăm dò sự hợp tác dựa trên các giá trị được chia sẻ là điều cốt tử, vì tôi đồng ý với những ý tưởng đã được bày tỏ trước đây. Đạt đến một thỏa thuận mạnh mẽ trở thành một thách thức với những giá trị khác nhau. Trước khi hội nghị tại Pháp diễn ra, chúng tôi có ý định tập hợp những đề nghị, và tôi chắc chắn rằng nhiều người có mặt trong phòng này sẽ đóng góp vào nỗ lực này.

GABRIELA RAMOS

Cho phép tôi được chia sẻ cùng quý vị khuyến nghị của UNESCO. Đó là một luật không bắt buộc, dựa trên các quyền con người, nhân phẩm và tính bền vững – những nguyên tắc mà dường như tất cả mọi người đều đi theo. Điểm mấu chốt không chỉ là có các thỏa thuận khác nhau này; ở UNESCO, chúng tôi đã tạo thuận lợi cho việc tạo ra một công cụ, là công cụ đầu tiên trong loại này, cấm sự giám sát đại trà và chấm điểm xã hội (scoring social) và ngăn cản việc cấp một nhân cách pháp lý cho một sự phát triển. Tuy nhiên, hiệu quả của các thỏa thuận này dựa trên sự thể hiện chúng thành những chính sách cụ thể.

Chúng tôi đã hoàn thiện một phương pháp đánh giá tình hình chuẩn bị với việc hợp tác với 50 nước. Để trả lời cho phát biểu của Brando về châu Mỹ La tinh và vùng Caribe, những nước này đã lập nên một hội đồng để thực hiện khuyến nghị của UNESCO. Giai đoạn cốt yếu cho các nước này là hiểu được họ có thể cải thiện các khung pháp lý và thể chế của họ như thế nào để hướng dẫn trí tuệ nhân tạo một cách có trách nhiệm. Tôi hợp tác với các đối tác châu Âu và chính quyền Hà Lan vì trong thực tế, thường là khó để biết bộ nào chịu trách nhiệm – bộ trưởng Bộ Kỹ thuật số hay bộ trưởng Bộ Tư pháp.

Tính hiệu quả của các thỏa thuận quốc tế về trí tuệ nhân tạo tùy thuộc vào sự thể hiện chúng thành các chính sách cụ thể.

GABRIELA RAMOS

Tất cả những nỗ lực này sẽ có một tác động đáng kể chỉ khi được tích hợp trong những cơ cấu pháp lý và thể chế của các nước khác nhau. Như đã được nhấn mạnh rất chính xác, mỗi nước có những ưu tiên khác nhau, và vai trò của UNESCO không phải là ra lệnh mà là cung cấp một khuôn khổ. Một số nước ngại lấy rủi ro, trong khi một số nước khác lại lấy rủi ro, và mục tiêu tối hậu là đem đến cho các chính phủ những phương tiện để điều hành những công nghệ này. 

Bà đã nói về tầm quan trọng cốt tử của các dữ liệu của chúng ta và tác động đồng loạt của chúng vốn nuôi dưỡng mô hình kinh tế và đóng một vai trò chính yếu trong kinh doanh trí tuệ nhân tạo. Quan điểm của bà về vấn đề này là như thế nào? Quan điểm của bà về quản trị các dữ liệu và về cách mà điều đó cần thay đổi là như thế nào?

GABRIELA RAMOS 

Khuyến nghị của chúng tôi là rất rõ ràng: các dữ liệu không thuộc sở hữu của những người thu thập chúng; đúng hơn dữ liệu phải thuộc về các cá nhân. Người ta phải có quyền quyết định các dữ liệu được sử dụng như thế nào, họ phải được thông tin về sự sử dụng dữ liệu và có khả năng xóa chúng đi: đó là một mối quan tâm cốt tử về dài hạn. Một vấn đề khác góp phần vào các định kiến là các dữ liệu chủ yếu được thu thập ở các nước Phương Bắc, trong khi một nửa thế giới không được truy cập Internet một cách ổn định. Một vấn đề sống còn là phải bảo đảm chất lượng của các dữ liệu và sự minh bạch. Có một data trust (niềm tin về dữ liệu) trong những ngôn ngữ đặc thù như nước Pháp đã làm được là điều chính yếu.

Bây giờ chúng ta hãy đi sâu vào một điều gì đó có tham vọng hơn. Trên quan điểm kinh tế, những nền tảng số này hoạt động như những độc quyền đương nhiên, theo cách của Bell với điện thoại. Nhân bản nhiều lần một hạ tầng như vậy là không hiệu quả. Thách thức được đặt ra khi các nền tảng này kiểm soát các dữ liệu lúc đầu được đưa ra trên thị trường. Một giải pháp được đề nghị là quốc hữu hóa: tại sao không tính đến việc này?

MARC FADDOUL 

Quan điểm của bà về data trust là rất thiết yếu, và hiện nay có một sự chia rẽ quan trọng trên thị trường trí tuệ nhân tạo tạo sinh giữa các mô hình mở và không mở. Dường như châu Âu nghiêng về các mô hình mở hơn, có vẻ đó là một sự lựa chọn khôn ngoan không những trên phương diện đạo đức mà cả trên phương diện kinh tế. Các doanh nghiệp có thể ngần ngại ủy quyền, vì để sử dụng toàn bộ năng lực của trí tuệ nhân tạo tạo sinh, họ phải tích hợp những mô hình mới của họ vào nền tảng tri thức nội bộ của họ. Giao phó tất cả cho các chủ sở hữu hạ tầng của Mỹ trên những hệ thống mà họ không kiểm soát có thể tạo thành một trở ngại. Do đó, người ta có thể chọn thực hiện những mô hình của họ một cách cục bộ. Cách tiếp cận nguồn mở có khả năng tạo ra một giá trị to lớn trong bối cảnh này.

Hiện nay có một sự chia rẽ quan trọng trên thị trường trí tuệ nhân tạo tạo sinh giữa các mô hình mở và không mở.

MARC FADDOUL

Những người châu Âu cũng sở hữu một khối lượng dữ liệu rất dồi dào, như ta thấy ở Pháp với INA (Institut national de l’audiovisuel – Viện nghe nhìn quốc gia Pháp) chẳng hạn. Không chỉ là số lượng mà còn là chất lượng của nội dung. Tạo ra một cơ sở hạ tầng các dữ liệu, thiết lập những nguồn lực chung và tạo điều kiện cho các mô hình châu Âu đào sâu trong các dữ liệu và khai thác chúng một cách tập thể có thể đưa đến một giá trị kinh tế quan trọng. Có rất nhiều điều cần thăm dò và thực hiện trong lĩnh vực này.

Người dịch: Thái Thị Ngọc Dư

Nguồn:L’impact économique et social de l’IA, une conversation avec Martin Tisné, Anu Bradford, Anne Bouverot, Gabriela Ramos, Marc Faddoul et Brando Benifei”, Le Grand Continent, 26.01.2024.

----

Chú thích: Về các tác giả:

MARTIN TISNÉ: Tổng giám đốc, AI Collaborative, một sáng khiến của nhóm Omidyar, và đồng chủ tịch của Global Tech Thinkers. Tốt nghiệp đại học Oxford và London School of Economics (LSE).

ANU BRADFORD: Giáo sư Luật và các tổ chức quốc tế tại Colombia Law School. Chuyên gia về quyền điều tiết của Liên minh châu Âu nhà bình luận về Liên minh này và Brexit. Bà đã sáng tạo ra thuật ngữ “hiệu ứng Brussels” để mô tả ảnh hưởng của Liên minh châu Âu trên các thị trường thế giới.

ANNA BOUVEROT: kỹ sư về viễn thông, tiến sĩ về trí tuệ nhân tạo của Trường đại học Sư phạm phố Ulm, có nhiều kinh nghiệm trong điều hành các doanh nghiệp công nghệ. (thành viên của nhiều Ban quản trị doanh nghiệp, bà là thành viên sáng lập Quỹ ENS).

GABRIELA RAMOS: công chức quốc tế người Mexico, phó tổng giám đốc về khoa học xã hội và nhân văn tại UNESCO. Thạc sĩ về chính sách công tại Harvard Kennedy School.

MARC FADDOUL: chuyên gia về công nghệ xuyên ngành, chuyên gia về các hệ thống khuyến nghị và kiểm toán các thuật toán. Giám đốc và đồng sáng lập AI Forensic, một hội đoàn không vì lợi nhuận bảo vệ các quyền kỹ thuật số và điều tra các thuật toán bí hiểm và có ảnh hưởng.

BRANDO BENIFEI: Chính trị gia người Ý, thành viên Đảng Dân chủ. Tháng 5/2014, ông được bầu làm nghị sĩ Nghị viện châu Âu, và trở thành thành viên của Ủy ban việc làm và xã hội. Ông là người báo cáo AI Act.

(Tổng hợp từ Le Grand Continent và Wikipedia – ND)

----

Bài có liên quan:




Chú thích:

* GaiaX là một sáng kiến phát triển một cơ sở hạ tầng dữ liệu cho châu Âu, nhằm mục đích phát triển quản trị kỹ thuật số, dựa trên các giá trị của châu Âu về minh bạch, mở, bảo vệ dữ liệu và an toàn (Theo Wikidedia – ND)

** Tiến trình Hiroshima (Hiroshima process) được nhóm G7 khởi động với sự chủ trì của Nhật Bản vào tháng 5/2023 với mục đích phát huy Trí tuệ nhân tạo an toàn, và đáng tin cậy. (Theo Wikipedia –ND)

*** Theo xu hướng được gọi là “hiệu ứng Bruxelles” các quốc gia ngoài châu Âu áp dụng những quy tắc kiểu châu Âu, vì một khi doanh nghiệp đáp ứng được yêu cầu theo tiêu chuẩn châu Âu thì họ thường có thể xuất khẩu hàng hóa sang các thị trường khác. (Theo Wikipedia – ND)

Print Friendly and PDF