5.11.17

Ngoài các huyễn tưởng, thì những vấn đề cụ thể mà trí tuệ nhân tạo đặt ra là gì?

NGOÀI CÁC HUYỄN TƯỞNG, THÌ NHỮNG VẤN ĐỀ CỤ THỂ MÀ TRÍ TUỆ NHÂN TẠO ĐẶT RA LÀ GÌ?
Những tiến bộ mới của các công nghệ này, ngay từ bây giờ, đặt ra những câu hỏi ít gây ấn tượng mạnh, nhưng lại mang tính khá cụ thể.
Tôi không ngừng cảnh báo, nhưng ngày nào mà người ta chưa thấy các robot xuống đường để giết tất cả mọi người, thì họ sẽ không biết làm thế nào để phản ứng lại. Tác giả những phát ngôn đáng lo ngại này là Elon Musk, ông chủ của Tesla và SpaceX, và là người quen thuộc các các chiêu truyền thông đại chúng. Một cụm từ mà đã kích hoạt, vào hôm 24 tháng 7, một cuộc trao đổi gay gắt với ông chủ của Facebook, Mark Zuckerberg, người đã gọi các phát ngôn của ông ấy là vô trách nhiệm và đã ca ngợi những tiến bộ mà trí tuệ nhân tạo (AI) sẽ mang đến cho lĩnh vực y tế hoặc an toàn đường bộ. Tôi đã nói chuyện với Mark [Zuckerberg] về tất cả điều này, Elon Musk đã công khai đáp lại trên Twitter. Hiểu biết của ông ấy về vấn đề này có hạn chế.”
Nếu cuộc tranh luận đã làm cộng đồng Internet bình luận nhiều ngày hôm đó, thì đặc biệt đó là dấu hiệu tiết lộ một lĩnh vực mà đại chúng ít được biết đến, trong đó tồn tại sự lẫn lộn giữa những huyễn tưởng của khoa học viễn tưởng, thực tế khoa học, những thông báo khoa trương và những thông tin bị bóp méo đang lưu hành liên quan đến trí tuệ nhân tạo – tương tự như cuộc luận chiến theo đó các kỹ sư của Facebook đã gỡ bỏ khẩn cấp các chương trình từng phát minh ra ngôn ngữ riêng của chúng. Tuy nhiên, nếu sự bi quan mà Elon Musk phơi bày, tạo ra được tiếng vang với một trí tưởng tượng tập thể nhất định, thì theo ý kiến của cộng đồng khoa học, có vẻ, điều này là cực kỳ phóng đại, nhưng trí tuệ nhân tạo cũng làm dấy lên những vấn đề khác, cụ thể hơn và cấp bách hơn.
Mối quan ngại đối với việc làm
Liệu, một ngày nào đó, có khả năng tồn tại một luật sư có trí tuệ nhân tạo không? MANON LOUVARD/LE MONDE
Một trong những quan ngại thường được nêu lên nhiều nhất về những tiến bộ gần đây của trí tuệ nhân tạo và công nghệ robot là tác động của chúng lên việc làm. Liệu các công nghệ này có làm cho con người trở nên lỗi thời đối với một số ngành nghề mà cho đến nay chưa bị sự cơ giới hóa và số hóa đụng tới? Không có gì là chắc chắn cả. Nhiều nghiên cứu nghiêm túc đã được công bố về đề tài này, và có xu hướng... mâu thuẫn nhau. Các nhà nghiên cứu của Đại học Oxford, ví dụ, trong một nghiên cứu được công bố vào năm 2013, cho rằng 47% việc làm ở Mỹ đang bị đe dọa. Ba năm sau, Tổ chức Hợp tác và Phát triển kinh tế (OECD), về phần mình, khẳng định rằng chỉ có 9% việc làm bị đe dọa trong 21 quốc gia thành viên của họ.
Marie-Claire Carrère-Gée
Các nghiên cứu chỉ quan tâm đến hiện tượng hủy diệt gộp của việc làm”, theo lời nhấn mạnh của Marie-Claire Carrère-Gée, chủ tịch Hội đồng định hướng đối với việc làm, tại một buổi điều trần trước Thượng viện vào ngày 19 tháng 1. Nhưng các nghiên cứu đó không quan tâm đến việc tạo ra việc làm, cũng không quan tâm đến việc chuyển đổi những việc làm hiện hữu mà các công nghệ này có thể sinh ra, bà nói tiếp. Với mỗi làn sóng đổi mới công nghệ lớn, thì có lo ngại về tình trạng thất nghiệp đại trà. Tuy nhiên, lịch sử đã chỉ ra rằng tiến bộ công nghệ luôn tạo ra việc làm, kể cả trong những năm gần đây.”
Vì vậy, chúng ta không thể dự đoán một cách chắc chắn về tác động của trí tuệ nhân tạo lên việc làm trong những năm tới, cho dù đó là sự hủy diệt hay sự chuyển đổi việc làm.
Các chương trình vừa phân biệt chủng tộc vừa phân biệt giới tính không kém gì con người
Các cơ sở dữ liệu khổng lồ mà nhờ đó một số công nghệ về trí tuệ nhân tạo được “đào tạo” thường mang tính thiên vị. QUENTIN HUGON/LE MONDE
Một số lớn các công nghệ về trí tuệ nhân tạo “học hỏi” từ các cơ sở dữ liệu khổng lồ được con người tạo ra, và dựa vào đó để đưa ra những kết luận. Tuy nhiên, các tập hợp dữ liệu này thường mang tính thiên vị. Kết quả: nhiều chương trình đã cho thấy chúng tái tạo sự phân biệt chủng tộc hoặc phân biệt giới tính của con người. Ví dụ, khi một chương trình của trí tuệ nhân tạo trở thành ban giám khảo của một cuộc thi hoa hậu vào năm 2016, thì nó loại bỏ hầu hết các ứng viên da đen. Một công nghệ khác, nhằm tạo lập các mối liên kết giữa các từ ngữ, đã tái tạo một số điều rập khuôn nhất định, ví dụ, khi kết hợp phụ nữ với công việc nội trợ và nam giới với các ngành nghề khoa học...
Emmanuel Mogenet (1967-)
Vì vậy, trí tuệ nhân tạo học hỏi từ những thành kiến của chính chúng ta để tái tạo tốt hơn. Làm thế nào để cải thiện tình hình? Nếu các cơ sở dữ liệu mang tính thiên vị, thì theo Emmanuel Mogenet, giám đốc Nghiên cứu châu Âu của Google, đó cũng là vì chúng thường không đầy đủ, và không đại diện đủ mức cho các dân tộc thiểu số. Chúng ta cần phải tìm những nơi mà chúng ta chưa thu thập được nhiều dữ liệu, ông giải thích cho LeMonde vào tháng 4. Đây là một vấn đề mà chúng tôi đã thấy, và quan tâm rất lớn, bởi vì chúng tôi muốn có những mô hình có cả những cộng đồng thiểu số. Công việc đang phát triển.”
Hack [thâm nhập] trí tuệ con người – và nền dân chủ
Bằng cách khai thác các dữ liệu cá nhân của chúng ta, các chương trình của trí tuệ nhân tạo có thể giúp gây ảnh hưởng đến cách thức chúng ta suy nghĩ. QUENTIN HUGON/LE MONDE
Eric Horvitz phát biểu thẳng thừng: ông lo ngại các cuộc tấn công của trí tuệ nhân tạo lên trí tuệ con người. Chuyên gia nổi tiếng về trí tuệ nhân tạo này, giám đốc Research Labs của Microsoft, đã liệt kê, tại đại hội liên hoan SXSW, được tổ chức vào tháng 3 tại Austin (Texas), những mối nguy tiềm tàng của trí tuệ nhân tạo mà, theo ông, chúng ta nên suy nghĩ ngay từ hôm nay. Điều ông nói qua chữ “tấn công” không liên quan gì với game cyberpunk hoang tưởng về việc cấy ghép các công nghệ vào não. Mối nguy là rất cụ thể – và theo ông, đã tồn tại rồi.
Eric Horvitz (1958-)
Eric Horvitz gợi lên, ví dụ, các chương trình của trí tuệ nhân tạo có khả năng soạn thảo một dòng tweet được thiết kế đặc biệt cho một người. Người ấy tweet về những gì? Khi nào thì người ấy đáp lại? Người ấy tham gia những sự kiện nào? Những thông tin này có thể được sử dụng để thiết kế một dòng tweet, mà người ấy gần như không thể không nhấp chuột.”
Một giai đoạn mới đối với việc quảng cáo có mục tiêu, nhưng đó không phải là điều duy nhất. Các doanh nghiệp sử dụng các dữ liệu này không chỉ để cá nhân hóa các thông điệp, mà còn gây ảnh hưởng đến cách thức mà người dân sẽ đi bỏ phiếu, như trang tweet Cambridge Analytica. Eric Horvitz cũng gợi lên nguy cơ của các tin giả”, những thông tin sai được dựng lên từ đầu đến cuối, những thông tin có thể được hưởng lợi từ các công nghệ này: ngày nay, các chương trình, ví dụ, có khả năng làm cho trên video Barack Obama hay Vladimir Putin nói những gì mà người ta muốn họ nói. Một vấn đề không mang tính đặc thù đối với trí tuệ nhân tạo, nhưng các công nghệ này có khả năng tự động hóa và đơn giản hóa các phương tiện gây ảnh hưởng này.
Bóng ma của các loại vũ khí tự điều khiển
Cho đến bây giờ, các nước đều khẳng định rằng các robot [người máy] được sử dụng trong quân đội vẫn được con người điều khiển từ xa. QUENTIN HUGON/LE MONDE
Căn cứ vào trình độ của các công nghệ về trí tuệ nhân tạo và robot, không có gì ngăn cản, về mặt kỹ thuật, việc chế tạo các loại vũ khí giết người tự điều khiển. Ngày nay, các quân đội khẳng định rằng những cỗ máy mà họ đang sử dụng vẫn được con người điều khiển từ xa, chẳng hạn như những chiếc máy bay không người lái của quân đội Mỹ, và chưa có chiếc máy bay không người lái nào được quyền ra quyết định khai hỏa. Nhưng hiện nay, chưa có một quy định quốc tế nào ngăn cấm việc sử dụng các loại vũ khí giết người tự điều khiển, đang là chủ đề các cuộc thảo luận tại Liên Hợp Quốc.
Elon Musk (1971-)
Stephen Hawking (1942-)
Trong năm 2015, hơn một nghìn người, trong đó có nhiều nhà nghiên cứu về trí tuệ nhân tạo, và cả những nhân vật quan trọng như Elon Musk hoặc nhà vật lý thiên văn học Stephen Hawking, đã ký tên kêu gọi ngăn cấm việc sử dụng các loại vũ khí này. Trí tuệ nhân tạo đã đạt đến một điểm mà việc triển khai các hệ thống như trên – về mặt vật chất, nếu không muốn nói về mặt pháp lý – sẽ là điều khả dĩ từ nay đến một vài năm nữa, chứ không phải là nhiều thập kỷ nữa, và thách thức được mất là rất quan trọng: các loại vũ khí tự điều khiển đã được mô tả như là cuộc cách mạng thứ ba trong các kỹ thuật chiến tranh, sau thuốc súng và vũ khí hạt nhân, đó là điều mà người ta có thể đọc được trong lời kêu gọi.
Một giai đoạn giám sát mới
Các công nghệ hình ảnh bằng máy vi tính đã tiến bộ một cách đáng kể trong những năm gần đây. Le Monde.fr
Các công nghệ hình ảnh bằng máy tính đã tiến bộ một cách đáng kể trong những năm gần đây nhờ vào các tiến bộ của mô hình học sâu [apprentissage automatique (machine learning – học máy) et apprentissage profond (deep learning – học sâu) – ND]. Từ nay, các chương trình có khả năng nhận diện các khuôn mặt, phân biệt con mèo với con chó và mô tả các hình ảnh. Các sáng kiến này ngày càng được áp dụng nhiều cho video, và đặc biệt cho việc giám sát bằng video. Công ty đường sắt quốc gia của Pháp (SNCF), ví dụ, đã công bố ngay sau các vụ tấn công khủng bố vào tháng 11 năm 2015 tại các vùng của Paris, rằng họ đã thử nghiệm các công nghệ phát hiện những hành vi đáng ngờ từ các máy camera giám sát, dựa trên các tiêu chí như sự thay đổi thân nhiệt, hiện tượng cao giọng hoặc cử chỉ trúc trắc bất thường, những thứ có thể cho thấy một mức độ lo lắng nào đó.
Cùng với các công nghệ nhận diện khuôn mặt, dạng hệ thống này có thể, ví dụ, giúp phát hiện ngay một người được liệt kê trong danh sách S (danh sách này "được dùng để theo dõi những ai, tuy không bị kết án hình sự, nhưng bằng hành động của họ, lúc này hay lúc khác, có thể là một nguy cơ gây rối loạn trật tự công cộng hay an ninh quốc gia" - ND) bỏ rơi một gói hàng khả nghi. Mà còn phát hiện một nhà hoạt động nhân quyền trong một chế độ độc tài hay một người đồng tính trong một quốc gia nơi mà vấn đề đó bị lên án. Các hệ thống này vẫn còn lâu mơi hoạt động một cách hoàn hảo, và nguy cơ trở thành một “mục tiêu giả” vẫn còn rất cao.
Các hệ thống bí hiểm
Hàng triệu phép toán được thực hiện bởi các mạng thần kinh nhân tạo rất khó để tách biệt và phân tích. QUENTIN HUGON/LE MONDE
Nhờ vào các công nghệ về trí tuệ nhân tạo, chúng ta có khả năng tạo ra những chương trình cho phép chọn lọc các hồ sơ lý lịch, để đề xuất các chẩn đoán về y tế hoặc phê duyệt một đơn xin vay tiền. Thế nhưng, một phần lớn các quyết định được các chương trình này đưa ra... đều không thể giải thích được. Cụ thể, các kỹ sư không biết làm thế nào để truy lại vô số các phép toán đã được cỗ máy thực hiện để đi đến kết luận của nó.
David Sadek
Rõ ràng, điều này có nghĩa là nếu đơn xin vay tiền của bạn bị từ chối, hoặc nếu hồ sơ lý lịch của bạn bị đánh trượt, thì sẽ không có lời giải thích nào được đưa ra. Một nhận xét phiền hà lý giải vì sao trong số các công nghệ của ngày nay thì các công nghệ về trí tuệ nhân tạo thường được sử dụng để đề xuất các giải pháp, rồi được con người hợp thức hoá lại sau đó.
Việc giải thích sự vận hành của các công nghệ này, dựa trên các mạng thần kinh nhân tạo, là một trong những thách thức lớn của các nhà nghiên cứu về trí tuệ nhân tạo, đang nghiên cứu về vấn đề này. Lời giải thích cho hành vi là điều rất quan trọng, đây là những gì xác định sự chấp nhận của xã hội đối với các hệ thống này, theo lời giải thích của David Sadek, Giám đốc nghiên cứu tại Mines Telecom, trước Thượng viện, vào ngày 19 tháng 1.
Trong những tháng gần đây, các cuộc tranh luận xung quanh thuật toán APB, làm trọng tài cho các định hướng lựa chọn nghề nghiệp của các học sinh tốt nghiệp phổ thông – không phải là một chương trình về trí tuệ nhân tạo, nhưng mà mã của nó từ lâu vẫn hoàn toàn bí mật – đã cho thấy sự bí hiểm của các hệ thống tự động này đã đặt ra những vấn đề quan trọng.
Những vấn đề pháp lý quan trọng cần giải quyết
Nếu robot dẫn đến việc chiếm nhiều chỗ hơn trong cuộc sống của con người, thì pháp luật sẽ phải thích nghi. QUENTIN HUGON/LE MONDE
Jean-Yves Le Déaut (1945-)
Nếu robot được phát triển, thì ai sẽ chịu trách nhiệm? Rồi vấn đề bồi thường trong trường hợp có thiệt hại sẽ được đặt ra, theo lời của Jean-Yves Le Déaut, lúc đó là dân biểu, nhân một buổi điều trần tại Thượng viện vào ngày 19 tháng 1. Đây là một vấn đề cần quan tâm, ngay cả khi luật pháp, ở Pháp cũng như ở các nước khác, dường như chưa sẵn sàng thay đổi. Các hệ thống tự động ngày càng dẫn đến việc đưa ra các quyết định trong những tình huống mà các kỹ sư không thể tiên đoán được,theo giải thích của Derek Jink, giáo sư luật tại Khoa Luật của Đại học Texas, nhân đại hội liên hoan SXSW vào tháng 3.
Ai, ví dụ, sẽ chịu trách nhiệm về các hành vi của những chiếc ô-tô tự lái? Câu hỏi thường được đặt ra, và đã ám ảnh các công ty bảo hiểm: nếu một chiếc xe tự hành gây một tai nạn chết người, thì chịu trách nhiệm sẽ thuộc người chế tạo ra chiếc xe ô-tô, người kỹ sư đã phát triển ra trí tuệ nhân tạo, người chủ sở hữu chiếc xe hoặc người ngồi ở vị trí cầm lái chiếc xe? Những vấn đề cấp bách, trong khi những chiếc xe thực nghiệm tự lái đã lưu thông hàng triệu cây số trên những con đường thực, tại Hoa Kỳ.
Nhưng đối với nhân vật Terminator [Kẻ hủy diệt], bạn có thể vượt qua
Một cảnh trong bộ phim Mỹ của Alan Taylor, “Terminator: Genisys [Kẻ hủy diệt: Thời đại Genisys],” được công chiếu vào năm 2015. PARAMOUNT PICTURES/MELINDA SUE GORDON
Tính độc đáo, nó làm phiền tôi. Tháng Tư, Jean Ponce, nhà nghiên cứu về hình ảnh nhân tạo tại trường École Normale Supérieure (ENS), đã chỉ trích những người ủng hộ khái niệm này, đề cập đến thời điểm giả định khi mà trí tuệ nhân tạo sẽ vượt qua trí tuệ con người. Cá nhân tôi không thấy có dấu hiệu gì cho thấy cỗ máy thông minh, ngày nay, gần gũi hơn với chúng ta so với trước đây,” ông giải thích tại một hội nghị do Google tổ chức tại Paris.
Jean Ponce
Trong trí tưởng tượng tập thể, trí tuệ nhân tạo không ngừng gợi lên hình ảnh của các bộ phim Terminator [Kẻ hủy diệt], trong đó các cỗ máy thông minh đã tuyên chiến với con người. Tuy nhiên, trong thực tế, đại đa số các nhà nghiên cứu về trí tuệ nhân tạo đều khẳng định không có một ý tưởng nào về cách thức có thể tạo ra được một cỗ máy thông minh hơn con người, có khả năng giao tiếp một cách tự nhiên, ý thức được lí lẽ thông thường, có tính hóm hỉnh, có khả năng hiểu được môi trường xung quanh... và càng ít hơn nữa là có hình thức của một robot người.
Ý tưởng về một trí tuệ nhân tạo thoát khỏi sự kiểm soát của người chế tạo ra nó cũng gây ra những cái cười nhếch mép trong cộng đồng, những người khó mà hiểu được tại sao lại có một số người lo ngại về một chương trình được thiết kế để chơi cờ vây lại có thể đột ngột muốn tấn công loài người.
Thật không thể tin nỗi khi nhận thấy lợi ích mà điều đó gợi lên ở con người, theo lời của Eric Horvitz, giám đốc Research Labs của Microsoft, tại đại hội liên hoan SXSW. Giới nhà báo có xu hướng truyền bá một quan điểm cực đoan, trong khi thực tế thì mang nhiều sắc thái hơn thế.Đối với ông, vẫn còn nhiều câu hỏi rất thú vị, (...) cần phải quan tâm, và không nên chế giễu khi cho rằng người ta là người điên. Nhưng, ông cũng nhấn mạnh rằng, đây là những vấn đề đặt ra cho tương lai rất xa, và chúng ta phải suy nghĩ đến những vấn đề liên quan trực tiếp đến chúng ta, ngay lúc này.
Morgane Tual
Nhà báo của mục Pixels
Huỳnh Thiện Quốc Việt dịch
Print Friendly and PDF