ROBOT SẼ LÀM GÌ VỚI SƠ YẾU LÝ LỊCH CỦA BẠN? VẤN ĐỀ THIÊN VỊ KHI SỬ DỤNG AI TRONG TUYỂN DỤNG
Các tác giả: Melika Soleimani, Ali Intezaari, David J Pauleen và Jim Arrowsmith
Cuộc cách mạng trí tuệ nhân tạo (AI) đã bắt đầu, lan rộng đến hầu hết mọi khía cạnh của đời sống nghề nghiệp và cá nhân của con người – bao gồm cả tuyển dụng.
Trong khi các nghệ sĩ lo sợ bị vi phạm bản quyền hoặc chỉ đơn giản là bị thay thế, các doanh nghiệp và ban quản lý ngày càng nhận thức được khả năng nâng cao hiệu quả trong nhiều lĩnh vực đa dạng như quản lý chuỗi cung ứng, dịch vụ khách hàng, phát triển sản phẩm và quản lý nguồn nhân lực (HR).
Sắp tới, mọi lĩnh vực kinh doanh và vận hành sẽ chịu áp lực phải áp dụng AI dưới hình thức này hay hình thức khác. Nhưng chính bản chất của AI – và dữ liệu đằng sau các quy trình và các đầu ra của nó – có nghĩa là sự thiên vị của con người đang được cài vào công nghệ.
Nghiên cứu của chúng tôi xem xét việc sử dụng AI trong tuyển dụng và thuê nhân viên – một lĩnh vực đã áp dụng AI rộng rãi để tự động sàng lọc sơ yếu lý lịch và đánh giá các cuộc phỏng vấn video của ứng viên.
AI trong tuyển dụng hứa hẹn tính khách quan và hiệu quả cao hơn trong quá trình tuyển dụng bằng cách loại bỏ sự thiên vị của con người và tăng cường tính công bằng và nhất quán trong việc ra quyết định.
Tuy nhiên, nghiên cứu của chúng tôi cho thấy AI có thể tinh vi - và đôi khi là công khai - làm tăng sự thiên vị. Và sự tham gia của các chuyên gia nhân sự có thể làm trầm trọng thêm thay vì làm giảm những tác động này. Điều này thách thức niềm tin của chúng tôi rằng sự giám sát của con người có thể kiềm chế và điều tiết AI.
As #AI becomes more and more commonplace, it's important to look at how these systems can go wrong. 🤖
— MHR (@mhr_solutions) June 6, 2024
Our latest MHR Labs update explores bias in AI recruitment and how we can protect against these issues 👇https://t.co/y0LGFhg9NZ#Recruitment #Research pic.twitter.com/xZPgyf95KU
Phóng đại sự thiên vị của con người
Mặc dù một trong những lý do sử dụng AI trong tuyển dụng là để nhằm mục đích khách quan và nhất quán hơn, nhưng trên thực tế, nhiều nghiên cứu đã phát hiện ra rằng công nghệ này rất có thể bị sai lệch. Điều này xảy ra vì AI học hỏi từ các bộ dữ liệu được sử dụng để huấn luyện nó. Nếu dữ liệu có sai sót thì AI cũng sẽ như vậy.
Những lệch lạc này trong dữ liệu có thể trở nên tồi tệ hơn do các thuật toán do con người tạo ra hỗ trợ AI, vốn thường chứa những thiên kiến của con người trong việc thiết kế thuật toán.
Trong các cuộc phỏng vấn với 22 chuyên gia nhân sự, chúng tôi đã xác định được hai thiên kiến phổ biến trong tuyển dụng: “thiên kiến khuôn mẫu” và “thiên kiến giống-tôi”.
Sự thiên vị theo khuôn mẫu xảy ra khi các quyết định bị ảnh hưởng bởi khuôn mẫu về một số nhóm nhất định, chẳng hạn như thiên vị ứng viên cùng giới tính, dẫn đến bất bình đẳng giới.
Thiên kiến “giống tôi” xảy ra khi nhà tuyển dụng ưu ái những ứng viên có cùng trải nghiệm hoặc mối quan tâm với họ.
Những thiên kiến này, có thể ảnh hưởng đáng kể đến tính công bằng của quá trình tuyển dụng, sau đó được cài vào dữ liệu tuyển dụng lịch sử được sử dụng để huấn luyện các hệ thống AI. Điều này dẫn đến AI bị thiên lệch.
Vì vậy, nếu các hoạt động tuyển dụng trước đây thiên về một số nhóm nhân khẩu học nhất định thì AI sẽ tiếp tục làm như vậy. Việc giảm thiểu những thiên kiến này là một thách thức vì các thuật toán có thể suy ra thông tin cá nhân dựa trên dữ liệu ẩn từ sự tương quan với các thông tin khác.
Ví dụ: ở các quốc gia có thời gian thực hiện nghĩa vụ quân sự khác nhau đối với nam và nữ, AI có thể suy ra giới tính dựa trên thời gian phục vụ.
Sự thiên vị dai dẳng này nhấn mạnh nhu cầu lập kế hoạch và giám sát cẩn thận để đảm bảo tính công bằng trong các quy trình tuyển dụng dựa trên cả con người và AI.
Con người có thể giúp được không?
Ngoài các chuyên gia nhân sự, chúng tôi cũng phỏng vấn 17 nhà phát triển AI. Chúng tôi muốn tìm hiểu cách phát triển một hệ thống tuyển dụng AI có thể giảm thiểu thay vì làm trầm trọng thêm sự thiên vị trong tuyển dụng.
Dựa trên các cuộc phỏng vấn, chúng tôi đã phát triển một mô hình trong đó các chuyên gia nhân sự và lập trình viên AI sẽ trao đổi thông tin qua lại và đặt câu hỏi về các quan niệm cố hữu khi họ kiểm tra các tập dữ liệu và phát triển các thuật toán.
Tuy nhiên, phát hiện của chúng tôi cho thấy khó khăn trong việc triển khai mô hình như vậy nằm ở sự khác biệt về giáo dục, chuyên môn và nhân khẩu học giữa các chuyên gia nhân sự và các nhà phát triển AI.
Những khác biệt này cản trở giao tiếp hiệu quả, hợp tác và thậm chí là khả năng hiểu nhau. Trong khi các chuyên gia nhân sự thường được đào tạo về quản lý con người và hành vi tổ chức, thì các nhà phát triển AI lại có kỹ năng về khoa học dữ liệu và công nghệ.
Những nền tảng khác nhau này có thể dẫn đến hiểu lầm và sai lệch khi làm việc cùng nhau. Đây đặc biệt là vấn đề ở các nước nhỏ hơn như New Zealand, nơi nguồn lực hạn chế và mạng lưới chuyên môn kém đa dạng hơn.
Liệu HR có biết
các lập trình viên AI đang làm gì và ngược lại không? Getty Images
Nếu các công ty và chuyên gia nhân sự muốn giải quyết vấn đề thiên vị trong tuyển dụng dựa trên AI, cần phải thực hiện một số thay đổi.
Thứ nhất, việc triển khai chương trình đào tạo có cấu trúc dành cho các chuyên gia nhân sự tập trung vào phát triển hệ thống thông tin và AI là rất quan trọng. Khóa đào tạo này sẽ bao gồm các nguyên tắc cơ bản về AI, xác định các thiên kiến trong hệ thống AI và các chiến lược để giảm thiểu những thiên kiến này.
Ngoài ra, việc thúc đẩy sự hợp tác tốt hơn giữa các chuyên gia nhân sự và nhà phát triển AI cũng rất quan trọng. Các công ty nên tìm cách tạo ra các nhóm bao gồm cả các chuyên gia nhân sự và AI. Những điều này có thể giúp thu hẹp khoảng cách giao tiếp và liên kết tốt hơn các nỗ lực của họ.
Hơn nữa, việc phát triển các tập dữ liệu có liên quan đến văn hóa là rất quan trọng để giảm sự thiên vị trong các hệ thống AI. Các chuyên gia nhân sự và các nhà phát triển AI cần phải làm việc cùng nhau để đảm bảo dữ liệu được sử dụng trong các quy trình tuyển dụng dựa trên AI là đa dạng và đại diện cho các nhóm nhân khẩu học khác nhau. Điều này sẽ giúp tạo ra các hoạt động tuyển dụng công bằng hơn.
Cuối cùng, các quốc gia cần có những hướng dẫn và tiêu chuẩn đạo đức về việc sử dụng AI trong tuyển dụng để có thể giúp xây dựng niềm tin và đảm bảo sự công bằng. Các tổ chức nên thực hiện các chính sách thúc đẩy tính minh bạch và trách nhiệm giải trình trong quá trình ra quyết định dựa trên AI.
Bằng cách thực hiện các bước này, chúng ta có thể tạo ra một hệ thống tuyển dụng công bằng và toàn diện hơn, tận dụng thế mạnh của cả chuyên gia nhân sự và nhà phát triển AI.
Tác giả:
Chuyên viên phân tích dữ liệu cấp cao, Đại học Massey
Giảng viên cấp cao về Quản lý, Đại học Queensland
Giáo sư, Quản lý Công nghệ, Đại học Massey
Giáo sư, Khoa Quản lý, Đại học Massey
Các tác giả không làm việc, tư vấn, sở hữu cổ phần hoặc nhận tài trợ từ bất kỳ công ty hoặc tổ chức nào được hưởng lợi từ bài viết này và không tiết lộ bất kỳ mối quan hệ liên quan nào ngoài chức vụ học thuật của họ.
Đại học Massey cung cấp tài trợ với tư cách là thành viên của The Conversation NZ.
Đại học Queensland và Đại học Massey cung cấp tài trợ với tư cách là thành viên của The Conversation AU.
Người dịch: Nguyễn Thị Trà Giang
Nguồn: “What will a robot make of your résumé? The biasi probel of using AI in recruitment”, The Conversation, 9.6.2024