Thương Hiệu Tuyển Dụng
1/9/2026

AI và con người trong tuyển dụng: Tại sao "sự can thiệp của con người" là bắt buộc trong kỷ nguyên mới?

Tìm hiểu về Điều 26 Luật AI 2025 và chiến lược 5 bước xây dựng quy trình giám sát thực chất để bảo vệ doanh nghiệp trước rủi ro pháp lý và thiên kiến AI.

Lê Mai Hạnh là người chuyên trách truyền tải sức mạnh của công nghệ AI và hệ sinh thái MBW Hiring. Với khả năng biến những khái niệm phức tạp thành nội dung dễ hiểu, Hạnh sẽ hướng dẫn bạn cách tận dụng tối đa các giải pháp số để nâng tầm hiệu quả tuyển dụng.

Mục lục

  • Mở đầu: Cơn sốt tự động hóa và "gáo nước lạnh" từ Luật AI 2025
  • Giải mã Điều 26: 04 cấp độ can thiệp của con người mà doanh nghiệp cần nắm vững
  • Cạm bẫy "Thiên kiến tự động hóa": Rủi ro lớn nhất đối với nhà tuyển dụng
  • Case Study giả định: Cái giá của sự thờ ơ và bài học từ TechGlobal
  • Chiến lược hành động: 5 bước xây dựng quy trình "Giám sát thực chất"

Bối cảnh Pháp lý mới: Luật AI số 134/2025/QH15, có hiệu lực từ tháng 3/2026, chính thức xếp các hệ thống AI trong nhân sự vào nhóm "rủi ro cao". Điều này đồng nghĩa với việc kỷ nguyên "phó mặc hoàn toàn cho thuật toán" đã chấm dứt. Doanh nghiệp giờ đây không chỉ cần một hệ thống AI mạnh mẽ mà còn cần một khung quản trị con người chặt chẽ để giám sát từng bước đi của máy móc.

Yêu cầu "Giám sát thực chất": Sự can thiệp của con người không được phép chỉ là một cái gật đầu mang tính thủ tục hay một cú click chuột "Duyệt" vô hồn. Luật yêu cầu một sự thẩm định có tư duy, nơi con người hiểu rõ tại sao AI đưa ra quyết định đó và có quyền phủ quyết bất cứ lúc nào. Hãy coi AI như một người trợ lý mẫn cán nhưng chưa đủ trưởng thành, luôn cần một "người giám hộ" có kinh nghiệm đi kèm để ngăn chặn những sai lầm đạo đức.

Rủi ro và Cơ hội: Việc không tuân thủ Điều 26 về giám sát thủ công sẽ dẫn đến những "cơn ác mộng" pháp lý khi thanh tra dữ liệu gõ cửa, kèm theo đó là nguy cơ bồi thường thiệt hại khổng lồ cho ứng viên bị phân biệt đối xử. Tuy nhiên, đây cũng là cơ hội để doanh nghiệp khẳng định vị thế "Tuyển dụng Đạo đức". Bằng cách kết hợp tốc độ của AI với sự thấu cảm của con người, doanh nghiệp sẽ xây dựng được một quy trình tuyển dụng bền vững, minh bạch và đầy tính nhân văn.

1. MỞ ĐẦU: CƠN SỐT TỰ ĐỘNG HÓA VÀ "GÁO NƯỚC LẠNH" TỪ LUẬT AI 2025

Trong những năm qua, bộ phận nhân sự (HR) tại các tập đoàn lớn đã trải qua một cuộc đua vũ trang về công nghệ, nơi tốc độ sàng lọc CV được coi là thước đo duy nhất cho sự thành công. Những hệ thống AI hứa hẹn khả năng "đọc vị" ứng viên qua video hay xếp hạng hàng nghìn hồ sơ chỉ trong một cái chớp mắt đã trở thành niềm khao khát của mọi Giám đốc Nhân sự. Nó giống như việc bạn sở hữu một chiếc xe đua F1, giúp doanh nghiệp lao đi vun vút trong cuộc chiến giành giật nhân tài toàn cầu mà không mảy may lo lắng về những rủi ro tiềm ẩn dưới gầm máy.

Tuy nhiên, vào ngày 1 tháng 3 năm 2026, một "gáo nước lạnh" mang tên Luật AI số 134/2025/QH15 chính thức có hiệu lực, buộc các doanh nghiệp phải nhìn nhận lại cuộc đua này. Đạo luật quy định rằng các hệ thống AI dùng trong tuyển dụng được xếp vào nhóm "rủi ro cao", nghĩa là chúng không còn được phép tự vận hành một cách hoang dã. Sự can thiệp của con người không còn là một lựa chọn "có thì tốt", mà đã trở thành một nghĩa vụ pháp lý bắt buộc, một rào chắn để bảo vệ quyền lợi và sinh kế của người lao động trước sức mạnh không kiểm soát của thuật toán.

2. GIẢI MÃ ĐIỀU 26: 04 CẤP ĐỘ CAN THIỆP CỦA CON NGƯỜI

Cấp độ đầu tiên và cũng là nền tảng nhất chính là Khả năng quan sát và giám sát thường xuyên. Doanh nghiệp không thể chỉ phó mặc hệ thống tự chạy rồi định kỳ kiểm tra kết quả cuối cùng; thay vào đó, nhân viên HR phải được thiết lập quyền truy cập để hiểu rõ cách thức AI đang vận hành trong thời gian thực. Điều này tương tự như việc một phi công giám sát chế độ lái tự động, luôn phải để mắt đến bảng điều khiển để đảm bảo máy bay không bay vào vùng nhiễu động mà không có cảnh báo từ trước.

Cấp độ thứ hai yêu cầu Quyền can thiệp và thay đổi quyết định của AI. Luật pháp quy định rằng con người phải có thực quyền để bác bỏ hoặc sửa đổi một đề xuất từ thuật toán nếu phát hiện thấy dấu hiệu sai sót hoặc bất công. Nếu AI vô tình loại bỏ một ứng viên tiềm năng chỉ vì một lỗ hổng trong logic lập trình, nhà tuyển dụng phải có quyền kéo hồ sơ đó trở lại vòng phỏng vấn mà không gặp bất kỳ rào cản kỹ thuật nào. Đây là quyền "phủ quyết" tối thượng để đảm bảo công lý cho từng cá nhân ứng viên.

Cấp độ thứ ba là quyền lực cao nhất: Khả năng ngắt hệ thống hoặc sử dụng "Nút dừng khẩn cấp". Trong trường hợp hệ thống AI phát sinh lỗi nghiêm trọng hoặc bắt đầu thể hiện các hành vi thiên kiến quy mô lớn, doanh nghiệp bắt buộc phải có quy trình để dừng ngay lập tức mọi hoạt động của thuật toán. Hãy tưởng tượng đây là một chiếc phanh khẩn cấp trên tàu hỏa; nó phải luôn sẵn sàng để được kích hoạt ngay khi người giám sát nhận thấy nguy cơ va chạm với các quy định đạo đức và pháp lý của tổ chức.

Cấp độ cuối cùng là Thẩm định thực chất và trách nhiệm giải trình. Sự can thiệp của con người không được phép chỉ là một cái "gật đầu" mang tính hình thức hay một cú nhấp chuột "Duyệt" vô hồn trên giao diện quản trị. Mỗi quyết định quan trọng dựa trên gợi ý của AI phải đi kèm với sự xem xét thấu đáo từ chuyên viên nhân sự, đảm bảo rằng trí tuệ con người vẫn là bộ lọc cuối cùng để duy trì tính công bằng. Bạn không thể đổ lỗi cho máy tính; khi có sự cố, chính con người sẽ là thực thể phải đứng ra giải trình trước pháp luật.

3. CẠM BẪY "THIÊN KIẾN TỰ ĐỘNG HÓA": RỦI RO LỚN NHẤT ĐỐI VỚI NHÀ TUYỂN DỤNG

Thiên kiến tự động hóa (Automation Bias) là một hiện tượng tâm lý nguy hiểm khi con người có xu hướng tin tưởng tuyệt đối vào các đề xuất của máy tính và bỏ qua những bằng chứng trái ngược từ thực tế. Trong môi trường tuyển dụng áp lực cao, các HR Manager dễ dàng rơi vào trạng thái "lười tư duy", coi điểm số mà AI chấm cho ứng viên là sự thật hiển nhiên. Đây là một cái bẫy tinh vi, nơi mà sự tiện lợi của công nghệ vô tình làm thui chột khả năng phán đoán chuyên môn và sự nhạy cảm nghề nghiệp của các chuyên gia nhân sự lâu năm.

Rủi ro pháp lý sẽ trở thành cơn ác mộng thực sự khi doanh nghiệp bị thanh tra dữ liệu gõ cửa và phát hiện ra rằng hàng nghìn ứng viên bị loại chỉ vì một thuật toán bị lỗi mà không có bất kỳ sự kiểm soát nào từ con người. Việc "phó mặc cho máy" không giúp doanh nghiệp rũ bỏ trách nhiệm, mà trái lại, nó là bằng chứng cho việc vi phạm nghĩa vụ giám sát thực chất theo Luật AI. Nếu xảy ra khiếu kiện về phân biệt đối xử, lời giải thích "tại máy tính làm thế" sẽ là một lá chắn vô dụng, thậm chí là bằng chứng buộc tội cho sự thờ ơ của doanh nghiệp.

4. CASE STUDY GIẢ ĐỊNH: CÁI GIÁ O CỦA SỰ THỜ Ơ VÀ BÀI HỌC TỪ TECHGLOBAL

Hãy cùng phân tích hành trình của một tập đoàn công nghệ giả định mang tên TechGlobal, đơn vị đã triển khai hệ thống sàng lọc CV bằng AI để xử lý 10.000 hồ sơ mỗi tháng. Để tiết kiệm thời gian, họ thiết lập quy trình để AI tự động gửi thư từ chối cho bất kỳ ứng viên nào có điểm đánh giá dưới 70 mà không cần bất kỳ sự xem xét lại nào từ nhân sự. Họ tin rằng mình đang tối ưu hóa hiệu suất đỉnh cao, cho đến khi một đợt hậu kiểm nội bộ phát hiện ra hệ thống đã tự động loại bỏ tất cả các ứng viên nữ trên 40 tuổi trong suốt 6 tháng liên tiếp chỉ vì một lỗi dữ liệu đầu vào.

Sự cố này bắt nguồn từ việc dữ liệu huấn luyện của AI bị thiên kiến, nhưng sai lầm chết người của TechGlobal chính là sự thiếu vắng hoàn toàn "con người trong vòng lặp" (human-in-the-loop). Khi các ứng viên bị ảnh hưởng nộp đơn khiếu nại lên Bộ Khoa học và Công nghệ, doanh nghiệp này đã hoàn toàn lúng túng vì không thể cung cấp được nhật ký hoạt động cho thấy sự can thiệp của nhân sự. Họ không có bằng chứng nào để chứng minh rằng mình đã thực hiện nghĩa vụ giám sát, biến sai sót kỹ thuật thành một vụ vi phạm pháp luật có hệ thống.

Thảm họa này lẽ ra đã có thể được ngăn chặn nếu TechGlobal duy trì một cơ chế kiểm soát định kỳ, nơi nhân viên HR chọn ngẫu nhiên các hồ sơ bị AI loại để thẩm định thủ công. Câu chuyện của họ là một bài học đắt giá cho mọi doanh nghiệp lớn: Sự can thiệp của con người không phải là một bước cản trở tốc độ, mà là gói bảo hiểm quan trọng nhất để bảo vệ sự tồn vong của chính doanh nghiệp. Đừng để một thuật toán thông minh làm sụp đổ cả một đế chế kinh doanh vững mạnh chỉ vì thiếu đi sự canh chừng của đôi mắt con người.

5. CHIẾN LƯỢC HÀNH ĐỘNG: 5 BƯỚC XÂY DỰNG QUY TRÌNH "GIÁM SÁT THỰC CHẤT"

Bước 1: Xác định ma trận phân định trách nhiệm (Responsibility Matrix)

Doanh nghiệp cần xác lập rõ ràng ranh giới nơi AI được quyền hỗ trợ và điểm nào bắt buộc phải có chữ ký phê duyệt từ con người. Ví dụ, AI có thể giúp xếp hạng và phân loại hồ sơ sơ bộ, nhưng danh sách rút gọn cuối cùng (shortlist) trước khi mời phỏng vấn phải do chính tay HR Manager ký xác nhận. Việc này tạo ra một "điểm dừng bắt buộc" để trí tuệ con người can thiệp vào dòng chảy tự động hóa.

Bước 2: Đào tạo nhân sự về tư duy phản biện thuật toán

Các chuyên viên tuyển dụng không chỉ cần biết sử dụng phần mềm, mà còn phải được huấn luyện để hiểu về các loại thiên kiến AI thường gặp và cách đặt câu hỏi ngược lại cho hệ thống. Một nhân sự giỏi trong thời đại mới là người có đủ thẩm quyền và kiến thức để hoài nghi kết quả của máy tính khi nhận thấy những dấu hiệu bất thường. Họ phải trở thành những "thanh tra viên nội bộ" cho chính hệ thống AI mà mình đang sử dụng hàng ngày.

Bước 3: Tích hợp mô hình "Con người trong vòng lặp" vào quy trình vận hành

Quy trình tuyển dụng cần được thiết kế lại để các điểm chạm quan trọng luôn có sự hiện diện của con người, chẳng hạn như thiết lập ngưỡng (threshold) an toàn cho thuật toán. Ví dụ, AI chỉ tự động loại những hồ sơ chắc chắn không đáp ứng tiêu chuẩn tối thiểu, còn tất cả các trường hợp nằm trong "vùng xám" phải được đẩy về cho nhân sự thẩm định. Điều này đảm bảo rằng không một cá nhân nào bị tước đi cơ hội chỉ bởi một dòng mã lệnh khô khan và thiếu linh hoạt.

Bước 4: Thiết lập hệ thống ghi nhật ký (Logging) và lưu trữ bằng chứng

Để phục vụ các đợt thanh tra pháp lý sau tháng 3/2026, doanh nghiệp phải ghi lại lịch sử mọi lần con người can thiệp, thay đổi hoặc phê duyệt các quyết định của AI. Những bằng chứng này chính là "hộp đen" giúp doanh nghiệp chứng minh sự tuân thủ và trách nhiệm giải trình thực chất của mình trước cơ quan quản lý. Khi bạn có thể chứng minh được rằng "Chúng tôi đã xem xét hồ sơ này và đồng ý với đề xuất của AI vì các lý do A, B, C", bạn đã tự xây dựng cho mình một pháo đài pháp lý vững chắc.

Bước 5: Thực hiện hậu kiểm và đánh giá sự phù hợp định kỳ

Việc tuân thủ không phải là một đích đến mà là một hành trình liên tục, đòi hỏi doanh nghiệp phải thường xuyên rà soát lại hiệu suất và tính công bằng của hệ thống AI. Hãy coi đây là một cuộc "kiểm tra sức khỏe" định kỳ cho bộ máy tuyển dụng, đảm bảo rằng cả "trợ lý AI" và "người cầm lái con người" vẫn đang phối hợp nhịp nhàng và đúng luật. Sự chủ động trong hậu kiểm sẽ giúp doanh nghiệp phát hiện sớm các rủi ro trước khi chúng biến thành những vụ bê bối pháp lý không thể cứu vãn.

KẾT LUẬN: ĐỪNG ĐỂ THUẬT TOÁN CẦM LÁI VẬN MỆNH DOANH NGHIỆP

Nhìn lại toàn bộ bức tranh, chúng ta thấy rằng tương lai của ngành nhân sự không phải là một cuộc chiến sinh tử giữa AI và con người, mà là một sự cộng sinh có kỷ luật. Trí tuệ nhân tạo, với sức mạnh tính toán siêu việt, đóng vai trò như một bộ tăng áp giúp con tàu tuyển dụng lao đi nhanh hơn. Tuy nhiên, Điều 26 của Luật AI 2025 chính là lời nhắc nhở rằng, dù động cơ có mạnh mẽ đến đâu, con tàu đó vẫn cần một vị thuyền trưởng tỉnh táo để định hướng qua những vùng biển đầy rẫy thiên kiến và rủi ro pháp lý.

Việc tuân thủ yêu cầu "giám sát thủ công" không nên được nhìn nhận như một gánh nặng hành chính hay một bước lùi về năng suất. Thay vào đó, hãy xem đây là cơ hội vàng để doanh nghiệp xây dựng một thương hiệu tuyển dụng "vị nhân sinh" và đáng tin cậy trong mắt ứng viên. Khi một ứng viên biết rằng hồ sơ của họ không chỉ bị chấm điểm bởi một cỗ máy vô hồn mà luôn có sự thấu cảm và công bằng của con người đứng sau bảo vệ, niềm tin của họ vào doanh nghiệp sẽ được củng cố mạnh mẽ hơn bao giờ hết. Đây chính là giá trị vô hình nhưng bền vững nhất mà không một thuật toán nào có thể tạo ra được.

Cuối cùng, hãy nhớ rằng trong kỷ nguyên của dữ liệu và mã lệnh, sự khác biệt lớn nhất của một doanh nghiệp dẫn đầu chính là tính nhân văn. Đừng sợ hãi những quy định khắt khe của Luật AI, mà hãy dùng chúng làm tiêu chuẩn để nâng tầm chuyên môn cho đội ngũ nhân sự của bạn. Hãy để AI làm những việc thuộc về tính toán, và dành phần tâm hồn, sự phán đoán tinh tế cho con người. Đó chính là cách duy nhất để doanh nghiệp của bạn không chỉ đi nhanh, đi xa mà còn đi đúng hướng trên con đường chinh phục những tài năng thực thụ.

Newsletter

Đăng ký nhận thông tin mới nhất từ MBW

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Quay lại

ĐĂNG KÝ TƯ VẤN MIỄN PHÍ

Mỗi doanh nghiệp có một bài toán tuyển dụng khác nhau. Buổi tư vấn của chúng tôi được thiết kế để giúp bạn tìm ra giải pháp phù hợp nhất

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.