Luật được thiết kế để ngăn chặn việc tuyển dụng thiên vị AI tỏ ra không hiệu quả

Luật được thiết kế để ngăn chặn việc tuyển dụng thiên vị AI tỏ ra không hiệu quả

Nút nguồn: 3079132

Một nghiên cứu về tính hiệu quả của luật nhắm vào sự thiên vị trong các thuật toán tuyển dụng AI của Thành phố New York đã cho thấy luật này phần lớn không hiệu quả.

Luật địa phương 144 của Thành phố New York (LL144) là thông qua vào năm 2021, có hiệu lực từ ngày 1 tháng 2023 năm ngoái và được thi hành kể từ tháng XNUMX năm XNUMX. Luật yêu cầu người sử dụng lao động sử dụng các công cụ quyết định việc làm tự động (AEDT) để kiểm tra hàng năm về thành kiến ​​chủng tộc và giới tính, công bố những kết quả đó trên trang web của họ, và đưa thông báo vào tin tuyển dụng rằng họ sử dụng phần mềm đó để đưa ra quyết định việc làm.

Nghiên cứu từ các nhà nghiên cứu tại Đại học Cornell, dịch vụ đánh giá phi lợi nhuận Báo cáo Người tiêu dùng và Viện Nghiên cứu Xã hội & Dữ liệu phi lợi nhuận, vẫn chưa được công bố nhưng đã được chia sẻ với Đăng ký. Nó phát hiện ra rằng trong số 391 người sử dụng lao động được lấy mẫu, chỉ có 18 người đã công bố báo cáo kiểm toán theo yêu cầu của pháp luật. Chỉ có 13 nhà tuyển dụng (11 trong số đó cũng đã công bố báo cáo kiểm toán) đưa ra các thông báo minh bạch cần thiết.

LL144 “gần như trao toàn quyền cho người sử dụng lao động quyết định xem hệ thống của họ có nằm trong phạm vi của pháp luật hay không”, Jacob Metcalf, nhà nghiên cứu tại Data & Society và một trong những tác giả của nghiên cứu, nói. Đăng ký. “Và có nhiều cách để người sử dụng lao động thoát khỏi phạm vi đó.”

Metcalf nói với chúng tôi rằng LL144 không yêu cầu các công ty thực hiện bất kỳ hành động nào nếu một trong các cuộc kiểm toán của họ cho thấy AEDT đã dẫn đến kết quả phân biệt đối xử. Tuy nhiên, điều đó không có nghĩa là các công ty bị phát hiện đang sử dụng AEDT sai lệch sẽ không gặp khó khăn.

Metcalf nói với chúng tôi: “Các nhà tuyển dụng đăng một cuộc kiểm tra cho thấy tác động khác nhau sẽ sẵn sàng thực hiện các hình thức hành động khác. “Các vụ kiện dân sự về phân biệt đối xử trong việc làm có thể rất tốn kém.”

Metcalf và một số đồng nghiệp của ông đang nghiên cứu bài báo thứ hai về LL144, tập trung vào kinh nghiệm của các kiểm toán viên khi xem xét AEDT được các công ty ở NYC sử dụng. Đăng ký đã xem bài báo, hiện đang được bình duyệt. Nó phát hiện ra rằng các cuộc kiểm toán đã phát hiện ra các trường hợp phân biệt đối xử của AEDT.

Metcalf nói với chúng tôi: “Chúng tôi biết từ các cuộc phỏng vấn với các kiểm toán viên rằng các nhà tuyển dụng đã trả tiền cho các cuộc kiểm toán này và sau đó từ chối đăng chúng một cách công khai khi các con số không tốt”. “Cố vấn pháp lý của họ sợ Ủy ban Cơ hội Việc làm Bình đẳng hơn Thành phố New York.”

Luật thành phố New York làm chậm việc áp dụng các quy tắc tương tự

Các luật tương tự như LL144 đã được các khu vực pháp lý khác xem xét. Những đề xuất đó hầu như bị đình trệ khi các nhà lập pháp nhận thức được rằng nỗ lực của NYC trong việc ngăn chặn sự thiên vị trong tuyển dụng AI không có hiệu quả.

“Các nhà tài trợ [của các dự luật] đang xem xét lại cấu trúc của họ. Theo như tôi biết thì chưa có bất kỳ hành động nào đối với các luật tương tự,” Metcalf nói với chúng tôi. California xem xét luật tương tự vào năm 2022, trong khi Washington DC và bang New York cũng đang cân nhắc luật như LL144.

Liên minh châu Âu Đạo luật AI, được đồng ý tạm thời vào tháng 2023 năm XNUMX, đặt AI được sử dụng trong quá trình tuyển dụng trong “Đạo luật”rủi ro cao" loại, có nghĩa là những sản phẩm như vậy sẽ cần phải được xem xét trước khi tiếp cận thị trường và trong suốt vòng đời của chúng. EU vẫn chưa thông qua luật của mình.

Sự thiên vị trong AI đã được cũng được thành lập tại điểm này.

Công ty phần mềm nhân sự Workday thậm chí còn kiện về những cáo buộc rằng phần mềm tuyển dụng của họ đã được sử dụng để phân biệt đối xử với những người nộp đơn Da đen - chính xác là loại điều mà LL144 được thiết kế để chống lại.

Mặc dù LL144 phần lớn không có hiệu quả nhưng các nhà nghiên cứu kết luận rằng luật này là bước đầu tiên hướng tới quy định tốt hơn.

Metcalf nói với chúng tôi: “Bất kỳ ai nghiên cứu các luật này đều đang thử nghiệm các cấu trúc trách nhiệm giải trình - chúng tôi chưa biết điều gì có hiệu quả”. “Gần như mọi điều mà các nhà phê bình xã hội dân sự nói [về LL144] đã trở thành sự thật, nhưng chúng tôi đã học được những điều trong bài báo này mà những người khác có thể tiếp thu [cho những nỗ lực thực thi trong tương lai].”

Metcalf cho biết, một trong những điều quan trọng nhất có thể học được từ LL144 là phạm vi cấu thành việc sử dụng phần mềm AEDT được bảo hiểm cần được mở rộng.

Ngôn ngữ trong LL144 là trừu tượng, chỉ xác định việc sử dụng phần mềm AEDT trong trường hợp nó “được sử dụng để hỗ trợ hoặc thay thế đáng kể việc ra quyết định tùy ý để đưa ra quyết định tuyển dụng”. “Đáng kể” nghĩa là gì tùy vào cách giải thích.

Chúng tôi được biết, nếu các luật trong tương lai được tạo ra để chống lại sự phân biệt đối xử của AEDT có hiệu lực, thì mọi tiêu chuẩn về việc sử dụng thuật toán tuyển dụng AI cần phải bị loại bỏ.

“Nếu một hệ thống đang hiển thị điểm thì nó nằm trong phạm vi. Chấm hết,” Metcalf nói với chúng tôi. “Việc trao quyền quyết định cho người sử dụng lao động [trong việc quyết định xem việc sử dụng AEDT của họ có thuộc phạm vi của LL144 hay không] sẽ tạo ra những động cơ tiêu cực làm suy yếu trách nhiệm giải trình thực tế mà luật này lẽ ra có thể đạt được.” ®

Dấu thời gian:

Thêm từ Đăng ký