Prawo mające na celu powstrzymanie stronniczego zatrudniania przez sztuczną inteligencję okazuje się nieskuteczne

Prawo mające na celu powstrzymanie stronniczego zatrudniania przez sztuczną inteligencję okazuje się nieskuteczne

Węzeł źródłowy: 3079132

Badanie skuteczności nowojorskiego prawa dotyczącego stronniczości w algorytmach zatrudniania AI wykazało, że jest ono w dużej mierze nieskuteczne.

Prawo lokalne miasta Nowy Jork nr 144 (LL144). minęło w 2021 r., weszło w życie 1 stycznia ubiegłego roku i obowiązuje od lipca 2023 r. Prawo wymaga od pracodawców korzystających z narzędzi do automatycznego podejmowania decyzji o zatrudnieniu (AEDT) corocznego audytowania ich pod kątem uprzedzeń rasowych i płciowych oraz publikowania tych wyników na swoich stronach internetowych, oraz umieszczać w ogłoszeniach o pracę informację, że korzystają z takiego oprogramowania do podejmowania decyzji o zatrudnieniu.

Badanie przeprowadzone przez naukowców z Cornell University, organizacji non-profit Consumer Reports oraz organizacji non-profit Data & Society Research Institute nie zostało jeszcze opublikowane, ale udostępniono je Rejestr. Ustaliło, że spośród 391 pracodawców objętych próbą tylko 18 opublikowało sprawozdania z audytów wymagane na mocy prawa. Zaledwie 13 pracodawców (z których 11 opublikowało także sprawozdania z kontroli) zamieściło niezbędne zawiadomienia dotyczące przejrzystości.

LL144 „zapewnia pracodawcom niemal całkowitą swobodę w decydowaniu, czy ich system mieści się w zakresie prawa” – powiedział Jacob Metcalf, badacz z Data & Society i jeden z autorów badania Rejestr. „Istnieje wiele sposobów, w jaki pracodawcy mogą uciec od tego zakresu”.

Metcalf powiedział nam, że ustawa LL144 nie wymaga od firm podejmowania jakichkolwiek działań, jeśli jeden z audytów wykaże, że AEDT doprowadziło do dyskryminujących wyników. Nie oznacza to jednak, że firmy, u których stwierdzono stosowanie stronniczych AEDT, nie będą zagrożone.

„Pracodawcy zamieszczający audyt wykazujący odmienne skutki są otwarci na inne formy działania” – powiedział nam Metcalf. „Pozwy cywilne dotyczące dyskryminacji w zatrudnieniu mogą być bardzo kosztowne”.

Metcalf i kilku jego współpracowników pracuje nad drugim artykułem na temat LL144, który koncentruje się na doświadczeniach audytorów dokonujących przeglądu AEDT stosowanych przez firmy z Nowego Jorku. Rejestr zapoznał się z artykułem, który jest obecnie recenzowany. Ustala, że ​​audyty wykazały przypadki dyskryminacji ze strony AEDT.

„Z wywiadów z audytorami wiemy, że pracodawcy płacili za te audyty, a następnie odmawiali publikacji ich publicznie, gdy liczby były złe” – powiedział nam Metcalf. „Ich radca prawny bardziej boi się Komisji ds. Równych Szans w Zatrudnieniu niż Nowego Jorku”.

Prawo miasta Nowy Jork spowalnia przyjęcie podobnych zasad

Przepisy podobne do LL144 zostały uwzględnione w innych jurysdykcjach. Propozycje te w większości utknęły w martwym punkcie, ponieważ prawodawcy zdali sobie sprawę, że wysiłki Nowego Jorku mające na celu zapobieganie stronniczości w zakresie zatrudniania przez sztuczną inteligencję nie były skuteczne.

„Sponsorzy [rachunków] ponownie zastanawiają się nad swoją strukturą. O ile mi wiadomo, nie podjęto żadnych działań w związku z podobnymi przepisami” – powiedział nam Metcalf. Kalifornia za podobne przepisy w 2022 r., podczas gdy Waszyngton i stan Nowy Jork również rozważały wprowadzenie przepisów takich jak LL144.

Unia Europejska Ustawa o sztucznej inteligencji, wstępnie uzgodniona w grudniu 2023 r., umieszcza sztuczną inteligencję wykorzystywaną w procesie rekrutacji w „wysokie ryzyko" Kategoria, znaczenie takie produkty będą musiały zostać poddane przeglądowi przed wprowadzeniem na rynek i przez cały cykl życia. UE nie przyjęła jeszcze swojego prawa.

Stronniczość w AI była dobrze ugruntowane w tym momencie.

Firma Workday zajmująca się oprogramowaniem HR nawet była pozwany w związku z zarzutami, że oprogramowanie rekrutacyjne tej firmy było wykorzystywane do dyskryminacji kandydatów rasy czarnej – dokładnie z tym zjawiskiem, do zwalczania którego zaprojektowano LL144.

Chociaż ustawa LL144 okazała się w dużej mierze nieskuteczna, badacze doszli do wniosku, że nowe prawo stanowi pierwszy krok w kierunku lepszego stanowienia prawa.

„Każdy, kto pracuje nad tymi przepisami, eksperymentuje ze strukturami odpowiedzialności – nie wiemy jeszcze, co się sprawdzi” – powiedział nam Metcalf. „Prawie wszystko, co powiedzieli krytycy społeczeństwa obywatelskiego [na temat ustawy LL144], spełniło się, ale z tego artykułu dowiedzieliśmy się rzeczy, które inne osoby mogą wykorzystać [na potrzeby przyszłych wysiłków w zakresie egzekwowania prawa]”.

Metcalf stwierdził, że jedną z najważniejszych rzeczy, których można się nauczyć z LL144, jest to, że należy rozszerzyć zakres objętego zakresem użytkowania oprogramowania AEDT.

Język w LL144 jest abstrakcyjny i definiuje użycie oprogramowania AEDT jedynie w przypadkach, gdy jest ono „używane do znacznego wspomagania lub zastąpienia uznaniowego podejmowania decyzji przy podejmowaniu decyzji o zatrudnieniu”. To, co oznacza „istotny”, zależy od interpretacji.

Powiedziano nam, że jeśli przyszłe przepisy stworzone w celu zwalczania dyskryminacji AEDT mają być skuteczne, należy porzucić wszelkie zastrzeżenia dotyczące stosowania algorytmów zatrudniania AI.

„Jeśli system renderuje partyturę, ma to swój zakres. Kropka” – powiedział nam Metcalf. „Dawanie pracodawcom swobody [w podejmowaniu decyzji, czy korzystanie przez nich z AEDT wchodzi w zakres ustawy LL144] tworzy przewrotne zachęty, które podważają rzeczywistą odpowiedzialność, jaką mogłoby osiągnąć to prawo”. ®

Znak czasu:

Więcej z Rejestr