La legge progettata per fermare le assunzioni influenzate dall’intelligenza artificiale si rivela inefficace

La legge progettata per fermare le assunzioni influenzate dall’intelligenza artificiale si rivela inefficace

Nodo di origine: 3079132

Uno studio sull’efficacia di una legge della città di New York che prende di mira i pregiudizi negli algoritmi di assunzione dell’intelligenza artificiale ha rilevato che la legislazione è in gran parte inefficace.

La legge locale 144 (LL144) della città di New York era Passato nel 2021, è entrata in vigore il 1° gennaio dello scorso anno ed è entrata in vigore a partire dal luglio 2023. La legge impone ai datori di lavoro che utilizzano strumenti automatizzati per le decisioni sull'occupazione (AEDT) di controllarli annualmente per individuare pregiudizi razziali e di genere, di pubblicare tali risultati sui loro siti web, e includere avvisi negli annunci di lavoro che utilizzano tale software per prendere decisioni relative all'assunzione.

Lo studio condotto da ricercatori della Cornell University, dal servizio di recensioni no-profit Consumer Reports e dal Data & Society Research Institute senza scopo di lucro, deve ancora essere pubblicato ma è stato condiviso con Il registro. È emerso che dei 391 datori di lavoro campionati, solo 18 avevano pubblicato le relazioni di audit richieste dalla legge. Solo 13 datori di lavoro (11 dei quali hanno pubblicato anche relazioni di audit) hanno incluso le necessarie comunicazioni sulla trasparenza.

LL144 "garantisce una discrezionalità quasi totale ai datori di lavoro nel decidere se il loro sistema rientra nell'ambito di applicazione della legge", ha detto Jacob Metcalf, ricercatore presso Data & Society e uno degli autori dello studio. Il registro. “E ci sono diversi modi in cui i datori di lavoro possono sfuggire a tale ambito”.

Metcalf ci ha detto che LL144 non richiede alle aziende di intraprendere alcuna azione se uno dei suoi audit mostra che un AEDT ha portato a risultati discriminatori. Ciò non significa, tuttavia, che le aziende che utilizzano AEDT distorti non saranno intrappolate.

"I datori di lavoro che pubblicano un audit che mostra impatti disparati sono aperti ad altre forme di azione", ci ha detto Metcalf. “Le cause civili sulla discriminazione sul lavoro possono essere molto costose”.

Metcalf e molti dei suoi colleghi stanno lavorando a un secondo articolo su LL144 che si concentra sull'esperienza dei revisori che esaminano gli AEDT utilizzati dalle società di New York. Il registro ha visionato il documento, che è attualmente in fase di peer review. Si rileva che gli audit hanno riscontrato casi di discriminazione da parte degli AEDT.

"Sappiamo dalle interviste con i revisori che i datori di lavoro hanno pagato per questi audit e poi si sono rifiutati di pubblicarli quando i numeri sono negativi", ci ha detto Metcalf. "Il loro consulente legale ha più paura della Commissione per le pari opportunità di lavoro che di New York City."

La legge della città di New York rallenta l’adozione di norme simili

Leggi simili a LL144 sono state prese in considerazione da altre giurisdizioni. Tali proposte si sono per lo più bloccate quando i legislatori si sono resi conto che il tentativo di New York di prevenire i pregiudizi nelle assunzioni dell’IA non è stato efficace.

“Gli sponsor [delle leggi] stanno ripensando la loro struttura. Per quanto ne so, non c'è stata alcuna azione su leggi simili", ci ha detto Metcalf. California considerato una legislazione simile nel 2022, mentre anche Washington DC e lo stato di New York hanno preso in considerazione una legislazione come LL144.

L'Unione europea Legge sull'IA, concordato provvisoriamente nel dicembre 2023, inserisce l'IA utilizzata nel processo di reclutamento nella sezione "alto rischio"categoria, significato tali prodotti dovranno essere rivisti prima di raggiungere il mercato e durante tutto il loro ciclo di vita. L’UE deve ancora approvare la sua legge.

I pregiudizi nell’intelligenza artificiale sono stati ben consolidata a questo punto.

La società di software per le risorse umane Workday lo è stata persino citato in giudizio per le accuse secondo cui il suo software di reclutamento è stato utilizzato per discriminare i candidati neri, esattamente il genere di cose per cui LL144 è stato progettato per combattere.

Sebbene la LL144 sia stata in gran parte inefficace, i ricercatori hanno concluso che la legge è un primo passo verso una migliore regolamentazione.

“Chiunque lavori su queste leggi sta sperimentando strutture di responsabilità – non sappiamo ancora cosa funzioni”, ci ha detto Metcalf. “Quasi tutto ciò che hanno detto i critici della società civile [su LL144] si è avverato, ma in questo documento abbiamo imparato cose che altre persone possono raccogliere [per futuri sforzi di applicazione della legge].”

Una delle cose più importanti che si potrebbe imparare da LL144, ha affermato Metcalf, è che l'ambito di ciò che costituisce l'uso coperto del software AEDT dovrebbe essere ampliato.

Il linguaggio in LL144 è astratto e definisce solo l'uso del software AEDT nei casi in cui è "utilizzato per assistere o sostituire sostanzialmente il processo decisionale discrezionale per prendere decisioni sull'occupazione". Il significato di “sostanziale” dipende dall’interpretazione.

Se le future leggi create per combattere la discriminazione AEDT devono essere efficaci, ci viene detto, qualsiasi qualifica sull’uso degli algoritmi di assunzione dell’IA deve essere abbandonata.

“Se un sistema restituisce una partitura, rientra nell'ambito. Punto”, ci ha detto Metcalf. "Concedere discrezionalità ai datori di lavoro [nel decidere se il loro utilizzo dell'AEDT rientra nell'ambito di applicazione della LL144] crea incentivi perversi che minano l'effettiva responsabilità che questa legge avrebbe potuto ottenere." ®

Timestamp:

Di più da Il registro