Tekoälysyrjinnän torjumisen kiireellisyys: avoimuus, vastuullisuus ja säännösten mukaiset aikataulut

Tekoälysyrjinnän torjumisen kiireellisyys: avoimuus, vastuullisuus ja säännösten mukaiset aikataulut

Lähdesolmu: 2747320

Tekoäly (AI) on mullistanut useita toimialoja tarjoten lukuisia etuja ja mahdollisuuksia. On kuitenkin ilmaantunut huolenaiheita tekoälyn mahdollisuudesta jatkaa syrjintää ja ennakkoluuloja. Tämä artikkeli tutkii tekoälyn syrjinnän aihetta ja valaisee tekoälyjärjestelmiin sisältyvien harhojen tunnistamisen ja käsittelemisen haasteita. Alan sisäpiiriläiset ilmaisevat epäilyjä tekoälyn moraalisista ja eettisistä vaikutuksista vedoten huoliin väärästä tiedosta, harhaanjohtavista algoritmeista ja harhaanjohtavan sisällön tuottamisesta. Tekoälyä koskevien keskustelujen kiihtyessä vaaditaan yhä enemmän järkevää sääntelyä läpinäkyvyyden, vastuullisuuden ja perusoikeuksien suojelun varmistamiseksi.

Rahoitusteollisuuden haasteita tekoälyn kanssa

Worldpay by FIS:n krypto- ja Web3-päällikön Nabil Manjin mukaan tekoälytuotteiden tehokkuus riippuu suuresti koulutukseen käytetyn lähdemateriaalin laadusta. Haastattelussa CNBC:lle Manji selitti, että kaksi päätekijää vaikuttavat tekoälyn suorituskykyyn: data, johon sillä on pääsy, ja suuren kielimallin ominaisuudet.

Havainnollistaakseen tietojen merkitystä Manji mainitsi, että Redditin kaltaiset yritykset ovat julkisesti ilmoittaneet rajoituksista tietojen kaapimiseen, mikä vaatii maksua pääsystä. Finanssipalvelualalla hän korosti hajanaisten tietojärjestelmien haastetta eri kielillä ja muodoissa. Tämä konsolidoinnin ja yhdenmukaistamisen puute rajoittaa tekoälyyn perustuvien tuotteiden tehokkuutta, erityisesti verrattuna teollisuudenaloihin, joilla on standardoitu ja modernisoitu tietoinfrastruktuuri.

Manjin mukaan lohkoketjun tai hajautetun pääkirjan hyödyntäminen voi tarjota potentiaalisen ratkaisun tämän ongelman ratkaisemiseen. Tämä innovatiivinen lähestymistapa voi parantaa perinteisten pankkien monimutkaisiin järjestelmiin tallennettujen hajanaisten tietojen läpinäkyvyyttä. Hän kuitenkin myönsi, että pankkien erittäin säännelty ja hitaasti etenevä luonne saattaa haitata niiden kykyä ottaa nopeasti käyttöön uusia tekoälytyökaluja, toisin kuin ketterämmät teknologiayritykset, kuten Microsoft ja Google, jotka ovat olleet innovaatioiden edelläkävijöitä viime aikoina. vuosikymmeniä.

Nämä tekijät huomioon ottaen käy selväksi, että rahoitusalalla on ainutlaatuisia haasteita tekoälyn hyödyntämisessä dataintegraation monimutkaisuuden ja pankkisektorin luontaisen luonteen vuoksi.

Rumman Chowdhuryn, Twitterin koneoppimisen etiikan, avoimuuden ja vastuullisuuden johtajan, mukaan lainananto on merkittävä esimerkki siitä, kuinka tekoälyjärjestelmien harha voi vaikuttaa haitallisesti syrjäytyneisiin yhteisöihin. Puhuessaan paneelikeskustelussa Amsterdamissa Chowdhury korosti historiallista "redlining" -käytäntöä Chicagossa 1930-luvulla. Redlining sisälsi lainojen epäämisen pääosin afroamerikkalaisilta alueilta rodullisen väestörakenteen perusteella.

Chowdhury selitti, että vaikka nykyaikaiset algoritmit eivät välttämättä sisällä rotua tietopisteenä, harhaa voidaan silti koodata implisiittisesti. Kun kehitetään algoritmeja piirien ja yksittäisten henkilöiden riskialttiuden arvioimiseksi lainaustarkoituksiin, harhaa sisältävät historiatiedot voivat vahingossa jatkaa syrjintää.

Angle Bush, tekoälyn mustien naisten visionääri, korosti, kuinka tärkeää on tunnustaa vaarat, jotka liittyvät historiallisiin tietoihin sisältyvien harhojen toistamiseen käytettäessä tekoälyjärjestelmiä lainan hyväksymispäätösten tekemiseen. Tällainen käytäntö voi johtaa syrjäytyneiden yhteisöjen lainahakemusten automaattiseen hylkäämiseen, mikä säilyttää rotu- tai sukupuolten välisen eriarvoisuuden.

Frost Li, kokenut tekoälykehittäjä, huomautti personoinnin haasteista AI -integraatio. "Ydinominaisuuksien" valinta tekoälymallien harjoittelua varten voi joskus sisältää toisiinsa liittymättömiä tekijöitä, jotka voivat johtaa puolueellisiin tuloksiin. Li antoi esimerkin siitä, kuinka ulkomaalaisille suunnatut fintech-startupit saattavat kohdata erilaiset luottoluokituskriteerit verrattuna paikallisiin pankkeihin, jotka tuntevat paremmin paikalliset koulut ja yhteisöt.

Fintechin päätöksenteon automatisointiin erikoistuneen startupin Taktilen operatiivinen johtaja Niklas Guske selvensi, että generatiivista tekoälyä ei tyypillisesti käytetä kuluttajien luottopisteiden tai riskipisteiden luomiseen. Päinvastoin, sen vahvuus on strukturoimattoman tiedon, kuten tekstitiedostojen, esikäsittelyssä tietojen laadun parantamiseksi perinteisissä vakuutusmalleissa.

Yhteenvetona voidaan todeta, että tekoälyn käyttö laina- ja rahoituspalveluissa herättää huolta puolueellisuudesta ja syrjinnästä. Tietoihin upotettu historiallinen harha ja epäolennaisten ominaisuuksien valinta tekoälykoulutuksen aikana voivat johtaa epäreiluihin tuloksiin. Pankkien ja rahoituslaitosten on ratkaisevan tärkeää tunnistaa nämä ongelmat ja puuttua niihin, jotta estetään tahaton syrjinnän jatkuminen tekoälyratkaisuja otettaessa käyttöön.

Todiste tekoälyn syrjinnästä

Tekoälyyn perustuvan syrjinnän todistaminen voi olla haastavaa, kuten Applen ja Goldman Sachsin tapauksen kaltaiset esimerkit osoittavat. New Yorkin osavaltion rahoituspalveluministeriö hylkäsi syytökset alempien rajoitusten asettamisesta Apple Cardille naisille vedoten todisteiden puutteeseen.

Euroopan rasismin vastaisen verkoston johtaja Kim Smouter huomauttaa, että tekoälyn massakäyttöönotto tuo läpinäkymättömyyttä päätöksentekoprosesseihin, mikä tekee yksilöiden vaikeaksi tunnistaa ja käsitellä syrjintää.

Smouter selittää, että yksilöillä on usein rajallinen tieto siitä, miten tekoälyjärjestelmät toimivat, mikä tekee syrjinnän tai systeemisten harhojen havaitsemisesta haastavaa. Asiasta tulee vielä monimutkaisempi, kun syrjintä on osa laajempaa ongelmaa, joka koskee useita yksilöitä. Smouter viittaa Alankomaiden lastensuojeluskandaaliin, jossa suuri määrä etuushakemuksia leimattiin väärin petollisiksi instituutioiden vinoutumisen vuoksi. Tällaisten toimintahäiriöiden havaitseminen on haastavaa, ja hyvityksen saaminen voi olla vaikeaa ja aikaa vievää, mikä johtaa merkittäviin ja joskus peruuttamattomiin haittoihin.

Nämä esimerkit havainnollistavat luontaisia ​​vaikeuksia tekoälyyn perustuvan syrjinnän perustelemisessa ja oikeuskeinojen saamisessa, kun tällaista syrjintää tapahtuu. Tekoälyjärjestelmien monimutkaisuus ja läpinäkyvyyden puute päätöksentekoprosesseissa voivat tehdä yksilöille haastavaksi tunnistaa ja käsitellä tehokkaasti syrjintää.

Chowdhuryn mukaan tarvitaan kipeästi YK:n kaltainen globaali sääntelyelin puuttumaan tekoälyyn liittyviin riskeihin. Vaikka tekoäly on osoittanut merkittäviä innovaatioita, teknikot ja eettiset tutkijat ovat herättäneet huolta sen moraalisista ja eettisistä vaikutuksista. Nämä huolenaiheet sisältävät esimerkiksi vääriä tietoja, tekoälyalgoritmeihin upotettuja rotu- ja sukupuoliharjoituksia sekä harhaanjohtavan sisällön tuottamista ChatGPT:n kaltaisilla työkaluilla.

Chowdhury ilmaisee huolensa siirtymisestä totuuden jälkeiseen maailmaan, jossa verkkotiedot, kuten teksti, video ja ääni, muuttuvat epäluotettavaksi generatiivisen tekoälyn vuoksi. Tämä herättää kysymyksiä siitä, kuinka voimme varmistaa tiedon eheyden ja miten voimme luottaa siihen tehdessämme tietoisia päätöksiä. Esimerkkinä Euroopan unionin tekoälylaki, tekoälyn järkevä sääntely on tällä hetkellä ratkaisevan tärkeää. On kuitenkin huolestuttavaa, että sääntelyehdotusten voimaantulo kestää kauan, mikä saattaa viivästyttää tarvittavia toimia.

Smouter korostaa, että tekoälyalgoritmeissa tarvitaan suurempaa läpinäkyvyyttä ja vastuullisuutta. Tämä sisältää algoritmien tekemisen ymmärrettävämmiksi muille kuin asiantuntijoille, testien suorittamisen ja tulosten julkaisemisen, riippumattomien valitusprosessien perustamisen, säännöllisten tarkastusten ja raportoinnin sekä rotupohjaisten yhteisöjen ottamista mukaan teknologian suunnitteluun ja käyttöönottoon. Perusoikeusnäkökulmasta ja korvauksen kaltaisia ​​käsitteitä tuovan tekoälylain täytäntöönpanon odotetaan alkavan noin kahden vuoden kuluttua. Tämän aikajanan lyhentäminen olisi edullista avoimuuden ja vastuullisuuden säilyttämiseksi olennaisina innovaation osatekijöinä.

Aikaleima:

Lisää aiheesta Forex-uutiset nyt