Az adatok magyarázhatósága: A modell magyarázhatóságának megfelelője – DATAVERSITY

Az adatok magyarázhatósága: A modell magyarázhatóságának megfelelője – DATAVERSITY

Forrás csomópont: 2658143

Manapság az AI és az ML mindenhol jelen van. 

Akár mindenki játszik vele ChatGPT (a leggyorsabb elfogadott alkalmazás a történelemben) vagy egy közelmúltbeli kiegészítési javaslat a közlekedési lámpák negyedik színe az önvezető autókra való átállás biztonságosabbá tétele érdekében a mesterséges intelligencia alaposan áttelítette életünket. Noha az AI elérhetőbbnek tűnhet, mint valaha, az AI-modellek összetettsége exponenciálisan nőtt. 

Az AI-modellek a fekete dobozos és a fehér dobozos modellek fő kategóriájába tartoznak. A fekete dobozos modellek magyarázat nélkül döntenek, míg a fehér dobozos modellek az eredményt létrehozó szabályok alapján adnak eredményt. 

Ahogy tovább haladunk a teljes mély tanulási módszerek világa felé, a legtöbben nagyrészt a fekete doboz modellek felé vonzódnak. 

A probléma ezzel a megközelítéssel? A fekete dobozos modellek (mint például a számítógépes látásba építettek) nem fogyaszthatók közvetlenül. Ezt gyakran fekete doboz problémának nevezik. Míg a feketedoboz-modellek átképzése felgyorsítja a felhasználókat, a modell értelmezése és a fekete doboz-modell eredményeinek megértése nehezebbé válik, ahogy a modellek egyre bonyolultabbak.

A fekete doboz rejtély megoldásának egyik taktikája egy nagyon egyedi és megmagyarázható modell elkészítése. 

A világ azonban nem ebbe az irányba halad. 

Ahol a modell magyarázhatósága véget ér, ott kezdődik az adatok megmagyarázhatósága

A magyarázhatóság kritikus fontosságú, mert javítja a modell átláthatóságát, pontosságát és tisztességességét, valamint javíthatja a mesterséges intelligencia iránti bizalmat. Míg a modell magyarázhatósága hagyományos megközelítés, ma már egy új típusra is szükség van: az adatok magyarázhatóságára.

A modell magyarázhatósága az algoritmus megértését jelenti, hogy megértsük a végeredményt. Például, ha egy onkológiai egységben használt modellt arra terveztek, hogy tesztelje, hogy a növekedés rákos-e, az egészségügyi szolgáltatónak meg kell értenie a végeredményt létrehozó változókat. Bár ez elméletben jól hangzik, a modell magyarázhatósága nem oldja meg teljesen a fekete doboz problémáját. 

A modellek egyre bonyolultabbá válásával a legtöbb gyakorló képtelen lesz pontosan meghatározni a transzformációkat és értelmezni a számításokat a modell belső rétegeiben. Nagyrészt arra támaszkodnak, hogy mit tudnak ellenőrizni, azaz a képzési adatkészletekre és arra, amit megfigyelnek, az eredményekre és az előrejelzési intézkedésekre.  

Használjuk egy modellt építő adattudós példáját, hogy több ezer fényképből felismerje a kávésbögrék fotóit – de a modell például ivópoharak és söröskorsók képeit is észleli. Míg az üveg- és söröskorsók némileg hasonlíthatnak a kávésbögrékre, vannak határozott különbségek, például a tipikus anyagok, a szín, az átlátszatlanság és a szerkezeti arányok.

Ahhoz, hogy a modell nagyobb megbízhatósággal észlelje a kávésbögréket, az adatkutatónak meg kell adnia a választ az alábbi kérdésekre:

  • Milyen képeket vett fel a modell a kávésbögrék helyett? 
  • A modell azért hibásodott meg, mert nem adtam neki elegendő mennyiségű kávésbögrét?
  • Ez a modell elég jó ahhoz, amit elérni próbáltam?
  • Ki kell kérnem a modellről alkotott véleményemet?
  • Miből állapíthatom meg határozottan, hogy a modell meghibásodását okozza? 
  • Generáljak-e új feltételezéseket a modellről?
  • Csak rossz modellt választottam a munkához?

Amint látja, nagyon valószínűtlen, hogy minden egyes probléma esetén ilyen jellegű betekintést, megértést és modellmagyarázhatóságot biztosítsunk.

Az adatok magyarázhatósága a megértést jelenti dátum betanításra és modellbe való bevitelre használják, hogy megértsük, hogyan érhető el a modell végeredménye. Ahogy az ML algoritmusok egyre összetettebbé válnak, de egyre szélesebb körben használatosak a szakmák és iparágak között, az adatok magyarázhatósága kulcsfontosságú lesz a gyakori problémák gyors feloldásához és megoldásához, mint például a kávésbögrés példánk.

Méltányosság és átláthatóság növelése az ML-ben az adatok magyarázhatóságával

A méltányosság az ML modelleken belül felkapott téma, amelyet az adatok magyarázhatóságának alkalmazásával még forróbbá tehetünk.

Miért a zúgás? A mesterséges intelligencia elfogultsága egy csoport esetében előítéletes eredményeket hozhat létre. Ennek egyik legjobban dokumentált esete a faji felhasználási esetek elfogultsága. Nézzünk egy példát. 

Tegyük fel, hogy egy nagy, jól ismert fogyasztói platform új marketingigazgatói pozíciót keres. A naponta beérkező önéletrajzok tömegének kezelése érdekében a HR-osztály egy AI/ML-modellt alkalmaz a jelentkezési és toborzási folyamat egyszerűsítésére a kulcsfontosságú jellemzők vagy a minősített jelentkezők kiválasztásával. 

Ennek a feladatnak a végrehajtásához, valamint az egyes önéletrajzok felismeréséhez és csoportosításához a modell a kulcsfontosságú domináns jellemzők értelmezésével teszi ezt. Sajnos ezt Is Ez azt jelenti, hogy a modell implicit módon felveheti a jelöltek általános faji előítéleteit is. Pontosan hogyan történne ez? Ha egy pályázói csoport kisebb százalékban tartalmaz egy versenyt, a gép azt fogja gondolni, hogy a szervezet egy másik faj vagy a domináns adatkészlet tagjait részesíti előnyben.

Ha egy modell meghibásodik, még ha nem is szándékosan, a cégnek kezelnie kell a hibát. Lényegében annak, aki telepítette a modellt, képesnek kell lennie megvédeni a modell használatát.

A munkaerő-felvétel és a faji elfogultság esetén a védőnek képesnek kell lennie arra, hogy elmagyarázza a dühös közönségnek és/vagy alkalmazáscsoportnak az adatkészletek használatát a modell betanításához, az ezen a képzésen alapuló modell kezdeti sikeres eredményeit, valamint a modell kudarcát. a modell egy sarokesetben, és hogyan vezetett ez nem szándékos adategyensúlytalansághoz, amely végül egy fajilag elfogult szűrési folyamatot hozott létre.

A legtöbb esetben a mesterséges intelligencia, az egyensúlyhiányos adatkészletek, a modell betanítás és az adatok felügyelete révén bekövetkező esetleges meghibásodások ilyen aprólékos részleteit nem fogják jól fogadni, sőt nem is értik. De mi lesz érthető és megmarad ebből a történetből? Az XYZ cég faji elfogultságot alkalmaz a munkaerő-felvétel során. 

Ennek a túlságosan gyakori példának az a morálja, hogy egy nagyon okos modellből származó nem szándékos hibák megtörténnek, és negatív hatással lehetnek az emberekre, és súlyos következményekkel járhatnak. 

Hová visz az adatok megmagyarázhatósága

Ahelyett, hogy az eredményeket egy összetett gépi tanulási modell megértése révén fordítanák le, az adatok magyarázhatósága az adatok segítségével magyarázza az előrejelzéseket és a hibákat.

Az adatok magyarázhatósága ekkor a tesztadatok látásának kombinációja és a megérteni, hogy a modell mit fog kivenni ezekből az adatokból. Ez magában foglalja az alulreprezentált adatminták, a felülreprezentált minták megértését (mint a felvételi példában), valamint a modell észlelésének átláthatóságát az előrejelzések és téves előrejelzések pontos megértése érdekében.

Az adatok magyarázhatóságának ez a megértése nemcsak a modell pontosságát és tisztességességét javítja, hanem a modellek gyorsabb felgyorsulását is segíti.

Ahogy továbbra is támaszkodunk az összetett AI és ML programokra, és azokat beépítjük mindennapi életünkbe, a fekete doboz probléma megoldása kritikussá válik, különösen a hibák és a téves előrejelzések esetén. 

Bár a modell magyarázhatóságának mindig meglesz a maga helye, ehhez egy másik rétegre van szükség. Szükségünk van az adatok magyarázhatóságára, mivel annak megértését, hogy egy modell mit lát és mit olvas, soha nem fedi le a klasszikus modellmagyarázhatóság.

Időbélyeg:

Még több ADATVERZITÁS