Dataförklaring: Motsvarigheten till modellförklaring - DATAVERSITET

Dataförklaring: Motsvarigheten till modellförklaring – DATAVERSITET

Källnod: 2658143

Idag finns AI och ML överallt. 

Oavsett om det är alla som leker med ChatGPT (den snabbaste antagen app i historien) eller ett nytt förslag att lägga till en fjärde färg till trafikljus För att göra övergången till självkörande bilar säkrare har AI grundligt mättat våra liv. Även om AI kan verka mer tillgänglig än någonsin, har komplexiteten hos AI-modeller ökat exponentiellt. 

AI-modeller faller i huvudkategorierna svarta och vita lådor. Black box-modeller fattar ett beslut utan förklaring, medan white box-modeller levererar ett resultat baserat på reglerna som gav det resultatet. 

När vi fortsätter att röra oss mot en värld av hela metoder för djupinlärning, drar de flesta till stor del mot svarta lådmodeller. 

Problemet med det tillvägagångssättet? Black box-modeller (som de som är inbyggda i datorseende) kan inte direkt konsumeras. Detta kallas ofta för black box-problemet. Även om omskolning av black box-modeller kan ge användarna en kickstart, blir det svårare att tolka modellen och förstå resultaten av black box-modellen när modellerna ökar i komplexitet.

En taktik för att ta itu med den svarta lådans gåta är att skapa en mycket skräddarsydd och förklarlig modell. 

Men det är inte i den riktning världen rör sig. 

Där modellförklaringen slutar, börjar dataförklaringen

Förklarbarhet är avgörande eftersom det förbättrar modellens transparens, noggrannhet och rättvisa och kan också förbättra förtroendet för AI. Även om modellförklarbarhet är ett konventionellt tillvägagångssätt, uppstår nu också behovet av en ny typ: dataförklarbarhet.

Modellförklaring innebär att förstå algoritmen, för att förstå slutresultatet. Till exempel, om en modell som används på en onkologisk enhet är utformad för att testa om en tillväxt är cancer, bör en vårdgivare förstå de variabler som skapar slutresultaten. Även om detta låter bra i teorin, löser inte modellens förklarabarhet problemet med den svarta lådan. 

Eftersom modellerna blir allt mer komplexa kommer de flesta praktiker inte att kunna peka ut transformationerna och tolka beräkningarna i modellens inre lager. De förlitar sig till stor del på vad de kan kontrollera, dvs. träningsdatauppsättningarna och vad de observerar, resultaten och förutsägelsemått.  

Låt oss använda exemplet med en dataforskare som bygger en modell för att upptäcka foton av kaffemuggar från tusentals fotografier – men modellen börjar också upptäcka bilder av dricksglas och ölmuggar, till exempel. Även om glas- och ölmuggarna kan ha en viss likhet med kaffemuggar, finns det tydliga skillnader, såsom typiska material, färg, ogenomskinlighet och strukturella proportioner.

För att modellen ska upptäcka kaffemuggar med högre tillförlitlighet måste dataforskaren ha svaren på frågor som:

  • Vilka bilder tog modellen upp istället för kaffemuggar? 
  • Misslyckades modellen för att jag inte försåg den med tillräckligt med eller rätt exempel på kaffemuggar?
  • Är den modellen ens tillräckligt bra för det jag försökte åstadkomma?
  • Behöver jag utmana min syn på modellen?
  • Vad kan jag definitivt avgöra är orsaken till att modellen misslyckas? 
  • Ska jag generera nya antaganden om modellen?
  • Valde jag bara fel modell för jobbet till att börja med?

Som du kan se är det högst osannolikt att leverera denna typ av insikt, förståelse och modellförklaring varje gång det uppstår ett problem.

Dataförklarbarhet är att förstå datum används för utbildning och input till en modell, för att förstå hur en modells slutresultat nås. I takt med att ML-algoritmer blir allt mer komplexa men används mer allmänt inom yrken och branscher, kommer dataförklaring att fungera som nyckeln till att snabbt låsa upp och lösa vanliga problem, som vårt exempel på kaffemugg.

Öka rättvisa och transparens i ML med dataförklaring

Rättvisa inom ML-modeller är ett hett ämne, som kan göras ännu hetare genom att tillämpa dataförklarbarhet.

Varför surret? Bias i AI kan skapa fördomsfulla resultat för en grupp. Ett av de mest väldokumenterade fallen av detta är fördomar i fall av rasanvändning. Låt oss titta på ett exempel. 

Säg att en stor, välkänd konsumentplattform anställer för en ny position som marknadschef. För att hantera massan av meritförteckningar som tas emot dagligen, använder HR-avdelningen en AI/ML-modell för att effektivisera ansöknings- och rekryteringsprocessen genom att välja nyckelegenskaper eller kvalificerade sökande. 

För att utföra den här uppgiften, och urskilja och lägga till varje CV, kommer modellen att göra det genom att förstå viktiga dominerande egenskaper. Tyvärr detta också innebär att modellen implicit kan ta upp allmänna rasfördomar hos kandidaterna också. Hur exakt skulle detta hända? Om en sökandepool inkluderar en mindre andel av en ras, kommer maskinen att tro att organisationen föredrar medlemmar av en annan ras, eller av den dominerande datamängden.

Om en modell misslyckas, även om det är oavsiktligt, måste felet åtgärdas av företaget. I grund och botten måste den som distribuerar modellen kunna försvara användningen av modellen.

I anställnings- och rasfördomsfallet skulle försvararen behöva kunna förklara för en arg allmänhet och/eller applikationspool användningen av datauppsättningar för att träna modellen, de initiala framgångsrika resultaten av modellen baserad på den utbildningen, misslyckandet av modellen att plocka upp på ett hörnfall, och hur detta ledde till en oavsiktlig dataobalans som så småningom skapade en rasistiskt partisk filtreringsprocess.

För de flesta kommer den här typen av små detaljer i AI, obalansdatauppsättningar, modellträning och eventuella fel via dataövervakning inte att tas emot väl eller ens förstås. Men vad kommer att förstås och fastna i den här historien? Företaget XYZ utövar rasfördom vid anställning. 

Moralen i detta alltför vanliga exempel är att oavsiktliga misstag från en mycket smart modell händer och kan påverka människor negativt och få fruktansvärda konsekvenser. 

Vart dataförklaringen tar oss

Istället för att översätta resultat via en förståelse för en komplex maskininlärningsmodell, är dataförklarlighet att använda data för att förklara förutsägelser och misslyckanden.

Dataförklarbarhet är då en kombination av att se testdata och förstå vad en modell kommer att hämta från dessa data. Detta inkluderar förståelse av underrepresenterade dataprover, överrepresenterade prover (som i anställningsexemplet) och transparensen i en modells upptäckt för att korrekt förstå förutsägelser och felförutsägelser.

Denna förståelse av dataförklarbarhet kommer inte bara att förbättra modellens noggrannhet och rättvisa, utan det kommer också att vara det som hjälper modeller att accelerera snabbare.

När vi fortsätter att förlita oss på och införliva komplexa AI- och ML-program i våra dagliga liv, blir det avgörande att lösa problemet med den svarta lådan, särskilt för misslyckanden och felförutsägelser. 

Även om modellförklaring alltid kommer att ha sin plats, kräver den ett annat lager. Vi behöver dataförklarbarhet, eftersom att förstå vad en modell ser och läser aldrig kommer att täckas av klassisk modellförklarbarhet.

Tidsstämpel:

Mer från DATAVERSITET