Vikten av mångfald inom AI är inte åsikter, det är matematik - IBM Blog

Vikten av mångfald inom AI är inte åsikter, det är matematik – IBM Blog

Källnod: 3084301


Vikten av mångfald inom AI är inte åsikter, det är matematik – IBM Blog




Vi vill alla se våra idealiska mänskliga värden återspeglas i vår teknologi. Vi förväntar oss att teknik som artificiell intelligens (AI) inte ska ljuga för oss, inte diskriminera och vara säker för oss och våra barn att använda. Ändå står många AI-skapare för närvarande inför motreaktioner för de fördomar, felaktigheter och problematiska datapraxis som avslöjas i deras modeller. Dessa problem kräver mer än en teknisk, algoritmisk eller AI-baserad lösning. I verkligheten krävs ett holistiskt, sociotekniskt förhållningssätt.

Matematiken visar en kraftfull sanning

Alla prediktiva modeller, inklusive AI, är mer exakta när de innehåller olika mänsklig intelligens och erfarenhet. Detta är inte en åsikt; den har empirisk giltighet. Överväga mångfaldsprediktionsteorem. Enkelt uttryckt, när mångfalden i en grupp är stor, är skarans fel liten – vilket stöder konceptet ”mängdens visdom”. I en inflytelserik studie visades det att olika grupper av problemlösare med låg förmåga kan överträffa grupper av problemlösare med hög förmåga (Hong & Page, 2004).

På matematiskt språk: ju större varians du har, desto mer standard är ditt medelvärde. Ekvationen ser ut så här:

A ytterligare studier tillhandahållit fler beräkningar som förfinar de statistiska definitionerna av en klok skara, inklusive okunnighet om andra medlemmars förutsägelser och inkludering av de med maximalt olika (negativt korrelerade) förutsägelser eller bedömningar. Så det är inte bara volym, utan mångfald som förbättrar förutsägelser. Hur kan denna insikt påverka utvärderingen av AI-modeller?

Modellens (o)noggrannhet

För att citera en vanlig aforism, alla modeller har fel. Detta gäller inom områdena statistik, vetenskap och AI. Modeller skapade med brist på domänexpertis kan leda till felaktig utgångar.

Idag bestämmer en liten homogen grupp människor vilken data som ska användas för att träna generativa AI-modeller, som hämtas från källor som kraftigt överrepresenterar engelska. "För de flesta av de över 6,000 XNUMX språken i världen räcker inte tillgänglig textdata för att träna en storskalig grundmodell" (från "Om möjligheter och risker med grundmodeller”, Bommasani et al., 2022).

Dessutom är själva modellerna skapade från begränsade arkitekturer: "Nästan alla toppmoderna NLP-modeller är nu anpassade från en av ett fåtal grundmodeller, såsom BERT, RoBERTa, BART, T5, etc. Även om denna homogenisering producerar extremt hög hävstångseffekt (alla förbättringar i grundmodellerna kan leda till omedelbara fördelar för hela NLP), det är också en skuld; alla AI-system kan ärva samma problematiska fördomar som ett fåtal grundmodeller (Bommasani et al.) "

För att generativ AI bättre ska återspegla de olika samhällen den betjänar, måste en mycket bredare variation av människors data representeras i modeller.

Att utvärdera modellens noggrannhet går hand i hand med att utvärdera bias. Vi måste fråga oss, vad är syftet med modellen och för vem är den optimerad? Tänk till exempel vem som drar mest nytta av innehållsrekommendationsalgoritmer och sökmotoralgoritmer. Intressenter kan ha vitt skilda intressen och mål. Algoritmer och modeller kräver mål eller proxyservrar för Bayes-fel: det minsta fel som en modell måste förbättra. Denna proxy är ofta en person, till exempel en ämnesexpert med domänexpertis.

En mycket mänsklig utmaning: Att bedöma risk före modellupphandling eller utveckling

Nya AI-föreskrifter och handlingsplaner understryker allt mer vikten av algoritmiska konsekvensbedömningsformulär. Målet med dessa formulär är att fånga kritisk information om AI-modeller så att ledningsteam kan bedöma och hantera sina risker innan de implementeras. Typiska frågor inkluderar:

  • Vad är din modells användningsfall?
  • Vilka är riskerna för olika effekter?
  • Hur bedömer du rättvisa?
  • Hur gör du för att göra din modell förklarlig?

Även om de är designade med goda avsikter är problemet att de flesta ägare av AI-modeller inte förstår hur de ska utvärdera riskerna för deras användningsfall. En vanlig refräng kan vara: "Hur kan min modell vara orättvis om den inte samlar in personligt identifierbar information (PII)?" Följaktligen fylls formulären sällan i med den omtänksamhet som krävs för att styrsystem ska kunna flagga riskfaktorer korrekt.

Därmed understryks lösningens sociotekniska karaktär. En modellägare – en individ – kan inte bara få en lista med kryssrutor för att utvärdera om deras användningsfall kommer att orsaka skada. Det som i stället krävs är att grupper av människor med vitt skilda erfarenheter från den levande världen samlas i samhällen som erbjuder psykologisk trygghet för att ha svåra samtal om olika effekter.

Välkomna bredare perspektiv för pålitlig AI

IBM® tror på att ta en "klient noll"-strategi och implementera de rekommendationer och system som det skulle göra för sina egna kunder genom konsulttjänster och produktledda lösningar. Detta tillvägagångssätt sträcker sig till etiska metoder, vilket är anledningen till att IBM skapade ett Trustworthy AI Center of Excellence (COE).

Som förklarats ovan är mångfald av erfarenheter och färdigheter avgörande för att korrekt utvärdera effekterna av AI. Men möjligheten att delta i ett Center of Excellence kan vara skrämmande i ett företag som är full av AI-innovatörer, experter och framstående ingenjörer, så det behövs en gemenskap av psykologisk säkerhet. IBM kommunicerar detta tydligt genom att säga: "Intresserad av AI? Intresserad av AI-etik? Du har en plats vid det här bordet."

COE erbjuder utbildning i AI-etik till utövare på alla nivåer. Både synkront lärande (lärare och elever i klassmiljöer) och asynkrona (självledda) program erbjuds.

Men det är COE:s tillämpas utbildning som ger våra utövare de djupaste insikterna, eftersom de arbetar med globala, mångsidiga, multidisciplinära team på verkliga projekt för att bättre förstå olika effekter. De utnyttjar också ramverk för designtänkande som IBM:s Design för AI group använder internt och med kunder för att bedöma de oavsiktliga effekterna av AI-modeller, och hålla dem som ofta är marginaliserade i fokus. (Se Sylvia Duckworths Hjulet av makt och privilegier för exempel på hur personliga egenskaper korsas för att privilegiera eller marginalisera människor.) IBM donerade också många av ramverken till öppen källkodsgemenskapen Designa etiskt.

Nedan följer några av de rapporter som IBM har publicerat offentligt om dessa projekt:

Automatiserade verktyg för styrning av AI-modeller krävs för att få viktiga insikter om hur din AI-modell presterar. Men observera, att fånga risker långt innan din modell har utvecklats och är i produktion är optimalt. Genom att skapa gemenskaper av olika, tvärvetenskapliga utövare som erbjuder ett säkert utrymme för människor att ha tuffa samtal om olika effekter, kan du börja din resa mot att operationalisera dina principer och utveckla AI på ett ansvarsfullt sätt.

I praktiken, när du anställer AI-utövare, tänk på att långt över 70 % av arbetet med att skapa modeller är att kurera rätt data. Du vill anställa personer som vet hur man samlar in data som är representativ och som också samlas in med samtycke. Du vill också att personer som vet ska arbeta nära domänexperter för att se till att de har rätt tillvägagångssätt. Att se till att dessa utövare har den känslomässiga intelligensen att ta sig an utmaningen att ansvarsfullt kurera AI med ödmjukhet och urskillning är nyckeln. Vi måste vara avsiktliga med att lära oss hur vi känner igen hur och när AI-system kan förvärra ojämlikhet lika mycket som de kan öka mänsklig intelligens.

Uppfinn på nytt hur ditt företag arbetar med AI

var den här artikeln hjälpsam?

JaNej


Mer från artificiell intelligens




Balansera AI: Gör gott och undvik skada

5 min läs - När jag växte upp sa min far alltid, "gör gott." Som barn tyckte jag att det var skrämmande grammatik och jag skulle rätta honom och insistera på att det borde vara "gör bra". Till och med mina barn retar mig när de hör hans "gör bra" råd och jag ska erkänna att jag lät honom få ett pass på grammatikfronten. När det gäller ansvarig artificiell intelligens (AI) bör organisationer prioritera förmågan att undvika skada som ett centralt fokus. Vissa organisationer kan också sträva efter att använda...




Hur försäkringsbolag arbetar med IBM för att implementera generativa AI-baserade lösningar

7 min läs - IBM arbetar med våra försäkringskunder genom olika fronter, och data från IBM Institute for Business Value (IBV) identifierade tre nyckelimperativ som styr försäkringsbolagens beslut: Anta digital transformation för att göra det möjligt för försäkringsgivare att leverera nya produkter, för att öka intäktstillväxten och förbättra kundernas erfarenhet. Förbättra kärnproduktiviteten (affärer och IT) samtidigt som du sänker kostnaderna. Omfamna stegvis applikations- och datamodernisering med hjälp av säkert hybridmoln och AI. Försäkringsgivare måste uppfylla följande nyckelkrav för att underlätta omvandlingen av sina...




Lås upp kraften hos chatbots: Viktiga fördelar för företag och kunder

6 min läs - Chatbots kan hjälpa dina kunder och potentiella kunder att hitta eller mata in information snabbt genom att omedelbart svara på förfrågningar som använder ljudinmatning, textinmatning eller en kombination av båda, vilket eliminerar behovet av mänskligt ingripande eller manuell forskning. Chatbots finns överallt, ger kundsupport och hjälper anställda som använder smarta högtalare hemma, SMS, WhatsApp, Facebook Messenger, Slack och många andra applikationer. De senaste chatbotarna för artificiell intelligens (AI), även kända som intelligenta virtuella assistenter eller virtuella agenter, inte bara...




Följ med oss ​​i framkanten av AI för företag: Think 2024

<1 min läs - Du vill använda AI för att påskynda produktivitet och innovation för ditt företag. Du måste gå bortom experiment till skala. Du måste röra dig snabbt. Följ med oss ​​i Boston för Think 2024, en unik och engagerande upplevelse som guidar dig på din AI för affärsresa, oavsett var du är på vägen. Från att bygga AI-beredskap med en genomtänkt hybridmolnstrategi, till att skala AI över kärnverksamhetens funktioner och industribehov, till att bädda in AI i...

IBMs nyhetsbrev

Få våra nyhetsbrev och ämnesuppdateringar som ger det senaste tankeledarskapet och insikter om nya trender.

Prenumerera nu

Fler nyhetsbrev

Tidsstämpel:

Mer från IBM IoT