Betydningen av mangfold i AI er ikke mening, det er matematikk - IBM Blog

Betydningen av mangfold i AI er ikke mening, det er matematikk – IBM Blog

Kilde node: 3084301


Betydningen av mangfold i AI er ikke mening, det er matematikk – IBM Blog




Vi ønsker alle å se våre ideelle menneskelige verdier reflektert i teknologiene våre. Vi forventer at teknologier som kunstig intelligens (AI) ikke lyver for oss, ikke diskriminerer og er trygge for oss og barna våre å bruke. Likevel møter mange AI-skapere for tiden tilbakeslag for skjevhetene, unøyaktighetene og problematiske datapraksisene som blir avslørt i modellene deres. Disse problemene krever mer enn en teknisk, algoritmisk eller AI-basert løsning. I realiteten kreves en helhetlig, sosioteknisk tilnærming.

Matematikken viser en mektig sannhet

Alle prediktive modeller, inkludert AI, er mer nøyaktige når de inkluderer mangfoldig menneskelig intelligens og erfaring. Dette er ikke en mening; den har empirisk gyldighet. Vurder mangfoldsprediksjonsteorem. Enkelt sagt, når mangfoldet i en gruppe er stort, er feilen til mengden liten – noe som støtter begrepet «mengdens visdom». I en innflytelsesrik studie ble det vist at forskjellige grupper av problemløsere med lav evne kan utkonkurrere grupper av problemløsere med høy evne (Hong & Page, 2004).

På matematisk språk: jo større variasjon, jo mer standard er gjennomsnittet. Ligningen ser slik ut:

A videre studier ga flere beregninger som avgrenser de statistiske definisjonene av en klok skare, inkludert uvitenhet om andre medlemmers spådommer og inkludering av de med maksimalt annerledes (negativt korrelerte) spådommer eller vurderinger. Så det er ikke bare volum, men mangfold som forbedrer spådommene. Hvordan kan denne innsikten påvirke evalueringen av AI-modeller?

Modell (u)nøyaktighet

For å sitere en vanlig aforisme, er alle modeller feil. Dette gjelder innenfor områdene statistikk, vitenskap og AI. Modeller laget med mangel på domenekompetanse kan føre til feilaktig utganger.

I dag bestemmer en liten homogen gruppe mennesker hvilke data som skal brukes til å trene generative AI-modeller, som er hentet fra kilder som i stor grad overrepresenterer engelsk. "For de fleste av de over 6,000 språkene i verden er ikke de tilgjengelige tekstdataene nok til å trene opp en storskala grunnmodell" (fra "Om mulighetene og risikoene ved grunnmodeller", Bommasani et al., 2022).

I tillegg er selve modellene laget av begrensede arkitekturer: «Nesten alle toppmoderne NLP-modeller er nå tilpasset fra en av noen få grunnmodeller, som BERT, RoBERTa, BART, T5, osv. Mens denne homogeniseringen produserer ekstremt høy innflytelse (enhver forbedring i grunnmodellene kan føre til umiddelbare fordeler på tvers av hele NLP), det er også et ansvar; alle AI-systemer kan arve de samme problematiske skjevhetene til noen få grunnmodeller (Bommasani et al.) "

For at generativ AI bedre skal reflektere de mangfoldige samfunnene den betjener, må et langt bredere utvalg av menneskelige data representeres i modeller.

Evaluering av modellnøyaktighet går hånd i hånd med evaluering av skjevhet. Vi må spørre, hva er intensjonen med modellen og for hvem er den optimalisert? Tenk for eksempel på hvem som drar mest nytte av innholdsanbefalingsalgoritmer og søkemotoralgoritmer. Interessenter kan ha vidt forskjellige interesser og mål. Algoritmer og modeller krever mål eller proxyer for Bayes-feil: minimumsfeilen som en modell må forbedre. Denne fullmektigen er ofte en person, for eksempel en saksekspert med domeneekspertise.

En svært menneskelig utfordring: Vurdere risiko før modellanskaffelse eller utvikling

Nye AI-forskrifter og handlingsplaner understreker i økende grad viktigheten av algoritmiske konsekvensvurderingsskjemaer. Målet med disse skjemaene er å fange opp kritisk informasjon om AI-modeller slik at styringsteam kan vurdere og adressere risikoene deres før de distribueres. Typiske spørsmål inkluderer:

  • Hva er modellens bruksområde?
  • Hva er risikoen for ulik påvirkning?
  • Hvordan vurderer du rettferdighet?
  • Hvordan gjør du modellen din forklarbar?

Selv om det er designet med gode intensjoner, er problemet at de fleste eiere av AI-modeller ikke forstår hvordan de skal vurdere risikoen for brukssaken deres. Et vanlig refreng kan være: "Hvordan kan modellen min være urettferdig hvis den ikke samler inn personlig identifiserbar informasjon (PII)?" Følgelig blir skjemaene sjelden utfylt med den omtanke som er nødvendig for at styringssystemer skal kunne flagge risikofaktorer nøyaktig.

Dermed blir løsningens sosiotekniske karakter understreket. En modelleier – en person – kan ikke bare få en liste over avmerkingsbokser for å vurdere om deres brukstilfelle vil forårsake skade. Det som i stedet kreves er at grupper av mennesker med vidt forskjellige livserfaringer kommer sammen i samfunn som tilbyr psykologisk trygghet for å ha vanskelige samtaler om ulik påvirkning.

Tar imot bredere perspektiver for pålitelig AI

IBM® tror på en "klientnull"-tilnærming, og implementerer anbefalingene og systemene den vil lage for sine egne kunder på tvers av konsulent- og produktledede løsninger. Denne tilnærmingen strekker seg til etisk praksis, og det er grunnen til at IBM opprettet et Trustworthy AI Center of Excellence (COE).

Som forklart ovenfor, er mangfold av erfaringer og ferdigheter avgjørende for å kunne evaluere virkningene av AI på riktig måte. Men utsiktene til å delta i et Center of Excellence kan være skremmende i et selskap full av AI-innovatører, eksperter og anerkjente ingeniører, så det er nødvendig å dyrke et fellesskap av psykologisk sikkerhet. IBM kommuniserer dette tydelig ved å si: «Interessert i AI? Interessert i AI-etikk? Du har en plass ved dette bordet.»

COE tilbyr opplæring i AI-etikk til utøvere på alle nivåer. Både synkron læring (lærer og elever i klassemiljøer) og asynkrone (selvstyrte) programmer tilbys.

Men det er COEs anvendt opplæring som gir våre utøvere den dypeste innsikten, ettersom de jobber med globale, mangfoldige, tverrfaglige team på virkelige prosjekter for å bedre forstå ulike effekter. De utnytter også rammeverk for designtenkning som IBMs Design for AI group bruker internt og med klienter for å vurdere de utilsiktede effektene av AI-modeller, og holde de som ofte er marginaliserte øverst i tankene. (Se Sylvia Duckworths Wheel of Power and Privilege for eksempler på hvordan personlige egenskaper krysser hverandre for å privilegere eller marginalisere mennesker.) IBM donerte også mange av rammene til åpen kildekode-fellesskapet Design etisk.

Nedenfor er noen av rapportene IBM har publisert offentlig om disse prosjektene:

Automatiserte verktøy for styring av AI-modeller er nødvendige for å få viktig innsikt om hvordan AI-modellen din presterer. Men merk at det er optimalt å fange risiko i god tid før modellen er utviklet og er i produksjon. Ved å skape fellesskap av varierte, tverrfaglige utøvere som tilbyr et trygt sted for folk å ha tøffe samtaler om ulik påvirkning, kan du begynne reisen din til å operasjonalisere prinsippene dine og utvikle AI på en ansvarlig måte.

I praksis, når du ansetter for AI-utøvere, må du tenke på at godt over 70 % av innsatsen med å lage modeller er å kurere de riktige dataene. Du ønsker å ansette folk som vet hvordan de skal samle inn data som er representativ og som også samles inn med samtykke. Du vil også at folk som vet skal jobbe tett med domeneeksperter for å sikre at de har riktig tilnærming. Å sikre at disse utøverne har den emosjonelle intelligensen til å nærme seg utfordringen med å ansvarlig kuratere AI med ydmykhet og dømmekraft er nøkkelen. Vi må være bevisste på å lære å gjenkjenne hvordan og når AI-systemer kan forverre ulikhet like mye som de kan øke menneskelig intelligens.

Gjenoppfinn hvordan virksomheten din fungerer med AI

Var denne artikkelen til hjelp?

JaNei


Mer fra kunstig intelligens




Balansering av AI: Gjør godt og unngå skade

5 min lest - Da jeg vokste opp, sa faren min alltid: «gjør godt». Som barn syntes jeg det var grusom grammatikk, og jeg ville korrigere ham og insistere på at det skulle være "gjør det bra." Til og med barna mine erter meg når de hører hans "gjør gode" råd, og jeg skal innrømme at jeg lot ham få en pass på grammatikkfronten. Ved ansvarlig kunstig intelligens (AI) bør organisasjoner prioritere evnen til å unngå skade som et sentralt fokus. Noen organisasjoner kan også ha som mål å bruke...




Hvordan forsikringsselskaper samarbeider med IBM for å implementere generative AI-baserte løsninger

7 min lest - IBM jobber med våre forsikringskunder gjennom ulike fronter, og data fra IBM Institute for Business Value (IBV) identifiserte tre viktige imperativer som styrer forsikringsselskapets ledelsesbeslutninger: Vedta digital transformasjon for å gjøre det mulig for forsikringsselskapene å levere nye produkter, for å drive inntektsvekst og forbedre kundene. erfaring. Forbedre kjerneproduktiviteten (virksomhet og IT) samtidig som kostnadene reduseres. Omfavn inkrementell applikasjons- og datamodernisering ved å bruke sikker hybridsky og AI. Forsikringsselskaper må oppfylle følgende nøkkelkrav for å lette transformasjonen av deres...




Lås opp kraften til chatbots: Viktige fordeler for bedrifter og kunder

6 min lest - Chatbots kan hjelpe dine kunder og potensielle kunder med å finne eller legge inn informasjon raskt ved å umiddelbart svare på forespørsler som bruker lydinndata, tekstinndata eller en kombinasjon av begge, og eliminerer behovet for menneskelig intervensjon eller manuell forskning. Chatbots er overalt, og gir kundestøtte og hjelper ansatte som bruker smarthøyttalere hjemme, SMS, WhatsApp, Facebook Messenger, Slack og en rekke andre applikasjoner. De nyeste kunstig intelligens (AI) chatbots, også kjent som intelligente virtuelle assistenter eller virtuelle agenter, ikke bare...




Bli med oss ​​i forkant av AI for business: Think 2024

<1 min lest - Du vil bruke AI for å akselerere produktivitet og innovasjon for virksomheten din. Du må gå utover eksperimentering til skala. Du må bevege deg raskt. Bli med oss ​​i Boston for Think 2024, en unik og engasjerende opplevelse som vil veilede deg på din AI for forretningsreise, uansett hvor du er på veien. Fra å bygge AI-beredskap med en gjennomtenkt hybrid skytilnærming, til å skalere AI på tvers av kjernevirksomhetsfunksjoner og industribehov, til å bygge inn AI i...

IBMs nyhetsbrev

Få våre nyhetsbrev og emneoppdateringer som gir den siste tankeledelsen og innsikt om nye trender.

Abonner nå

Flere nyhetsbrev

Tidstempel:

Mer fra IBM IoT