Het belang van diversiteit in AI is geen mening, het is wiskunde - IBM Blog

Het belang van diversiteit in AI is geen mening, het is wiskunde – IBM Blog

Bronknooppunt: 3084301


Het belang van diversiteit in AI is geen mening, het is wiskunde – IBM Blog




We willen allemaal onze ideale menselijke waarden weerspiegeld zien in onze technologieën. We verwachten dat technologieën zoals kunstmatige intelligentie (AI) niet tegen ons liegen, niet discrimineren en veilig zijn voor ons en onze kinderen om te gebruiken. Toch worden veel AI-makers momenteel geconfronteerd met terugslag vanwege de vooroordelen, onnauwkeurigheden en problematische datapraktijken die in hun modellen aan het licht komen. Deze problemen vereisen meer dan een technische, algoritmische of op AI gebaseerde oplossing. In werkelijkheid is een holistische, sociaal-technische benadering vereist.

De wiskunde toont een krachtige waarheid aan

Alle voorspellende modellen, inclusief AI, zijn nauwkeuriger als ze diverse menselijke intelligentie en ervaring integreren. Dit is geen mening; het heeft empirische validiteit. Houd rekening met de diversiteitsvoorspellingsstelling. Simpel gezegd: wanneer de diversiteit in een groep groot is, is de fout van de menigte klein – wat het concept van ‘de wijsheid van de menigte’ ondersteunt. In een invloedrijk onderzoek werd aangetoond dat diverse groepen probleemoplossers met een laag vermogen beter kunnen presteren dan groepen probleemoplossers met een hoog vermogen (Hong & Pagina, 2004).

In wiskundige taal: hoe groter uw variantie, hoe standaarder uw gemiddelde. De vergelijking ziet er als volgt uit:

A verdere studie leverden meer berekeningen op die de statistische definities van een wijze menigte verfijnen, inclusief onwetendheid over de voorspellingen van andere leden en het opnemen van mensen met maximaal verschillend (negatief gecorreleerde) voorspellingen of oordelen. Het is dus niet alleen het volume, maar ook de diversiteit die de voorspellingen verbetert. Hoe kan dit inzicht de evaluatie van AI-modellen beïnvloeden?

Model(on)nauwkeurigheid

Om een ​​algemeen aforisme te citeren: alle modellen zijn fout. Dit geldt op het gebied van statistiek, wetenschap en AI. Modellen die zijn gemaakt met een gebrek aan domeinexpertise kunnen leiden tot fout uitgangen.

Tegenwoordig bepaalt een kleine homogene groep mensen welke gegevens moeten worden gebruikt om generatieve AI-modellen te trainen, die zijn ontleend aan bronnen die het Engels sterk oververtegenwoordigd zijn. “Voor de meeste van de ruim 6,000 talen in de wereld zijn de beschikbare tekstgegevens niet voldoende om een ​​grootschalig basismodel te trainen” (uit “Over de kansen en risico's van funderingsmodellen”, Bommasani et al., 2022).

Bovendien zijn de modellen zelf gemaakt op basis van beperkte architecturen: “Bijna alle state-of-the-art NLP-modellen zijn nu aangepast van een van de weinige basismodellen, zoals BERT, RoBERTa, BART, T5, enz. Terwijl deze homogenisering produceert extreem hoge hefboomwerking (elke verbetering in de basismodellen kan leiden tot onmiddellijke voordelen voor heel NLP), het is ook een risico; alle AI-systemen zouden dezelfde problematische vooroordelen van een paar basismodellen kunnen erven (Bommasani et al.) "

Wil generatieve AI de diverse gemeenschappen die zij bedient beter weerspiegelen, dan moet een veel grotere verscheidenheid aan menselijke gegevens in modellen worden weergegeven.

Het evalueren van de nauwkeurigheid van modellen gaat hand in hand met het evalueren van bias. We moeten ons afvragen: wat is de bedoeling van het model en voor wie is het geoptimaliseerd? Denk bijvoorbeeld eens aan wie het meest profiteert van algoritmen voor inhoudsaanbeveling en algoritmen van zoekmachines. Stakeholders kunnen zeer uiteenlopende belangen en doelstellingen hebben. Algoritmen en modellen vereisen doelen of proxy's voor de Bayes-fout: de minimale fout die een model moet verbeteren. Deze proxy is vaak een persoon, zoals een materiedeskundige met domeinexpertise.

Een zeer menselijke uitdaging: het beoordelen van risico's vóór de aanschaf of ontwikkeling van modellen

Opkomende AI-regelgeving en actieplannen onderstrepen steeds meer het belang van algoritmische impactbeoordelingsformulieren. Het doel van deze formulieren is om cruciale informatie over AI-modellen vast te leggen, zodat governanceteams hun risico’s kunnen beoordelen en aanpakken voordat ze worden ingezet. Typische vragen zijn onder meer:

  • Wat is de use-case van uw model?
  • Wat zijn de risico's voor ongelijksoortige impact?
  • Hoe beoordeelt u de eerlijkheid?
  • Hoe maak je je model verklaarbaar?

Hoewel ontworpen met goede bedoelingen, is het probleem dat de meeste eigenaren van AI-modellen niet begrijpen hoe ze de risico's voor hun gebruiksscenario moeten evalueren. Een veelgehoord refrein zou kunnen zijn: "Hoe kan mijn model oneerlijk zijn als het geen persoonlijk identificeerbare informatie (PII) verzamelt?" Bijgevolg worden de formulieren zelden met de bedachtzaamheid ingevuld die nodig is voor bestuurssystemen om risicofactoren nauwkeurig te signaleren.

Zo wordt het sociaal-technische karakter van de oplossing onderstreept. Een modeleigenaar – een individu – kan niet zomaar een lijst met selectievakjes krijgen om te beoordelen of zijn gebruiksscenario schade zal aanrichten. Wat in plaats daarvan nodig is, zijn groepen mensen met sterk uiteenlopende ervaringen in de leefwereld die samenkomen in gemeenschappen die psychologische veiligheid bieden, zodat ze moeilijke gesprekken kunnen voeren over uiteenlopende gevolgen.

Het verwelkomen van bredere perspectieven voor betrouwbare AI

IBM® gelooft in een 'client zero'-benadering, waarbij de aanbevelingen en systemen die het voor zijn eigen klanten zou doen, worden geïmplementeerd in advies- en productgestuurde oplossingen. Deze aanpak strekt zich uit tot ethische praktijken, en daarom heeft IBM een Trustworthy AI Center of Excellence (COE) opgericht.

Zoals hierboven uitgelegd, is diversiteit aan ervaringen en vaardigheden van cruciaal belang om de impact van AI goed te kunnen evalueren. Maar het vooruitzicht om deel te nemen aan een Centre of Excellence kan intimiderend zijn in een bedrijf dat barst van de AI-vernieuwers, experts en vooraanstaande ingenieurs, dus het cultiveren van een gemeenschap van psychologische veiligheid is nodig. IBM communiceert dit duidelijk door te zeggen: “Geïnteresseerd in AI? Geïnteresseerd in AI-ethiek? Jij neemt plaats aan deze tafel.”

De COE biedt training in AI-ethiek aan beoefenaars op elk niveau. Er worden zowel synchroon leren (leraar en leerlingen in klasverband) als asynchrone (zelfgestuurde) programma's aangeboden.

Maar het zijn de COE's toegepast training die onze praktijkmensen de diepste inzichten geeft, terwijl ze met mondiale, diverse, multidisciplinaire teams aan echte projecten werken om de uiteenlopende impact beter te begrijpen. Ze maken ook gebruik van de design thinking-frameworks van IBM Ontwerp voor AI Group gebruikt dit intern en samen met klanten om de onbedoelde effecten van AI-modellen te beoordelen, waarbij degenen die vaak worden gemarginaliseerd voorop blijven staan. (Zie Sylvia Duckworths Rad van Macht en Privilege voor voorbeelden van hoe persoonlijke kenmerken elkaar kruisen om mensen te bevoorrechten of te marginaliseren.) IBM schonk ook veel van de raamwerken aan de open-sourcegemeenschap Ontwerp ethisch.

Hieronder staan ​​enkele van de rapporten die IBM publiekelijk over deze projecten heeft gepubliceerd:

Geautomatiseerde AI-modelbeheertools zijn nodig om belangrijke inzichten te verkrijgen over hoe uw AI-model presteert. Maar let op: het vastleggen van risico's lang voordat uw model is ontwikkeld en in productie is, is optimaal. Door gemeenschappen van diverse, multidisciplinaire beoefenaars te creëren die mensen een veilige ruimte bieden om moeilijke gesprekken te voeren over uiteenlopende impacts, kunt u uw reis beginnen naar het operationeel maken van uw principes en het op verantwoorde wijze ontwikkelen van AI.

Als u AI-professionals inhuurt, moet u er in de praktijk rekening mee houden dat ruim 70% van de inspanning bij het maken van modellen bestaat uit het verzamelen van de juiste gegevens. Je wilt mensen inhuren die weten hoe ze gegevens moeten verzamelen die representatief zijn en die ook met toestemming worden verzameld. Je wilt ook dat mensen die het weten, nauw samenwerken met domeinexperts om er zeker van te zijn dat ze de juiste aanpak hebben. Ervoor zorgen dat deze beoefenaars over de emotionele intelligentie beschikken om de uitdaging van het verantwoord beheren van AI met nederigheid en onderscheidingsvermogen aan te gaan, is van cruciaal belang. We moeten doelbewust leren herkennen hoe en wanneer AI-systemen de ongelijkheid net zo goed kunnen verergeren als de menselijke intelligentie kunnen vergroten.

Vind opnieuw uit hoe uw bedrijf werkt met AI

Was dit artikel behulpzaam?

JaNee


Meer van Kunstmatige intelligentie




Balanceren van AI: doe het goede en vermijd kwaad

5 min gelezen - Toen ik opgroeide, zei mijn vader altijd: ‘doe het goede.’ Als kind vond ik het een belachelijke grammatica en ik corrigeerde hem en benadrukte dat het ‘goed doen’ moest zijn. Zelfs mijn kinderen plagen me als ze zijn 'doe goed'-advies horen, en ik moet toegeven dat ik hem op grammaticaal vlak een onvoldoende heb gegeven. In het geval van verantwoorde kunstmatige intelligentie (AI) moeten organisaties prioriteit geven aan het vermogen om schade te voorkomen als centraal aandachtspunt. Sommige organisaties kunnen er ook naar streven om…




Hoe verzekeringsmaatschappijen met IBM samenwerken om generatieve, op AI gebaseerde oplossingen te implementeren

7 min gelezen - IBM werkt op verschillende fronten samen met onze verzekeringsklanten, en gegevens van het IBM Institute for Business Value (IBV) identificeerden drie belangrijke vereisten die de managementbeslissingen van verzekeraars sturen: Pas digitale transformatie toe om verzekeraars in staat te stellen nieuwe producten te leveren, de omzetgroei te stimuleren en de klanttevredenheid te verbeteren. ervaring. Verbeter de kernproductiviteit (business en IT) en verlaag tegelijkertijd de kosten. Omarm de incrementele modernisering van applicaties en data met behulp van een veilige hybride cloud en AI. Verzekeraars moeten aan de volgende belangrijke vereisten voldoen om de transformatie van hun…




De kracht van chatbots ontsluiten: belangrijkste voordelen voor bedrijven en klanten

6 min gelezen - Chatbots kunnen uw klanten en potentiële klanten helpen snel informatie te vinden of in te voeren door direct te reageren op verzoeken die gebruik maken van audio-invoer, tekstinvoer of een combinatie van beide, waardoor de noodzaak van menselijke tussenkomst of handmatig onderzoek wordt geëlimineerd. Chatbots zijn overal, bieden klantenserviceondersteuning en helpen medewerkers die thuis slimme luidsprekers, sms, WhatsApp, Facebook Messenger, Slack en tal van andere applicaties gebruiken. De nieuwste kunstmatige intelligentie (AI) chatbots, ook wel intelligente virtuele assistenten of virtuele agenten genoemd, niet alleen...




Sluit u aan bij ons in de voorhoede van AI voor het bedrijfsleven: Think 2024

<1 min gelezen - U wilt AI gebruiken om de productiviteit en innovatie voor uw bedrijf te versnellen. Je moet verder gaan dan experimenteren en opschalen. Je moet snel bewegen. Kom met ons mee naar Boston voor Think 2024, een unieke en boeiende ervaring die u zal begeleiden op uw AI for Business-traject, waar u zich ook bevindt. Van het opbouwen van AI-gereedheid met een doordachte hybride cloudbenadering, tot het schalen van AI binnen de kernfuncties van het bedrijf en de behoeften van de sector, tot het inbedden van AI in…

IBM-nieuwsbrieven

Ontvang onze nieuwsbrieven en onderwerpupdates die de nieuwste thought leadership en inzichten over opkomende trends bieden.

Abonneer nu

Meer nieuwsbrieven

Tijdstempel:

Meer van IBM IoT