Kunstig intelligens er et ansvar

Kunstig intelligens er et ansvar

Kilde node: 3029233

Kommentar Kunstig intelligens, som betyr store grunnleggende modeller som forutsier tekst og kan kategorisere bilder og tale, ser mer ut som en forpliktelse enn en eiendel.

Så langt har dollarskaden vært liten. I 2019 kjørte en Tesla-sjåfør som kjørte kjøretøyet sitt ved hjelp av bilprodusentens autopilotprogramvare på rødt lys og traff et annet kjøretøy. Beboerne døde og Tesla-bilisten forrige uke ble bestilt å betale 23,000 XNUMX dollar i oppreisning.

Tesla rundt samme tid utstedt en tilbakekalling av to millioner kjøretøy for å revidere autopilotprogramvaren som svar på en US National Highway Traffic Safety Administration (NHTSA) undersøkelse som fant at autopilotens sikkerhetskontroller mangler.

Tjuetre tusen dollar er ikke mye for to liv, men de involverte familiene forfølger sivile krav mot sjåføren og mot Tesla, så kostnadene kan stige. Og det sies å være i det minste et dusin rettssaker som involverer autopilot i USA.

I mellomtiden, i helsesektoren, UnitedHealthcare blir saksøkt fordi nH Predict AI-modellen den skaffet seg gjennom 2020-kjøpet av Navihealth, angivelig har nektet nødvendig post-akutt omsorg til forsikrede seniorer.

Begrensninger påkrevd

Selskaper som selger AI-modeller og -tjenester forstår tydelig at det er et problem. De refererer til "rekkverk" som er satt på plass rundt grunnleggende modeller for å hjelpe dem med å holde seg i kjørefeltet - selv om disse fungerer ikke veldig bra. Forholdsregler av denne typen ville unødvendig hvis disse modellene ikke inneholdt materiale om seksuelle overgrep mot barn og en rekke annet giftig innhold.

Det er som om AI-utviklere leser forfatteren Alex Blechmans viralt innlegg om teknologiselskaper som tolker den advarende historien "Don't Create the Torment Nexus" som et produktveikart og sa: "Ser bra ut for meg."

Selvfølgelig er det eldre litterære referanser som passer AI, for eksempel Mary Shelleys Frankenstein eller Pandora's Box - en spesielt god passform gitt at AI-modeller ofte refereres til som svarte bokser på grunn av mangelen på åpenhet om opplæringsmateriell.

Så langt har ikke uutredeligheten til kommersielle modeller strødd med skadelig innhold tatt for mye av en toll på bedrifter. Det er en nylig hevder av Chris Bakke, grunnlegger og administrerende direktør i Laskie (kjøpt i år av et selskap som kaller seg X), at en GM chatbot brukt av en Watsonville, California, bilforhandler ble snakket til å gå med på å selge en 2024 Chevy Tahoe for 1 $ med litt rask ingeniørarbeid. Men forhandleren vil sannsynligvis ikke følge denne forpliktelsen.

Likevel er risikoen for å stole på AI-modeller nok til det Google, Microsoftog Antropisk har tilbudt å holde kunder skadesløs fra opphavsrettskrav (som er mange og stort sett uløste). Det er ikke noe du gjør med mindre det er en sjanse for ansvar.

Regulering

Myndighetene prøver fortsatt å finne ut hvordan AI-ansvar skal vurderes. Vurder hvordan EU-kommisjonen formulerte problemet mens den jobber mot å formulere et brukbart juridisk rammeverk for kunstig intelligens:

"Gjeldende ansvarsregler, spesielt nasjonale regler basert på skyld, er ikke tilpasset for å håndtere erstatningskrav for skade forårsaket av AI-aktiverte produkter/tjenester," kommisjonen sa [PDF] i fjor. «Under slike regler må ofre bevise en urettmessig handling/unnlatelse av en person som forårsaket skaden. De spesifikke egenskapene til AI, inkludert autonomi og opasitet (den såkalte "black box"-effekten), gjør det vanskelig eller uoverkommelig dyrt å identifisere den ansvarlige personen og bevise kravene for et vellykket erstatningskrav."

Og det har amerikanske lovgivere foreslått et bipartisan AI-rammeverk for å "sikre at AI-selskaper kan holdes ansvarlige gjennom håndheving av tilsynsorganer og private handlingsrettigheter når modellene og systemene deres bryter med personvernet, bryter borgerrettigheter eller på annen måte forårsaker merkbar skade."

Ikke bli for begeistret for å se ledere for AI-firmaer bak murene: Involveringen av AI-industriledere i denne prosessen antyder at eventuelle regler som dukker opp vil være omtrent like effektive som andre regulatoriske rammer som har blitt defangert av lobbyister.

Men spenning er en del av problemet: Det er bare så mye hype om stokastiske papegøyer, som AI-modeller har blitt kalt.

AI-modeller har reell verdi i noen sammenhenger, som bemerket av sikkerhetsfirmaet Socket, som har brukt ChatGPT til å hjelpeflagg programvaresårbarheter. De har gjort underverker for talegjenkjenning, oversettelse og bildegjenkjenning, til skade for transkribere og CAPTCHA-oppgaver. De har minnet bransjeveteraner om hvor gøy det var å leke med Eliza, en tidlig chatbot. De ser ut som de har reell nytte i beslutningsstøttejobber, forutsatt at det er et menneske i løkken. Og de har tatt komplekse kommandolinjebesvergelser, med sine assorterte flagg og parametere, og gjort dem om til like komplekse tekstmeldinger som kan fortsette for avsnitt.

Men automatiseringen aktivert av AI har en kostnad. I en nylig Artikkel for fagmagasinet Locus, hevdet forfatteren og aktivisten Cory Doctorow: "AI-selskaper satser implisitt på at kundene deres vil kjøpe AI for høykonsekvensautomatisering, brannarbeidere og forårsake fysisk, mental og økonomisk skade på sine egne kunder som et resultat , på en eller annen måte unnslippe ansvar for disse skadene.»

Doctorow er skeptisk til at det er et meningsfylt marked for AI-tjenester i bedrifter med høy verdi, på grunn av risikoen og mener vi er i en AI-boble. Han peker på GM Cruise som et eksempel, og bemerker at det selvkjørende bilselskapets forretningsmodell – i limbo på grunn av en fotgjengerskade og tilbakekalling – tilsvarer å erstatte hver lavtlønnssjåfør med 1.5 mer kostbare eksterne veiledere, uten å utelukke muligheten for ulykker og tilhørende søksmål.

Overlast

Det er i det minste et potensiale for lavverdivirksomhet knyttet til AI. Disse innebærer å betale månedlig for å få tilgang til et API for unøyaktig chat, generering av algoritmiske bilder som co-opterer artisters stiler uten tillatelse, eller generere hundrevis av falske nyhetssider (eller bøker) på en måte som "oversvømmer sonen" med feilinformasjon.

Det virker usannsynlig at Arena Group's hevder at AI-plattformen kan redusere tiden som kreves for å lage artikler for publikasjoner som Sports Illustrated med 80-90 prosent, vil forbedre lesertilfredsheten, merkelojalitet eller innholdskvalitet. Men kanskje vil generere flere artikler enn menneskelig mulig på tvers av firmaets hundrevis av titler føre til flere sidevisninger av roboter og mer programmatiske annonseinntekter fra annonsekjøpere som er for naive til å fange.

En del av problemet er at de primære AI-promotørene – Amazon, Google, Nvidia og Microsoft – driver skyplattformer eller selger GPU-maskinvare. De er plukke-og-skuff-leverandørene av AI-gullrushet, som bare ønsker å selge sine skytjenester eller tall-knusingssett. De var alle ombord for blockchain-ekspressen og kryptovaluta-overherredømmet inntil den vrangforestillingen stilnet.

De er enda mer entusiastiske når det gjelder å hjelpe bedrifter med å kjøre AI-arbeidsmengder, nyttig eller på annen måte. De er ganske enkelt cloud seeding, og håper å få virksomheten til å leie en prosessor. På samme måte håper maskinlæringsstartups uten infrastruktur at pustende snakk om transformasjonsteknologi vil øke selskapets verdivurdering for å belønne tidlige investorer.

AI-mani kan også delvis tilskrives teknologiindustriens evige innsats for å svare "Hva kommer neste?" i en tid med langvarig stase. eple, Google, Amazon, Meta, Microsoftog Nvidia har alle gjort sitt beste for å forhindre meningsfull konkurranse, og siden starten av sky- og mobiltiden på midten av 2000-tallet har de gjort det ganske bra. Ikke at konkurranseskadelig oppførsel er noe nytt – husk 2010-bransjen bosetting med det amerikanske justisdepartementet over avtalene mellom Adobe, Google, Intel, Intuit og Pixar for å unngå å stjele talent fra hverandre.

Microsoft gjorde mye av sin AI-integrasjon med Bing, lenge overskygget av Google Søk, og hevdet at det er "gjenoppfinne søk." Men ikke mye har endret seg siden den gang – Bing velig har ikke klart å ta noen markedsandeler fra Google, i en tid da det er utbredt følelse om at Google Søk – også nå spekket med AI – har blitt verre.

Kom på 2024

For å finne ut hva som kommer videre, må vi vente på at justisdepartementet og regulatorer andre steder i verden tvinger endringer gjennom antitrust tvangsfullbyrdelse og søksmål. For mens Google har en lås på søkedistribusjon – gjennom avtaler med Apple og andre – og digital annonsering – gjennom avtalen med Meta (klarert i USA, fortsatt under etterforskning i Europa og Storbritannia) og andre aktiviteter som pirret interessen til justisdepartementet – verken søkevirksomheten eller annonsevirksomheten ser mottagelig ut for nye utfordrere, uansett hvor mye AI-saus som tilsettes.

AI er et ansvar ikke bare i økonomisk forstand, men også i etisk forstand. Det lover lønnsbesparelser – til tross være ekstremt dyrt mht Trening og utvikling og miljøpåvirkning – samtidig som man oppmuntrer likegyldighet til menneskelig arbeid, intellektuell eiendom, skadelig produksjon og informasjonsnøyaktighet. AI inviterer selskaper til å fjerne folk fra ligningen når de ofte tilfører verdier som ikke er åpenbare fra en balanse.

Det er rom for AI til å være genuint nyttig, men den må distribueres for å hjelpe folk i stedet for å bli kvitt dem. ®

Tidstempel:

Mer fra Registeret