Kunstig intelligens er et ansvar

Kunstig intelligens er et ansvar

Kildeknude: 3029233

Kommentar Kunstig intelligens, hvilket betyder store grundlæggende modeller, der forudsiger tekst og kan kategorisere billeder og tale, ligner mere en forpligtelse end et aktiv.

Indtil videre har dollarskaden været mindre. I 2019 kørte en Tesla-chauffør, der kørte sit køretøj ved hjælp af bilproducentens autopilotsoftware, over for rødt lys og ramte et andet køretøj. Beboerne døde, og Tesla-bilisten var i sidste uge bestilt at betale 23,000 USD i erstatning.

Tesla omkring samme tid udgivet en tilbagekaldelse af to millioner køretøjer til at revidere sin autopilotsoftware som svar på en US National Highway Traffic Safety Administrations (NHTSA) undersøgelse, der fandt, at autopilotens sikkerhedskontrol manglede.

Treogtyve tusinde dollars er ikke meget for to liv, men de involverede familier forfølger civile krav mod chaufføren og mod Tesla, så omkostningerne kan stige. Og det siges der i hvert fald at være et dusin retssager involverer autopilot i USA.

I mellemtiden, i sundhedssektoren, UnitedHealthcare bliver sagsøgt fordi nH Predict AI-modellen, den erhvervede gennem sit 2020-køb af Navihealth, angiveligt har nægtet nødvendig postakut pleje til forsikrede seniorer.

Begrænsninger påkrævet

Virksomheder, der sælger AI-modeller og -tjenester, forstår tydeligt, at der er et problem. De henviser til "rækværk", der er sat på plads omkring grundmodeller for at hjælpe dem med at blive i deres vognbane - også selvom disse arbejde ikke meget godt. Forholdsregler af denne art ville unødvendige, hvis disse modeller ikke indeholdt materiale til seksuelt misbrug af børn og en række andre giftigt indhold.

Det er, som om AI-udviklere læser forfatteren Alex Blechmans viralt indlæg om teknologivirksomheder, der fortolker den advarende fortælling "Don't Create the Torment Nexus" som en produktkøreplan og sagde: "Det ser godt ud for mig."

Selvfølgelig er der ældre litterære referencer, der passer til AI, såsom Mary Shelleys Frankenstein eller Pandora's Box - en særlig god pasform, da AI-modeller ofte omtales som sorte bokse på grund af manglen på gennemsigtighed omkring træningsmateriale.

Hidtil har uudgrundeligheden af ​​kommercielle modeller oversået med skadeligt indhold ikke taget for meget af virksomhederne. Der er en nylig krav af Chris Bakke, grundlægger og administrerende direktør hos Laskie (erhvervet i år af et firma, der kalder sig X), at en GM-chatbot, der blev brugt af en Watsonville, Californien, bilforhandler blev talt til at acceptere at sælge en 2024 Chevy Tahoe for $ 1 med lidt hurtig ingeniørarbejde. Men forhandleren vil sandsynligvis ikke følge denne forpligtelse.

Alligevel er risikoen ved at stole på AI-modeller nok til det Google, microsoftog Antropisk har tilbudt at holde kunder skadesløs for ophavsretlige krav (som er talrige og stort set uafklarede). Det er ikke noget, du gør, medmindre der er en chance for ansvar.

Regulering

Myndighederne forsøger stadig at finde ud af, hvordan AI-ansvar skal vurderes. Overvej, hvordan Europa-Kommissionen formulerede spørgsmålet, mens det arbejder hen imod at formulere en brugbar juridisk ramme for kunstig intelligens:

"Gældende ansvarsregler, især nationale regler baseret på fejl, er ikke tilpasset til at håndtere erstatningskrav for skade forårsaget af AI-aktiverede produkter/tjenester," Kommissionen sagde [PDF] sidste år. "I henhold til sådanne regler skal ofre bevise en uretmæssig handling/undladelse af en person, der har forårsaget skaden. De specifikke karakteristika ved AI, herunder autonomi og uigennemsigtighed (den såkaldte 'black box'-effekt), gør det vanskeligt eller uoverkommeligt dyrt at identificere den ansvarlige person og bevise kravene til et vellykket erstatningskrav."

Og det har amerikanske lovgivere foreslog en bipartisan AI-ramme for at "sikre, at AI-virksomheder kan holdes ansvarlige gennem håndhævelse af tilsynsorganer og private handlingsrettigheder, når deres modeller og systemer krænker privatlivets fred, krænker borgerrettigheder eller på anden måde forårsager erkendelig skade."

Bliv ikke alt for begejstret for at se AI-firmaets ledere bag tremmer: Inddragelsen af ​​AI-industriledere i denne proces tyder på, at alle regler, der dukker op, vil være omtrent lige så effektive som andre reguleringsrammer, der er blevet krænket af lobbyister.

Men spænding er en del af problemet: Der er bare så meget hype om stokastiske papegøjer, som AI-modeller er blevet kaldt.

AI-modeller har reel værdi i nogle sammenhænge, ​​som bemærket af sikkerhedsfirmaet Socket, som har brugt ChatGPT til at hjælpe flag software sårbarheder. De har gjort underværker for talegenkendelse, oversættelse og billedgenkendelse, til skade for transskribentere og CAPTCHA-puslespil. De har mindet brancheveteraner om, hvor sjovt det var at lege med Eliza, en tidlig chatbot. De ser ud som om de har reel nytte i beslutningsstøttejob, forudsat at der er et menneske i løkken. Og de har taget komplekse kommandolinjebesværgelser med deres forskellige flag og parametre og forvandlet dem til lige så komplekse tekstprompter, der kan fortsætte i afsnit.

Men den automatisering, der er aktiveret af AI, har en pris. I en nylig artikel for sci-fi-fagmagasinet Locus argumenterede forfatteren og aktivisten Cory Doctorow: "AI-virksomheder satser implicit på, at deres kunder vil købe AI til automatisering, brandarbejdere og forårsage fysisk, mental og økonomisk skade på deres egne kunder som følge heraf. , på en eller anden måde undslipper ansvar for disse skader."

Doctorow er skeptisk over, at der er et meningsfuldt marked for AI-tjenester i virksomheder af høj værdi på grund af risici og mener, at vi er i en AI boble. Han peger på GM Cruise som et eksempel og bemærker, at det selvkørende bilfirmas forretningsmodel - i limbo på grund af en fodgængerskade og tilbagekaldelse – svarer til at erstatte hver lavtlønschauffør med 1.5 dyrere fjerntilsynsførende, uden at udelukke muligheden for ulykker og dermed forbundne retssager.

Overbelastning

Der er i det mindste et vist potentiale for lav værdi forretning forbundet med AI. Disse indebærer betaling hver måned for at få adgang til en API for unøjagtig chat, generering af algoritmiske billeder, der co-opterer kunstneres stilarter uden tilladelse, eller generere hundredvis af falske nyhedssider (eller bøger) på en måde, at "oversvømmer zonen” med misinformation.

Det virker usandsynligt, at Arena Groups krav at dens AI-platform kan reducere den tid, der kræves til at skabe artikler til publikationer som Sports Illustrated med 80-90 procent, vil forbedre læsertilfredsheden, varemærkeloyaliteten eller indholdskvaliteten. Men måske vil generering af flere artikler end menneskeligt muligt på tværs af firmaets hundredvis af titler føre til flere sidevisninger af bots og mere programmatisk annonceindtægt fra annoncekøbere, der er for naive til at fange.

En del af problemet er, at de primære AI-promotorer – Amazon, Google, Nvidia og Microsoft – driver cloud-platforme eller sælger GPU-hardware. De er pluk-og-skovl-leverandørerne af AI-guldfeberen, som bare vil sælge deres cloud-tjenester eller nummer-knasende kit. De var alle ombord på blockchain-ekspressen og cryptocurrency-overherredømmet, indtil denne vildfarelse forsvandt.

De er endnu mere begejstrede for at hjælpe virksomheder med at køre AI-arbejdsbelastninger, nyttige eller på anden måde. De er simpelthen cloud seeding i håb om at drive forretning til deres rent-a-processor operationer. På samme måde håber maskinlærende startups uden infrastruktur, at åndssvag snak om transformationsteknologi vil puste deres virksomhedsvurdering op for at belønne tidlige investorer.

AI-dille kan også delvist tilskrives teknologiindustriens evige indsats for at svare "Hvad kommer dernæst?" i en tid med langvarig stase. Apple, Google, Amazon, Meta, microsoftog Nvidia har alle gjort deres bedste for at forhindre meningsfuld konkurrence, og siden starten af ​​cloud- og mobil-æraen i midten af ​​2000'erne, har de gjort det ret godt. Ikke at konkurrencebegrænsende adfærd er noget nyt – husk på 2010-branchen afregning med det amerikanske justitsministerium om aftalerne mellem Adobe, Google, Intel, Intuit og Pixar for at undgå at snyde talent fra hinanden.

Microsoft gjorde meget ud af sin AI-integration med Bing, længe overskygget af Google Search, og hævdede, at det er "genopfinde søgning." Men ikke meget har ændret sig siden da – Bing efter sigende har undladt at tage nogen markedsandele fra Google på et tidspunkt, hvor der er en udbredt følelse af, at Google Search – også nu spækket med AI – er blevet værre.

Kom med 2024

For at finde ud af, hvad der kommer næste gang, bliver vi nødt til at vente på, at justitsministeriet og regulatorer andre steder i verden tvinger ændringer igennem antitrust håndhævelse og retssager. For mens Google har en lås på søgedistribution – gennem aftaler med Apple og andre – og digital annoncering – gennem sin aftale med Meta (godkendt i USA, stadig under efterforskning i Europa og Storbritannien) og andre aktiviteter, der pirret Justitsministeriets interesse – hverken søgevirksomheden eller reklamevirksomheden ser ud til at være modtagelig for nye udfordrere, uanset hvor meget AI-sauce der bliver tilføjet.

AI er et ansvar ikke kun i økonomisk forstand, men også i etisk forstand. Det lover lønbesparelser – trods være ekstremt dyrt mht træning, udvikling , miljømæssig påvirkning – samtidig med at man opmuntrer til ligegyldighed over for menneskeligt arbejde, intellektuel ejendomsret, skadeligt output og informationsnøjagtighed. AI inviterer virksomheder til at fjerne folk fra ligningen, når de ofte tilføjer værdi, som ikke er indlysende fra en balance.

Der er plads til, at AI virkelig kan være nyttig, men den skal implementeres for at hjælpe folk i stedet for at slippe af med dem. ®

Tidsstempel:

Mere fra Registret