Artificiell intelligens är en skuld

Artificiell intelligens är en skuld

Källnod: 3029233

Kommentar Artificiell intelligens, det vill säga stora grundmodeller som förutsäger text och kan kategorisera bilder och tal, ser mer ut som en skuld än en tillgång.

Hittills har dollarskadan varit mindre. Under 2019 körde en Tesla-förare som körde sitt fordon med hjälp av biltillverkarens autopilotprogram mot rött ljus och körde på ett annat fordon. De åkande dog och Tesla-bilisten förra veckan var beordrade att betala 23,000 XNUMX USD i skadestånd.

Tesla ungefär samma tid utgiven ett återkallande av två miljoner fordon för att revidera sin autopilotprogramvara som svar på en undersökning av en amerikansk National Highway Traffic Safety Administration (NHTSA) som fann att autopilotens säkerhetskontroller saknades.

Tjugotre tusen dollar är inte mycket för två liv, men de inblandade familjerna driver civilrättsliga anspråk mot föraren och mot Tesla, så kostnaden kan stiga. Och det sägs det åtminstone finnas ett dussin stämningar involverar autopilot i USA.

Samtidigt, i sjukvårdsbranschen, UnitedHealthcare är stämd eftersom nH Predict AI-modellen som den förvärvade genom sitt köp 2020 av Navihealth påstås ha nekat nödvändig postakut vård till försäkrade seniorer.

Begränsningar krävs

Företag som säljer AI-modeller och tjänster förstår tydligt att det finns ett problem. De hänvisar till "skyddsräcken" som satts på plats runt grundmodeller för att hjälpa dem att hålla sig i deras körfält - även om dessa fungerar inte mycket bra. Försiktighetsåtgärder av detta slag skulle vara onödiga om dessa modeller inte innehöll material för sexuella övergrepp mot barn och en mängd annat giftigt innehåll.

Det är som om AI-utvecklare läser författaren Alex Blechmans viralt inlägg om teknikföretag som tolkar den varnande berättelsen "Don't Create the Torment Nexus" som en produktfärdplan och sa: "Ser bra ut för mig."

Naturligtvis finns det äldre litterära referenser som passar AI, som Mary Shelleys Frankenstein eller Pandora’s Box – en särskilt bra passform med tanke på att AI-modeller ofta kallas svarta lådor på grund av bristen på transparens kring utbildningsmaterial.

Hittills har outgrundligheten av kommersiella modeller fulla av skadligt innehåll inte tagit alltför stor vägtull på företag. Det finns en nyligen patentkrav av Chris Bakke, grundare och VD på Laskie (förvärvad i år av ett företag som kallar sig X), att en GM-chatbot som används av en bilåterförsäljare i Watsonville, Kalifornien, övertalades att gå med på att sälja en 2024 Chevy Tahoe för $ 1 med lite snabb ingenjörskonst. Men återförsäljaren kommer sannolikt inte att fullfölja det åtagandet.

Ändå är risken att förlita sig på AI-modeller tillräckligt för det Google, Microsoftoch Antropisk har erbjudit sig att hålla kunder skadeslösa från upphovsrättsanspråk (som är många och i stort sett olösta). Det är inget du gör om det inte finns en risk för ansvar.

reglering

Myndigheterna försöker fortfarande ta reda på hur AI-ansvar ska bedömas. Tänk på hur Europeiska kommissionen formulerade frågan när den arbetar för att formulera en fungerande rättslig ram för artificiell intelligens:

"Nuvarande ansvarsregler, i synnerhet nationella regler baserade på fel, är inte anpassade för att hantera skadeståndsanspråk för skada orsakad av AI-aktiverade produkter/tjänster," kommissionen sade [PDF] förra året. "Under sådana regler måste offren bevisa en felaktig handling/underlåtenhet av en person som orsakade skadan. De specifika egenskaperna hos AI, inklusive autonomi och opacitet (den så kallade "black box"-effekten), gör det svårt eller oöverkomligt dyrt att identifiera den ansvariga personen och bevisa kraven för ett framgångsrikt skadeståndsanspråk."

Och amerikanska lagstiftare har föreslagen ett bipartisan AI-ramverk för att "säkerställa att AI-företag kan hållas ansvariga genom upprätthållande av tillsynsorgan och privat handlingsrätt när deras modeller och system bryter mot integriteten, kränker medborgerliga rättigheter eller på annat sätt orsakar märkbara skador."

Bli inte alltför upphetsad över att se AI-företags chefer bakom lås och bom: Inblandningen av AI-industriledare i denna process tyder på att alla regler som dyker upp kommer att vara ungefär lika effektiva som andra regelverk som har utsatts för defangeringar av lobbyister.

Men spänningen är en del av problemet: Det finns bara så mycket hype om stokastiska papegojor, som AI-modeller har kallats.

AI-modeller har verkligt värde i vissa sammanhang, som noterats av säkerhetsföretaget Socket, som har använt ChatGPT för att hjälpflagga sårbarheter i programvara. De har gjort underverk för taligenkänning, översättning och bildigenkänning, till nackdel för transkriberare och CAPTCHA-pussel. De har påmint branschveteraner om hur roligt det var att leka med Eliza, en tidig chatbot. De ser ut som om de har verklig nytta i beslutsstödjande jobb, förutsatt att det finns en människa i kretsen. Och de har tagit komplexa kommandoradsbesvärjelser, med sina olika flaggor och parametrar, och förvandlat dem till lika komplexa textmeddelanden som kan fortsätta för stycken.

Men automatiseringen som möjliggörs av AI kommer till en kostnad. I en nyligen Artikeln för sci-fi branschtidningen Locus hävdade författaren och aktivisten Cory Doctorow: "AI-företag satsar implicit på att deras kunder kommer att köpa AI för mycket följdriktig automatisering, brandarbetare och orsaka fysisk, mental och ekonomisk skada på sina egna kunder som ett resultat av detta. , på något sätt undgå ansvar för dessa skador."

Doctorow är skeptisk till att det finns en meningsfull marknad för AI-tjänster i företag med högt värde, på grund av riskerna och anser att vi befinner oss i en AI-bubbla. Han pekar på GM Cruise som ett exempel och noterar att det självkörande bilföretagets affärsmodell - i limbo på grund av en fotgängarskada och återkallelse – innebär att varje låglöneförare ersätts med 1.5 mer kostsamma fjärrövervakare, utan att det utesluter möjligheten till olyckor och tillhörande stämningar.

Överbelastning

Det finns åtminstone en viss potential för affärer med lågt värde i samband med AI. Dessa innebär att man betalar månadsvis för att få tillgång till ett API för felaktig chatt, generering av algoritmiska bilder som samordnar artisters stilar utan tillstånd, eller genererar hundratals av falska nyhetssajter (eller böcker) på ett sätt som "översvämmar zonen” med desinformation.

Det verkar osannolikt att Arena Groups patentkrav att dess AI-plattform kan minska tiden som krävs för att skapa artiklar för publikationer som Sports Illustrated med 80-90 procent kommer att förbättra läsarnas tillfredsställelse, varumärkeslojalitet eller innehållskvalitet. Men att generera fler artiklar än vad som är mänskligt möjligt över företagets hundratals titlar kommer att leda till fler sidvisningar av botar och mer programmatiska annonsintäkter från annonsköpare som är för naiva för att fångas.

En del av problemet är att de primära AI-promotorerna – Amazon, Google, Nvidia och Microsoft – driver molnplattformar eller säljer GPU-hårdvara. De är leverantörerna av AI-guldrushen, som bara vill sälja sina molntjänster eller numreringssats. De var alla med på blockchain express- och kryptovalutans överhöghet tills den vanföreställningen försvann.

De är ännu mer entusiastiska över att hjälpa företag att köra AI-arbetsbelastningar, användbara eller på annat sätt. De är helt enkelt molnsådd, i hopp om att driva affärer till sin hyra-en-processor-verksamhet. På samma sätt hoppas maskinlärande startups utan infrastruktur att andligt tal om transformationsteknik kommer att blåsa upp deras företagsvärdering för att belöna tidiga investerare.

AI-vurm kan också delvis tillskrivas teknikindustrins ständiga ansträngningar att svara "Vad kommer härnäst?" under en tid av långvarig stas. Apple, Google, amason, meta, Microsoftoch Nvidia har alla gjort sitt bästa för att förhindra meningsfull konkurrens och sedan starten av moln- och mobileran i mitten av 2000-talet har de gjort det ganska bra. Inte för att konkurrensbegränsande beteende är något nytt – kom ihåg 2010 års industri lösning med det amerikanska justitiedepartementet över avtalen mellan Adobe, Google, Intel, Intuit och Pixar för att undvika att tjuvjaga talanger från varandra.

Microsoft gjorde mycket av sin AI-integration med Bing, länge i skuggan av Google Sök, och hävdade att det är "återuppfinna sökningen.” Men inte mycket har förändrats sedan dess – Bing enligt uppgift har misslyckats med att ta några marknadsandelar från Google, vid en tidpunkt då det finns en utbredd känsla av att Google Search – även nu fyllt med AI – har blivit värre.

Kom på 2024

För att ta reda på vad som kommer härnäst måste vi vänta på att justitiedepartementet och tillsynsmyndigheter på andra håll i världen tvingar fram förändringar antitrust verkställighet och stämningar. För medan Google har ett lås på sökdistribution – genom avtal med Apple och andra – och digital reklam – genom sitt avtal med Meta (godkänd i USA, fortfarande under utredning i Europa och Storbritannien) och andra aktiviteter som pirrad justitiedepartementets intresse – varken sökverksamheten eller annonsverksamheten ser mottaglig ut för nya utmanare, oavsett hur mycket AI-sås som tillsätts.

AI är en skuld inte bara i ekonomisk mening utan också i etisk mening. Det lovar lönebesparingar – trots vara extremt dyrt vad gäller Träning och Utveckling och miljöpåverkan – samtidigt som man uppmuntrar likgiltighet för mänskligt arbete, immateriella rättigheter, skadlig produktion och informationssäkerhet. AI uppmanar företag att ta bort människor från ekvationen när de ofta tillför ett värde som inte är uppenbart från en balansräkning.

Det finns utrymme för AI att vara genuint användbar, men den måste distribueras för att hjälpa människor snarare än att bli av med dem. ®

Tidsstämpel:

Mer från Registret