Conversational AI talar om för oss vad vi vill höra – en uppfattning om att webben är pålitlig och vänlig

Conversational AI talar om för oss vad vi vill höra – en uppfattning om att webben är pålitlig och vänlig

Källnod: 1945652

Yttrande Det finns ett gammalt talesätt: när jättar slåss är det gräset som lider. För oss små som tittar på finns det lite att göra än att springa i skydd och ta popcornen.

I två decennier har Microsoft och Google betraktat varandra som i grunden illegitima. Microsoft har aldrig riktigt återhämtat sig efter att ha förlorat kampen om sökning, och inte heller misslyckandet med Windows Mobile. Google hade ambitioner att äga ett universellt operativsystem, men har märkligt nog inte kunnat utnyttja Androids globala dominans bortom mobilen. Deras kamp fortsätter att rasa på flera fronter: Bing vs Google Search, Azure vs Google Cloud, och det fortsätter.

Och i ett ouppbyggligt skådespel av att vi-kom-här-innan-du-nej-du-inte-har de två datajättarna på sistone försökt undergräva varandras ansträngningar att lansera "konversations" sökprodukter, baserade på Large Language Modeller (LLM). Google har ägnat flera år åt att förfina LaMDA – till och med förra året sagt upp en anställd som hade övertygat sig själv om att LaMDA hade känsla – medan Microsoft har varit det matning och vattning OpenAI och dess multigenerationella Generative Pre-trained Transformer (GPT).

Google har troligen fler AI-doktorer som arbetar för det än alla andra företag tillsammans. Under mitten av det senaste decenniet tog det effektivt bort forskarutbildningen i AI över hela världen genom att anställa hela klasskohorter, vilket gav dem i uppdrag att förbättra kvaliteten på företagets sökresultat.

Med den sortens hjärnkraft borde Google vara den obestridda ledaren inom offentliga AI-applikationer. Men naturligtvis gör Google bara ett par saker riktigt bra: sökning och annonsinriktning. Båda dessa behöver mycket smart, men de är väl dolda för verkliga människors ögon. Så vitt Joe Citizen kan uppfatta, har dessa enorma ansträngningar inom AI helt försvunnit.

Det blev uppenbart ungefär en halvtimme efter OpenAI släppte ChatGPT – dess konversationsmässiga, kontextmedvetna LLM. Nästan instinktivt frågade alla som interagerade med ChatGPT sig själva "Varför kan jag inte använda detta för sökning?" Dess gränssnitt verkar naturligt, diskursivt, vänligt och helt mänskligt – precis motsatsen till en ful sida med sökresultat frikostigt saltad med annonser och spårare och allt annat skit som Google finner nödvändigt att infoga för att hålla sina marginaler höga.

Microsoft såg omedelbart ChatGPT som det vapen det behövde för att destabilisera sin konkurrent. Redmond tryckte snabbt en investeringsavtal på flera miljarder dollar med OpenAI, och garanterade att ChatGPT skulle integreras i hela svit av Microsoft-produkter. Det betyder inte bara Bing, utan Office, Github och – mycket troligt – Windows.

Vid den här tiden gick Google "kod röd" - vad det nu betyder. Det tog Larry och Sergey tillbaka på däck och gjorde vad de kunde, så snabbt som det kunde, för att integrera sin befintliga rikedom av LLMs i flaggskeppets sökprodukt.

Men det är sent på dagen för ånger.

Förra veckan meddelade Google ett speciell händelse den 8 februari för att avslöja sitt arbete med AI. Inte långt efter det läckte en skärmdump av ChatGPT integrerat i Bing online. Sedan måndagen den 6 februari, Alphabets vd Sundar Pichai meddelade Bard – Googles första generationens försök att integrera LaMDA i sin sökmotor. Microsoft satte snabbt ihop ett konkurrerande evenemang (den 7 februari, natch) där det avslöjade dess framsteg med att integrera ChatGPT i Bing – vilket bekräftar att den läckta skärmdumpen var verklig.

Det här kanske inte är det bästa sättet att närma sig en teknik som är lika kraftfull – och lika fylld – som konversationsbaserade, kontextmedvetna LLM AI:er. En jätte stampar, den andra stampar tillbaka – och det är gräset som lider.

De senaste månaderna kanske hundra miljoner människor har haft en lek med ChatGPT och förundrats över dess kraft ... och dess brister. denna "stokastisk papegoja” (en fördömande men noggrann teknisk bedömning) förstår ingenting, utan spottar bara ut vad den bedömer som mest sannolikt kommer att följa på det som redan har kommunicerats. Det är till hjälp och det är intressant – men det är inte att förstå. Och den bristen på djup betyder att det inte har något sunt förnuft.

Det finns ett annat gammalt talesätt: "Att fela är mänskligt, men att verkligen förstöra saker i stor skala kräver en dator."

Både Google och Microsoft har lovat att deras sökverktyg med LLM-smak kommer att göra det klart för användarna att dessa resultat inte är att lita på. Men dessa två företag har spenderat årtionden, och otaliga miljarder dollar, på att berätta för oss att datorer är våra pålitliga följeslagare – de glömmer aldrig, gör aldrig ett misstag och ger tillgång till rikedomen av mänsklig kunskap.

Efter all den indoktrineringen har vi inget annat val än att lita på vad ChatGPT eller LaMDA säger till oss. Att göra något annat innebär att ignorera allt vi har hört under två generationer om vad datorer lovar.

Microsoft och Google har båda ökat sitt spel med nya vapen som ingen helt förstår – inklusive dem själva. Är det klokt? Är det ens säkert? ChatGPT skulle förmodligen säga ja, men det har ett egenintresse.

Konversations-AI:er utmärker sig på att berätta exakt vad vi vill höra. Google och Microsoft har beslutat att vi användare måste vara det för deras överlevnad in i nästa generations datorer omgiven av syntetiska bedragare, ständigt förväxla fakta och fiktion så subtilt och så grundligt att sanningen försvinner i brus och nästan omöjlig att veta. Passera popcornen. ®

Tidsstämpel:

Mer från Registret