Konwersacyjna sztuczna inteligencja mówi nam to, co chcemy usłyszeć – fikcję, że sieć jest niezawodna i przyjazna

Konwersacyjna sztuczna inteligencja mówi nam to, co chcemy usłyszeć – fikcję, że sieć jest niezawodna i przyjazna

Węzeł źródłowy: 1945652

Opinia Jest takie stare powiedzenie: kiedy walczą olbrzymy, cierpi trawa. Nam, małym obserwatorom, nie pozostaje nic innego, jak tylko chować się za osłoną i chwycić popcorn.

Przez dwie dekady Microsoft i Google uważały się za zasadniczo nielegalne. Microsoft nigdy tak naprawdę nie podniósł się po przegranej bitwie o wyszukiwanie ani porażce Windows Mobile. Google miał aspiracje posiadania uniwersalnego systemu operacyjnego, ale, co dziwne, nie był w stanie wykorzystać globalnej dominacji Androida poza urządzeniami mobilnymi. Ich walka trwa nadal na wielu frontach: Bing vs Google Search, Azure vs Google Cloud i tak dalej.

I w nie budującym spektaklu my-byliśmy-tu-przed-ty-nie-ty-nie, dwaj giganci komputerowi próbowali ostatnio podważyć swoje wysiłki na rzecz uruchomienia „konwersacyjnych” produktów wyszukiwania, opartych na dużym języku Modele (LLM). Google spędził lata udoskonalając LaMDA – nawet w zeszłym roku zwolniony pracownik który przekonał się, że LaMDA posiada zdolność odczuwania – podczas gdy Microsoft tak karmienie i podlewanie OpenAI i jego wielopokoleniowy wstępnie wyszkolony transformator generatywny (GPT).

Google prawdopodobnie ma więcej doktorów AI niż jakakolwiek inna firma razem wzięta. W połowie ostatniej dekady skutecznie zlikwidowała studia podyplomowe w dziedzinie sztucznej inteligencji na całym świecie, zatrudniając całe kohorty klasowe, zlecając im poprawę jakości wyników wyszukiwania firmy.

Z taką siłą intelektualną Google powinno być niekwestionowanym liderem w publicznych aplikacjach AI. Ale oczywiście Google robi naprawdę dobrze tylko kilka rzeczy: wyszukiwanie i kierowanie reklam. Oba wymagają dużo sprytu, ale są dobrze ukryte przed oczami prawdziwych ludzi. O ile Joe Citizen może dostrzec, te ogromne wysiłki w zakresie sztucznej inteligencji zostały całkowicie zmarnowane.

Stało się to oczywiste około pół godziny po OpenAI wydany ChatGPT – jego konwersacyjny, kontekstowy LLM. Niemal instynktownie każdy, kto miał kontakt z ChatGPT, zadał sobie pytanie „Dlaczego nie mogę tego użyć do wyszukiwania?” Jego interfejs wydaje się naturalny, dyskursywny, przyjazny i całkowicie ludzki – dokładnie przeciwieństwo brzydkiej strony wyników wyszukiwania hojnie zasolonej reklamami i modułami śledzącymi oraz wszystkimi innymi bzdurami, które Google musi wstawić, aby utrzymać wysokie marże.

Microsoft natychmiast uznał ChatGPT za broń potrzebną do zdestabilizowania swojego konkurenta. Redmond szybko napisał atramentem a wielomiliardową transakcję inwestycyjną z OpenAI i zagwarantował, że ChatGPT zostanie zintegrowany z całym pakietem produktów Microsoft. Oznacza to nie tylko Bing, ale także Office, Github i – bardzo prawdopodobne – Windows.

Mniej więcej w tym czasie Google poszedł „kod czerwony" - cokolwiek to znaczy. Sprowadził Larry'ego i Sergeya z powrotem na pokład i zrobił wszystko, co w jego mocy, tak szybko, jak to było możliwe, aby zintegrować istniejące bogactwo LLM z flagową wyszukiwarką.

Ale to wygląda późno w ciągu dnia na żale.

W zeszłym tygodniu Google ogłosiło specjalne wydarzenie 8 lutego, aby ujawnić swoje prace nad sztuczną inteligencją. Niedługo potem do sieci wyciekł zrzut ekranu ChatGPT zintegrowany z Bing. Następnie w poniedziałek, 6 lutego, dyrektor generalny Alphabet, Sundar Pichai — oznajmił Bard – Próba Google pierwszej generacji zintegrowania LaMDA ze swoją wyszukiwarką. Microsoft szybko zorganizował konkurencyjne wydarzenie (7 lutego, natch), podczas którego ujawnił postępy w integracji ChatGPT z Bing – potwierdzając, że wyciekający zrzut ekranu jest prawdziwy.

To może nie być najlepszy sposób na podejście do technologii tak potężnej – i tak napiętej – jak konwersacyjne, świadome kontekstowo AI LLM. Jeden olbrzym tupie, drugi tupie – i cierpi na tym trawa.

Być może w ciągu ostatnich kilku miesięcy sto milionów ludzi bawiłem się z ChatGPT, podziwiając jego moc… i jego wady. Ten "stochastyczna papuga” (przeklęta, ale dokładna ocena techniczna) niczego nie rozumie, a jedynie wypluwa to, co według niego najprawdopodobniej wynika z tego, co zostało już przekazane. Jest to pomocne i interesujące – ale nie jest zrozumieniem. A ten brak głębi oznacza, że ​​nie ma w tym absolutnie zdrowego rozsądku.

Jest jeszcze inne stare powiedzenie: „Błądzić jest rzeczą ludzką, ale aby naprawdę zepsuć coś na dużą skalę, potrzebny jest komputer”.

Zarówno Google, jak i Microsoft obiecały, że ich narzędzia wyszukiwania o smaku LLM wyjaśnią użytkownikom, że na tych wynikach nie należy polegać. Ale te same dwie firmy spędziły dziesięciolecia i wydały niezliczone miliardy dolarów, mówiąc nam, że komputery są naszymi godnymi zaufania towarzyszami – nigdy nie zapominają, nie popełniają błędów i zapewniają dostęp do bogactwa ludzkiej wiedzy.

Po całej tej indoktrynacji nie mamy innego wyboru, jak zaufać temu, co mówią nam ChatGPT lub LaMDA. Postępowanie w inny sposób oznacza ignorowanie wszystkiego, co słyszeliśmy od dwóch pokoleń na temat tego, co obiecują komputery.

Zarówno Microsoft, jak i Google ulepszyły swoją grę, używając nowej broni, której nikt w pełni nie rozumie – w tym oni sami. Czy to mądre? Czy to w ogóle bezpieczne? ChatGPT prawdopodobnie powiedziałby „tak”, ale ma własny interes.

Sztuczna inteligencja do konwersacji doskonale radzi sobie z mówieniem nam dokładnie tego, co chcemy usłyszeć. Google i Microsoft zdecydowały, że aby przetrwać w nowej generacji komputerów, musimy być my, użytkownicy otoczony syntetycznymi oszustami, nieustannie mieszając fakty i fikcję tak subtelnie i tak dokładnie, że prawda ginie w hałasie i jest prawie niepoznawalna. Podaj popcorn. ®

Znak czasu:

Więcej z Rejestr