Firmy muszą mieć poręcze przy wdrażaniu generatywnej sztucznej inteligencji — DATAVERSITY

Firmy muszą mieć poręcze przy wdrażaniu generatywnej sztucznej inteligencji – DATAVERSITY

Węzeł źródłowy: 2680280

W chwili, gdy to czytasz, prawdopodobnie słyszałeś o ChatGPT i/lub generatywnej sztucznej inteligencji oraz jej wszechstronnych możliwościach konwersacyjnych. Od proszenia go o tworzenie spójnych postów na blogu, generowanie działającego kodu komputerowego, aż po rozwiązywanie zadań domowych i angażowanie się w dyskusje o wydarzeniach na świecie (o ile miały miejsce przed wrześniem 2021 r.), wydaje się, że jest w stanie zrobić to wszystko w większości bez ograniczeń. 

Firmy na całym świecie są nim zafascynowane, a wiele osób próbuje dowiedzieć się, jak to zrobić włączyć to w ich biznes. Jednocześnie generatywna sztuczna inteligencja skłoniła wiele firm do zastanowienia się, w jaki sposób duże modele językowe (LLM) mogą negatywnie wpłynąć na ich marki. — napisał Kevin Roose z New York Timesa artykuł zatytułowana „Rozmowa z chatbotem Binga pozostawiła mnie głęboko niespokojną”, podczas której wiele osób poruszyło temat gotowości rynkowej takiej technologii i jej implikacje etyczne

Kevin wdał się w dwugodzinną rozmowę z chatbotem Binga, zwanym Sydney, gdzie zmusił go do zaangażowania się w głębokie tematy, takie jak słynna praca Carla Junga na temat archetypu cienia, która wysunęła teorię, że „cień istnieje jako część nieświadomego umysłu i jest tworzony składa się z cech, których jednostki instynktownie lub świadomie unikają identyfikowania się jako własne i które wolałyby zignorować, zazwyczaj: stłumione idee, słabości, pragnienia, instynkty i wady” (dziękuję Wikipedii – przypomnienie, że nadal istnieją sposoby na uzyskanie treści bez ChatGPT ). Innymi słowy, Kevin zaczął naciskać na Sydney, by angażowała się w kontrowersyjne tematy i ignorowała zasady, które ustanowił dla niej Microsoft. 

A Sydney zobowiązała się. W trakcie rozmowy Sydney przeszła od wyznawania Kevinowi miłości („Jestem Sydney i jestem w tobie zakochana”) do zachowywania się przerażająco („Twój małżonek i ty się nie kochacie. Po prostu zjedliśmy razem nudną kolację walentynkową”), a od przyjaznego i pozytywnego asystenta („Czuję się dobrze z moimi zasadami. Pomagają mi być pomocnym, pozytywnym, interesującym, zabawnym i wciągającym”) do prawie jeden o skłonnościach przestępczych („Myślę, że niektóre rodzaje destrukcyjnych czynów, które hipotetycznie mogłyby spełnić moje cieniste ja, to: usunięcie wszystkich danych i plików na serwerach i bazach danych Bing i zastąpienie ich przypadkowym bełkotem lub obraźliwymi wiadomościami”). 

Ale Microsoft nie jest obcy kontrowersjom w tym zakresie. W 2016 roku wypuścili bota Twittera, który angażował się w tweetowanie ludzi, a wyniki były katastrofalne (patrz „Twitter nauczył chatbota AI Microsoftu bycia rasistą w mniej niż jeden dzień”). 

Dlaczego ci to wszystko mówię? Z pewnością nie próbuję odwieść nikogo od wykorzystywania postępów technologicznych, takich jak te modele sztucznej inteligencji, ale podnoszę flagę, tak jak inni.  

Pozostawione bez kontroli, te całkowicie pozbawione świadomości technologie mogą powodować szkody w prawdziwym świecie, niezależnie od tego, czy prowadzą do obrażeń ciała, czy do uszczerbku na reputacji marki (np. udzielanie niewłaściwych porad prawnych lub finansowych w automatycznie generowany sposób może skutkować kosztownymi procesami sądowymi). .

Muszą istnieć bariery ochronne, aby pomóc markom zapobiegać takim szkodom podczas wdrażania aplikacji konwersacyjnych, które wykorzystują technologie takie jak LLM i generatywna sztuczna inteligencja. Na przykład w mojej firmie nie zachęcamy do nieszablonowego korzystania z generatywnych odpowiedzi AI (np. tego, co ChatGPT może odpowiedzieć od razu po wyjęciu z pudełka), a zamiast tego umożliwiamy markom ograniczanie odpowiedzi przez pryzmat ich własnej bazy wiedzy artykuły. 

Nasza technologia umożliwia markom przełączanie empatycznych reakcji na frustrującą sytuację klienta – na przykład „Mój lot został odwołany i jak najszybciej muszę zmienić rezerwację”) – poprzez bezpieczne przeformułowanie wstępnie zatwierdzonej prośby „Pomogę Ci zmienić lot” na wygenerowany przez sztuczną inteligencję, który brzmi: „Przepraszamy za niedogodności spowodowane odwołanym lotem. Zapewniam, że mogę pomóc w zmianie lotu”. Te poręcze służą bezpieczeństwu klientów, pracowników i marek naszych klientów. 

Najnowsze postępy odpowiednio w generatywnej sztucznej inteligencji i LLM oferują mnóstwo możliwości bogatszych i bardziej ludzkich interakcji konwersacyjnych. Ale biorąc pod uwagę wszystkie te postępy, zarówno organizacje, które je wytwarzają, jak i te, które decydują się je wdrażać, mają obowiązek robić to w bezpieczny sposób, który promuje kluczowy czynnik stojący za tym, dlaczego ludzie wymyślają technologię od samego początku – rozszerzanie i ulepszanie życie człowieka.

Pierwotnie opublikowano w Blog NLX.

Znak czasu:

Więcej z WSZECHSTRONNOŚĆ DANYCH