Sztuczna inteligencja to odpowiedzialność

Sztuczna inteligencja to odpowiedzialność

Węzeł źródłowy: 3029233

Komentarz Sztuczna inteligencja, czyli duże modele podstawowe, które przewidują tekst i potrafią kategoryzować obrazy i mowę, wygląda bardziej na obciążenie niż na atut.

Jak dotąd szkody dla dolara były niewielkie. W 2019 roku kierowca Tesli, który prowadził swój pojazd przy pomocy oprogramowania Autopilota producenta samochodów, przejechał na czerwonym świetle i uderzył w inny pojazd. Pasażerowie zginęli, a kierowca Tesli w zeszłym tygodniu zamówiony zapłacić 23,000 XNUMX dolarów odszkodowania.

Tesla została wydana mniej więcej w tym samym czasie przypomnienie dwóch milionów pojazdów do zmiany oprogramowania autopilota w odpowiedzi na dochodzenie amerykańskiej Krajowej Agencji Bezpieczeństwa Ruchu Drogowego (NHTSA), które wykazało braki w zabezpieczeniach autopilota.

Dwadzieścia trzy tysiące dolarów to niewiele na życie dwóch osób, ale zaangażowane rodziny dochodzą roszczeń cywilnych przeciwko kierowcy i Tesli, więc koszty mogą wzrosnąć. A przynajmniej mówi się, że jest kilkanaście procesów z udziałem Autopilota w USA.

Tymczasem w branży opieki zdrowotnej UnitedHealthcare jest pozwany ponieważ model nH Predict AI nabyty w wyniku zakupu Navihealth w 2020 r. rzekomo odmawia ubezpieczonym seniorom niezbędnej opieki po leczeniu ostrym.

Wymagane ograniczenia

Firmy sprzedające modele i usługi AI doskonale zdają sobie sprawę, że istnieje problem. Mówią o „poręczach” umieszczonych wokół podstawowych modeli, aby pomóc im pozostać na swoim pasie – nawet jeśli są to takie modele nie działa bardzo dobrze. Tego rodzaju środki ostrożności byłyby niepotrzebne, gdyby te modele nie zawierały materiały przedstawiające wykorzystywanie seksualne dzieci oraz całą gamę innych toksycznych treści.

To tak, jakby twórcy sztucznej inteligencji czytali pisarza Alexa Blechmana wirusowy post o firmach technologicznych, które zinterpretowały przestrogę „Nie twórz Nexusa Udręki” jako plan rozwoju produktu i stwierdziły: „Wygląda nieźle”.

Oczywiście istnieją starsze odniesienia literackie, które pasują do sztucznej inteligencji, takie jak Frankenstein Mary Shelley czy Puszka Pandory – szczególnie dobrze pasujące, biorąc pod uwagę, że modele sztucznej inteligencji są często określane jako czarne skrzynki ze względu na brak przejrzystości w zakresie materiałów szkoleniowych.

Jak dotąd tajemniczość modeli komercyjnych usianych szkodliwymi treściami nie odbiła się zbyt mocno na firmach. Jest niedawne roszczenie przez Chrisa Bakke, założyciela i dyrektora generalnego firmy Laskie (przejętej w tym roku przez firmę nazywającą siebie X), że chatbot GM używany przez dealera samochodowego w Watsonville w Kalifornii został namówiony do wyrażenia zgody na sprzedaż Chevy Tahoe z 2024 r. za $ 1 z odrobiną szybkiej inżynierii. Ale dealer raczej nie wywiąże się z tego zobowiązania.

Mimo to ryzyko polegania na modelach AI jest wystarczające Google, Microsoft, Antropiczny zaoferowali zabezpieczenie klientom przed roszczeniami dotyczącymi praw autorskich (które są liczne i w dużej mierze nierozwiązane). Nie należy tego robić, chyba że istnieje ryzyko poniesienia odpowiedzialności.

Regulacja

Władze wciąż próbują ustalić, w jaki sposób należy oceniać odpowiedzialność za sztuczną inteligencję. Zastanów się, jak Komisja Europejska sformułowała tę kwestię, pracując nad sformułowaniem wykonalnych ram prawnych dla sztucznej inteligencji:

„Obecne przepisy dotyczące odpowiedzialności, w szczególności krajowe przepisy dotyczące winy, nie są przystosowane do rozpatrywania roszczeń odszkodowawczych za szkody spowodowane przez produkty/usługi wykorzystujące sztuczną inteligencję” – Komisja powiedziany [PDF] w zeszłym roku. „Zgodnie z takimi przepisami ofiary muszą udowodnić bezprawne działanie/zaniechanie osoby, która spowodowała szkodę. Specyficzne cechy sztucznej inteligencji, w tym autonomia i nieprzejrzystość (tzw. efekt „czarnej skrzynki”), utrudniają lub nadmiernie kosztują identyfikację osoby odpowiedzialnej i udowodnienie wymogów dotyczących skutecznego dochodzenia roszczeń z tytułu odpowiedzialności.

I amerykańscy prawodawcy to zrobili zaproponowane Dwustronne ramy sztucznej inteligencji, aby „zapewnić, że przedsiębiorstwa zajmujące się sztuczną inteligencją mogą zostać pociągnięte do odpowiedzialności poprzez egzekwowanie prawa przez organy nadzorcze i prywatne prawa do działania, gdy ich modele i systemy naruszają prywatność, naruszają prawa obywatelskie lub w inny sposób powodują rozpoznawalne szkody”.

Nie ekscytuj się zbytnio widokiem dyrektorów firm zajmujących się sztuczną inteligencją za kratkami: zaangażowanie liderów branży sztucznej inteligencji w ten proces sugeruje, że wszelkie wyłaniające się zasady będą mniej więcej tak samo skuteczne, jak inne ramy regulacyjne, które zostały zniekształcone przez lobbystów.

Ale podekscytowanie jest częścią problemu: wokół papug stochastycznych, jak nazywa się modele sztucznej inteligencji, narosło tak wiele szumu.

Jak zauważyła firma zajmująca się bezpieczeństwem Socket, która wykorzystała do tego ChatGPT, modele sztucznej inteligencji mają w niektórych kontekstach prawdziwą wartość flaga pomocy luki w oprogramowaniu. Dokonali cudów w zakresie rozpoznawania mowy, tłumaczenia i rozpoznawania obrazów, ze szkodą dla osób transkrybujących i łamigłówek CAPTCHA. Przypomnieli weteranom branży, jak fajnie było się bawić Eliza, wczesny chatbot. Wyglądają na naprawdę przydatne na stanowiskach związanych ze wspomaganiem decyzji, pod warunkiem, że w pętli uczestniczy człowiek. Wzięli także złożone zaklęcia wiersza poleceń z różnymi flagami i parametrami i zamienili je w równie złożone podpowiedzi tekstowe, które mogą obejmować akapity.

Jednak automatyzacja, którą umożliwia sztuczna inteligencja, ma swoją cenę. W niedawnym artykuł dla magazynu branżowego science-fiction Locus autor i aktywista Cory Doctorow argumentował: „Firmy zajmujące się sztuczną inteligencją w sposób dorozumiany zakładają, że ich klienci będą kupować sztuczną inteligencję do celów automatyzacji o wysoce znaczących konsekwencjach, zwalniać pracowników i w rezultacie powodować szkody fizyczne, psychiczne i ekonomiczne swoim klientom , w jakiś sposób unikając odpowiedzialności za te szkody.

Doctorow jest sceptyczny co do istnienia znaczącego rynku usług sztucznej inteligencji dla przedsiębiorstw o ​​dużej wartości ze względu na ryzyko i uważa, że ​​znajdujemy się w trudnej sytuacji. Bańka AI. Jako przykład podaje GM Cruise, zauważając, że model biznesowy firmy produkującej samochody autonomiczne – w stanie zawieszenia z powodu urazu pieszego i wycofania go z pracy – oznacza zastąpienie każdego nisko opłacanego kierowcy 1.5 droższym zdalnym przełożonym, bez wykluczania możliwości wystąpienia wypadków i związanych z nimi procesów sądowych.

Przeciążać

Przynajmniej istnieje pewien potencjał dla biznesu o niskiej wartości związanego ze sztuczną inteligencją. Obejmują one miesięczne płatności za dostęp do interfejsu API w celu niedokładnego czatu, algorytmiczne generowanie obrazów, które przejmuje style artystów bez pozwolenia lub generując setki fałszywych witryn informacyjnych (lub książki) w sposób, który „zalewa strefę„z dezinformacją.

Wydaje się mało prawdopodobne, że Arena Group roszczenie fakt, że platforma AI może skrócić czas potrzebny na tworzenie artykułów do publikacji takich jak Sports Illustrated o 80–90 procent, poprawi satysfakcję czytelników, lojalność wobec marki lub jakość treści. Być może jednak wygenerowanie większej liczby artykułów w setkach tytułów firmy, niż jest to możliwe, doprowadzi do większej liczby wyświetleń stron przez boty i większych przychodów z reklam programowych od nabywców reklam, którzy są zbyt naiwni, aby je złapać.

Częścią problemu jest to, że główni promotorzy sztucznej inteligencji – Amazon, Google, Nvidia i Microsoft – obsługują platformy chmurowe lub sprzedają sprzęt GPU. To wyselekcjonowani sprzedawcy gorączki złota AI, którzy chcą po prostu sprzedać swoje usługi w chmurze lub zestaw do analizowania liczb. Wszyscy byli zwolennikami dominacji blockchain express i kryptowalut, dopóki to złudzenie nie ucichło.

Jeszcze bardziej entuzjastycznie podchodzą do pomagania firmom w uruchamianiu obciążeń związanych ze sztuczną inteligencją, niezależnie od tego, czy są przydatne, czy nie. Po prostu zasiewają chmurę, mając nadzieję nakłonić firmy do korzystania z operacji wynajmu procesorów. Podobnie start-upy korzystające z uczenia maszynowego, nieposiadające infrastruktury, mają nadzieję, że luźna rozmowa o technologii transformacyjnej zawyży wycenę ich firmy, aby nagrodzić pierwszych inwestorów.

Szał na rzecz sztucznej inteligencji można również częściowo przypisać nieustannym wysiłkom branży technologicznej w poszukiwaniu odpowiedzi na pytanie: „Co będzie dalej?” w czasie długotrwałego zastoju. Apple, Google, Amazonka, Meta, Microsoft, Nvidia wszyscy dokładają wszelkich starań, aby zapobiec znaczącej konkurencji i od początku ery chmury i urządzeń mobilnych w połowie XXI wieku radzą sobie całkiem nieźle. Nie żeby zachowanie antykonkurencyjne było czymś nowym – przypomnijmy branżę z 2000 roku osada z Departamentem Sprawiedliwości Stanów Zjednoczonych w sprawie porozumień pomiędzy Adobe, Google, Intel, Intuit i Pixar, aby uniknąć wzajemnego kradnięcia talentów.

Microsoft w dużej mierze zintegrował sztuczną inteligencję z Bingiem, od dawna przyćmiony przez wyszukiwarkę Google, twierdząc, że jest to „wymyślanie wyszukiwania na nowo.” Ale od tego czasu niewiele się zmieniło – Bing podobno nie odebrała Google żadnego udziału w rynku w czasie, gdy panuje powszechne przekonanie, że wyszukiwarka Google – także obecnie wyposażona w sztuczną inteligencję – ulega pogorszeniu.

Przynieś rok 2024

Aby dowiedzieć się, co będzie dalej, będziemy musieli poczekać, aż Departament Sprawiedliwości i organy regulacyjne w innych częściach świata wymuszą zmiany antymonopolowego egzekucja i pozwy. Ponieważ chociaż Google ma blokadę dystrybucji wyników wyszukiwania – poprzez umowy z Apple i innymi firmami – oraz reklamę cyfrową – dzięki umowie z Meta (rozliczony w USA, nadal w trakcie śledztwa w Europie i Wielkiej Brytanii) oraz inne działania, które podekscytowany interes Departamentu Sprawiedliwości – ani branża wyszukiwania, ani reklama nie wydają się podatne na nowych konkurentów, niezależnie od tego, ile sosu AI zostanie dodany.

Sztuczna inteligencja stanowi obciążenie nie tylko w sensie finansowym, ale także etycznym. Obiecuje oszczędności w płacach – pomimo jest niezwykle drogie pod względem szkolenie i rozwój i wpływ środowiska – zachęcając jednocześnie do obojętności na pracę ludzką, własność intelektualną, szkodliwą produkcję i dokładność informacji. Sztuczna inteligencja zachęca firmy do usuwania ludzi z równania, gdy często dodają wartość, która nie jest oczywista w bilansie.

Sztuczna inteligencja może być naprawdę użyteczna, ale należy ją wdrożyć, aby pomagać ludziom, a nie się ich pozbywać. ®

Znak czasu:

Więcej z Rejestr