Eksperci ostrzegają przed wyginięciem ze strony sztucznej inteligencji, jeśli działania nie zostaną podjęte teraz

Eksperci ostrzegają przed wyginięciem ze strony sztucznej inteligencji, jeśli działania nie zostaną podjęte teraz

Węzeł źródłowy: 2688105

Jest jeszcze jeden list otwarty o zagładzie na temat sztucznej inteligencji, która krąży. Tym razem szerokie grono liderów technologicznych, luminarzy ML, a nawet kilku celebrytów podpisało się, aby nakłonić świat do poważniejszego potraktowania rzekomych zagrożeń na poziomie wyginięcia stwarzanych przez sztuczną inteligencję. 

Bardziej trafne stwierdzenie, wiadomość z Centrum Bezpieczeństwa AI (CAIS) podpisana przez osoby takie jak pionier AI Geoffreya Hintona, CEO OpenAI Sam Altman, guru szyfrowania Martin Hellman, Microsoft CTO Kevin Scott i inni to a pojedyncze zdanie oznajmujące przewidywanie apokalipsy, jeśli zostanie zlekceważona:

„Zmniejszanie ryzyka wyginięcia przez sztuczną inteligencję powinno być globalnym priorytetem obok innych zagrożeń na skalę społeczną, takich jak pandemie i wojna nuklearna”. 

Dlaczego tak krótko? Celem było „pokazanie szerokiej i rosnącej koalicji naukowców zajmujących się sztuczną inteligencją, liderów technologii i profesorów, którzy są zaniepokojeni ryzykiem wyginięcia sztucznej inteligencji. Potrzebujemy powszechnego uznania stawki, abyśmy mogli prowadzić przydatne dyskusje polityczne” – powiedział dyrektor CAIS, Dan Hendrycks Rejestr.

CAIS nie wspomina w swoim artykule o sztucznej inteligencji ogólnej (AGI). lista zagrożeń AI, zauważamy. A modele obecnej generacji, takie jak ChatGPT, nie stanowią apokaliptycznego zagrożenia dla ludzkości, powiedział nam Hendrycks. Ostrzeżenie w tym tygodniu dotyczy tego, co może nadejść w przyszłości.

„Rodzaje katastrofalnych zagrożeń, do których odnosi się to stwierdzenie, są związane z przyszłymi zaawansowanymi systemami sztucznej inteligencji” – stwierdził Hendrycks. Dodał, że niezbędne postępy potrzebne do osiągnięcia poziomu „apokaliptycznego zagrożenia” mogą nastąpić dopiero za dwa do dziesięciu lat, a nie kilkadziesiąt lat. „Musimy się teraz przygotować. Jednak systemy sztucznej inteligencji, które mogą powodować katastrofalne skutki, nie muszą być AGI” – powiedział. 

Ponieważ ludzie i tak są doskonale spokojni

Jeden taki groźba jest uzbrojenie lub pomysł, że ktoś mógłby zmienić przeznaczenie życzliwej sztucznej inteligencji, aby była wysoce destrukcyjna, na przykład używając bota do odkrywania leków do opracowywania broni chemicznej lub biologicznej lub wykorzystując uczenie wzmacniające do walki maszynowej. To powiedziawszy, ludzie są już całkiem zdolni do produkcji tego rodzaju broni, która może zabić osobę, sąsiedztwo, miasto lub kraj.

Ostrzegamy, że sztuczną inteligencję można również wyszkolić, aby dążyła do swoich celów bez względu na wartości indywidualne lub społeczne. Może „osłabiać” ludzi, którzy ostatecznie przekazują umiejętności i zdolności zautomatyzowanym maszynom, powodując nierównowagę mocy między kontrolerami AI a kontrolerami wypartymi przez automatyzację, lub może być wykorzystywany do rozpowszechniania dezinformacji, celowo lub Inaczej.

Ponownie, żadna sztuczna inteligencja zaangażowana w to nie musi być ogólna, a dostrzeżenie potencjału sztucznej inteligencji obecnej generacji do ewolucji, aby stwarzać rodzaje ryzyka, o które martwi się CAIS, nie jest zbyt trudne. Możesz mieć własne opinie na temat tego, jak naprawdę destrukcyjne lub zdolne może być lub będzie to oprogramowanie i co faktycznie może osiągnąć.

Argument CAIS mówi, że kluczowe znaczenie ma zbadanie i zajęcie się negatywnymi skutkami sztucznej inteligencji, które już są odczuwalne, oraz przekształcenie tych istniejących wpływów w prognozę. „Ponieważ zmagamy się z bezpośrednimi zagrożeniami związanymi ze sztuczną inteligencją… przemysł sztucznej inteligencji i rządy na całym świecie muszą również poważnie stawić czoła ryzyku, że przyszłe sztuczna inteligencja może stanowić zagrożenie dla ludzkiej egzystencji” — Hendrycks powiedziany w oświadczeniu.

„Świat z powodzeniem współpracował w celu złagodzenia ryzyka związanego z wojną nuklearną. Potrzebny jest ten sam poziom wysiłków, aby zaradzić zagrożeniom stwarzanym przez przyszłe systemy sztucznej inteligencji” – nalegał Hendrycks, wspierając go na liście liderów korporacyjnych, akademickich i myślowych. 

Muska nie ma na pokładzie

Inni sygnatariusze to główny naukowiec Google DeepMind, Ian Goodfellow, filozofowie David Chalmers i Daniel Dennett, autor i bloger Sam Harris oraz muzyk/były członek Elona Muska, Grimes. Mówiąc o samym człowieku, brakuje podpisu Muska. 

CEO Twittera była wśród tych, którzy podpisali List otwarty opublikowane przez Instytut Przyszłości Życia w marcu ubiegłego roku, wzywając a sześciomiesięczna przerwa w sprawie szkolenia systemów AI „potężniejszych niż GPT-4”. Nic dziwnego, że nie było podpisu dyrektora generalnego OpenAI, Altmana że konkretnego listu, rzekomo dlatego, że bezpośrednio wzywał jego firmę. 

Od tego czasu OpenAI zostało wydane własne ostrzeżenia o zagrożeniach stwarzanych przez zaawansowaną sztuczną inteligencję i wezwała do ustanowienia globalnego organu nadzorującego, podobnego do Międzynarodowej Agencji Energii Atomowej, w celu regulowania stosowania sztucznej inteligencji.

To ostrzeżenie i wezwanie regulacyjne, w przypadku historycznie złego wyczucia czasu, nadeszło tego samego dnia, kiedy Altman zagrożone wyciągnąć OpenAI, a wraz z nim ChatGPT, z UE przez blok Ustawa o sztucznej inteligencji. Zasady, które popiera, to jedno, ale Altman powiedział Brukseli, że ich pomysł ograniczenia sztucznej inteligencji był zbyt daleko idącym mostem regulacyjnym, bardzo dziękuję. 

parlamentarzyści UE odpowiedzi mówiąc, że OpenAI nie będzie im dyktować, a jeśli firma nie będzie w stanie przestrzegać podstawowych zasad zarządzania i przejrzystości, „ich systemy nie nadają się na rynek europejski”, stwierdził holenderski eurodeputowany Kim van Sparrentak. 

Poprosiliśmy OpenAI o wyjaśnienie stanowiska Altmana i zaktualizujemy tę historię, jeśli otrzymamy odpowiedź. ®

Znak czasu:

Więcej z Rejestr