OpenAI wzywa globalną agencję do uregulowania superinteligencji

OpenAI wzywa globalną agencję do uregulowania superinteligencji

Węzeł źródłowy: 2674707

Międzynarodowa agencja powinna być odpowiedzialna za inspekcje i audyty sztucznej inteligencji ogólnej, aby upewnić się, że technologia jest bezpieczna dla ludzkości, według najwyższego kierownictwa OpenAI, twórcy GPT-4.

Dyrektor generalny Sam Altman i współzałożyciele Greg Brockman i Ilya Sutskever powiedzieli, że „można sobie wyobrazić”, że sztuczna inteligencja uzyska niezwykłe zdolności, które przewyższają ludzkie w ciągu następnej dekady.

„Pod względem zarówno potencjalnych zalet, jak i wad superinteligencja będzie potężniejsza niż inne technologie, z którymi ludzkość musiała się zmagać w przeszłości. Możemy mieć znacznie bardziej pomyślną przyszłość; ale musimy zarządzać ryzykiem, aby się tam dostać” – trio napisał we wtorek.

Argumentowali, że koszty budowy tak potężnej technologii maleją, ponieważ coraz więcej osób pracuje nad jej rozwojem. Aby kontrolować postęp, rozwój powinien być nadzorowany przez międzynarodową organizację, taką jak Międzynarodowa Agencja Energii Atomowej (MAEA).

MAEA została utworzona w 1957 r. w czasie, gdy rządy obawiały się, że broń jądrowa zostanie opracowana podczas zimnej wojny. Agencja pomaga regulować energię jądrową i ustanawia zabezpieczenia, aby energia jądrowa nie była wykorzystywana do celów wojskowych.

„Prawdopodobnie w końcu będziemy potrzebować czegoś takiego jak MAEA do działań superwywiadowczych; wszelkie wysiłki powyżej określonego progu zdolności (lub zasobów, takich jak moc obliczeniowa) będą musiały podlegać międzynarodowemu organowi, który może kontrolować systemy, wymagać audytów, testować zgodność z normami bezpieczeństwa, nakładać ograniczenia na stopnie wdrożenia i poziomy bezpieczeństwa itp., " oni powiedzieli.

Taka grupa byłaby odpowiedzialna za śledzenie zużycia mocy obliczeniowej i energii, niezbędnych zasobów potrzebnych do trenowania i uruchamiania dużych i wydajnych modeli.

„Moglibyśmy wspólnie zgodzić się, że tempo wzrostu zdolności sztucznej inteligencji na granicy jest ograniczone do pewnego poziomu rocznie” — zasugerował najwyższy szef OpenAI. Firmy musiałyby dobrowolnie zgodzić się na inspekcje, a agencja powinna skupić się na „zmniejszaniu ryzyka egzystencjalnego”, a nie na kwestiach regulacyjnych, które są określone i ustalone przez przepisy poszczególnych krajów.

W zeszłym tygodniu Altman przedstawił pomysł, aby firmy uzyskały w Senacie licencję na budowę modeli o zaawansowanych możliwościach powyżej określonego progu przesłuchanie. Jego sugestia została później skrytykowana, ponieważ mogłaby niesprawiedliwie wpłynąć na systemy sztucznej inteligencji zbudowane przez mniejsze firmy lub społeczność open source, która ma mniejsze szanse na posiadanie zasobów, aby spełnić wymagania prawne.

„Uważamy, że ważne jest, aby umożliwić firmom i projektom open source opracowywanie modeli poniżej znacznego progu wydajności, bez regulacji, które tutaj opisujemy (w tym uciążliwych mechanizmów, takich jak licencje lub audyty)” – powiedzieli.

Elon Musk pod koniec marca był jednym z 1,000 sygnatariuszy listu otwartego wzywającego do sześciomiesięcznej przerwy w opracowywaniu i szkoleniu sztucznej inteligencji potężniejszej niż GPT4 ze względu na potencjalne zagrożenia dla ludzkości, coś, co Altman Zatwierdzony w połowie kwietnia tak było.

„Potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a ryzyko będzie możliwe do opanowania” – napisano w liście.

Dyrektor generalny Alphabet i Google, Sundar Pichai, napisał artykuł w Financial Times w weekend: powiedzenie: „Nadal uważam, że sztuczna inteligencja jest zbyt ważna, aby jej nie regulować, i zbyt ważna, aby nie regulować dobrze”. ®

Znak czasu:

Więcej z Rejestr