OpenAI twierdzi, że poświęca moc obliczeniową na zatrzymanie „nieuczciwej” sztucznej inteligencji

OpenAI twierdzi, że poświęca moc obliczeniową na zatrzymanie „nieuczciwej” sztucznej inteligencji

Węzeł źródłowy: 2756224

OpenAI twierdzi, że przeznacza jedną piątą swoich zasobów obliczeniowych na rozwój technik uczenia maszynowego, aby powstrzymać superinteligentne systemy przed „nieuczciwym działaniem”.

Założony w 2015 roku startup AI w San Francisco zadeklarował, że jego celem zawsze było bezpieczne rozwijanie sztucznej inteligencji ogólnej. Technologia jeszcze nie istnieje, a eksperci są podzieleni co do tego, jak dokładnie miałaby ona wyglądać i kiedy mogłaby zostać udostępniona.

Niemniej jednak OpenAI zamierza wydzielić 20 procent swoich mocy obliczeniowych i uruchomić nową jednostkę – kierowaną przez współzałożyciela i głównego naukowca Ilyę Sutskever – aby w jakiś sposób zapobiec zagrażaniu ludzkości przez maszyny przyszłej generacji. To jest przedmiot OpenAI poruszało już wcześniej tę kwestię.

„Superinteligencja będzie najbardziej wpływową technologią, jaką ludzkość kiedykolwiek wynalazła i może pomóc nam rozwiązać wiele najważniejszych problemów świata” – niedoszły wybawiciel gatunku opiniował w tym tygodniu.

„Ale ogromna moc superinteligencji może być również bardzo niebezpieczna i może prowadzić do osłabienia ludzkości, a nawet wyginięcia ludzkości”.

OpenAI wierzy, że w tej dekadzie można opracować systemy komputerowe zdolne przewyższyć ludzką inteligencję i pokonać rasę ludzką [Przed czy po fuzji? Albo obliczenia kwantowe? – wyd.].

„Zarządzanie tym ryzykiem będzie wymagało między innymi nowych instytucji zarządzających i rozwiązania problemu dostosowania superinteligencji: w jaki sposób zapewnimy, że systemy sztucznej inteligencji, znacznie mądrzejsze od ludzi, będą podążać za ludzkimi intencjami?” dodał biznes. 

Skoro mowa o OpenAI…

  • Startup, finansowany przez Microsoft, stworzył interfejs API GPT-4 ogólnie dostępne płacącym deweloperom.
  • Emily Bender, profesor CompSci i ekspertka w dziedzinie uczenia maszynowego napisał esej na temat rzeczywistych zagrożeń ze strony modeli sztucznej inteligencji w porównaniu ze strachem przed nadludzką sztuczną inteligencją, na którą naciskają niektóre kręgi.

Istnieją już metody dostosowania – lub przynajmniej podjęcia próby dostosowania – modeli do wartości ludzkich. Techniki te mogą obejmować coś, co nazywa się uczeniem się przez wzmacnianie na podstawie informacji zwrotnej od ludzi lub RLHF. Dzięki takiemu podejściu zasadniczo nadzorujesz maszyny, aby kształtowały je tak, aby zachowywały się bardziej jak ludzie.

Chociaż RLHF pomógł zmniejszyć podatność systemów takich jak ChatGPT na generowanie toksycznego języka, nadal może wprowadzać uprzedzenia i jest trudny do skalowania. Zwykle wiąże się to z koniecznością rekrutacji dużej liczby osób o niezbyt wysokich zarobkach, aby zapewnić informację zwrotną na temat wyników modelu – praktyka ta wiąże się jednak z pewnym zestawem problemów.

Twierdzono, że programiści nie mogą polegać na kilku osobach w zakresie nadzorowania technologii, która będzie miała wpływ na wielu. Zespół OpenAI zajmujący się dopasowywaniem próbuje rozwiązać ten problem, budując „automatyczne narzędzie do badania dopasowywania na poziomie mniej więcej ludzkim”. Zamiast ludzi OpenAI chce zbudować system sztucznej inteligencji, który będzie w stanie dostosować inne maszyny do ludzkich wartości bez bezpośredniego polegania na ludziach. 

Wydaje nam się, że byłoby to szkolenie sztucznej inteligencji tak, aby bardziej przypominała inteligencję niesztuczną. Czuje się trochę kurczaka i jajka.

Taki system mógłby na przykład wyszukiwać problematyczne zachowania i przekazywać informacje zwrotne lub podejmować inne kroki, aby je skorygować. Aby przetestować wydajność tego systemu, OpenAI stwierdziło, że może celowo trenować źle wyrównane modele i sprawdzać, jak dobrze sztuczna inteligencja dopasowująca usuwa złe zachowania. Nowy zespół postawił sobie za cel rozwiązanie problemu wyrównania w ciągu czterech lat. 

„Chociaż jest to niezwykle ambitny cel i nie mamy gwarancji, że odniesiemy sukces, jesteśmy optymistami, że skoncentrowany, wspólny wysiłek może rozwiązać ten problem. Istnieje wiele pomysłów, które okazały się obiecujące we wstępnych eksperymentach, mamy coraz bardziej przydatne wskaźniki postępu i możemy wykorzystać dzisiejsze modele do empirycznego badania wielu z tych problemów” – podsumował zespół.

„Rozwiązanie problemu obejmuje dostarczenie dowodów i argumentów, które przekonują społeczność zajmującą się uczeniem maszynowym i bezpieczeństwem, że został on rozwiązany. Jeśli nie będziemy mieć wysokiego poziomu zaufania do naszych rozwiązań, mamy nadzieję, że nasze ustalenia pozwolą nam i społeczności odpowiednio zaplanować”.

Zaczniemy teraz budować nasz bunkier. ®

Znak czasu:

Więcej z Rejestr