Експерти попереджають про зникнення ШІ, якщо не вжити заходів зараз

Експерти попереджають про зникнення ШІ, якщо не вжити заходів зараз

Вихідний вузол: 2688105

Є ще один проклятий відкритий лист про ШІ. Цього разу велика група технічних лідерів, світил МЛ і навіть кількох знаменитостей закликали світ більш серйозно поставитися до ймовірних загроз рівня вимирання, які створює штучний інтелект. 

Більш влучно, заява, повідомлення від Центру безпеки ШІ (CAIS), підписане такими особами, як піонер ШІ Джеффрі Хінтон, генеральний директор OpenAI Сем Альтман, гуру шифрування Мартін Хеллман, технічний директор Microsoft Кевін Скотт та інші єдине оповідальне речення передбачення апокаліпсису, якщо його не помітять:

«Пом’якшення ризику вимирання від штучного інтелекту повинно бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна». 

Чому так коротко? Метою було «продемонструвати широку та зростаючу коаліцію вчених ШІ, технічних лідерів і професорів, які стурбовані ризиками зникнення ШІ. Нам потрібне широке визнання ставок, щоб ми могли проводити корисні політичні дискусії», — сказав директор CAIS Ден Хендрікс. Реєстр.

CAIS не згадує про штучний загальний інтелект (AGI). список ризиків ШІ, зазначаємо. І моделі нинішнього покоління, такі як ChatGPT, не є апокаліптичною загрозою для людства, сказав нам Хендрікс. Попередження цього тижня стосується того, що може статися далі.

«Типи катастрофічних загроз, про які йдеться в цій заяві, пов’язані з майбутніми вдосконаленими системами штучного інтелекту», — вважає Хендрікс. Він додав, що необхідний прогрес, необхідний для досягнення рівня «апокаліптичної загрози», може бути лише за два-десять років, а не за кілька десятиліть. «Нам потрібно підготуватися зараз. Однак системи штучного інтелекту, які можуть призвести до катастрофічних наслідків, не обов’язково повинні бути AGI», — сказав він. 

Тому що люди все одно цілком миролюбні

Один такий загроза це створення зброї або ідея про те, що хтось може перепрофілювати доброзичливий штучний інтелект на дуже руйнівний, наприклад, використовувати бота для виявлення наркотиків для розробки хімічної чи біологічної зброї або використовувати навчання з підкріпленням для машинного бою. Тим не менш, люди вже цілком здатні виготовляти ті види зброї, які можуть знищити людину, район, місто чи країну.

Нас попереджають, що штучний інтелект також можна навчити досягати своїх цілей без урахування індивідуальних чи суспільних цінностей. Це може «послабити» людей, які в кінцевому підсумку передадуть навички та здібності автоматизованим машинам, спричиняючи дисбаланс потужностей між контролерами ШІ та тими, хто витісняється автоматизацією, або використовуватися для поширення дезінформації, навмисно чи інакше.

Знову ж таки, жоден із залучених до цього штучного інтелекту не повинен бути загальним, і неважко побачити потенціал штучного інтелекту нинішнього покоління для розвитку ризиків, про які турбується CAIS. У вас може бути власна думка про те, наскільки справді руйнівним або здатним може бути або буде програмне забезпечення, і чого воно насправді може досягти.

Вкрай важливо, аргумент CAIS, вивчити й усунути негативні наслідки штучного інтелекту, які вже відчуваються, і перетворити ці існуючі наслідки на передбачення. «Оскільки ми боремося з безпосередніми ризиками штучного інтелекту... галузь штучного інтелекту та уряди в усьому світі також повинні серйозно протистояти ризику того, що майбутні штучні інтелекти можуть становити загрозу для існування людини», — Хендрікс. сказав в заяві.

«Світ успішно співпрацює, щоб зменшити ризики, пов’язані з ядерною війною. Такий самий рівень зусиль необхідний для усунення небезпек, які становлять майбутні системи штучного інтелекту», — закликав Хендрікс, підтримавши його список лідерів компаній, науковців і експертів. 

Маска немає на борту

Серед інших підписантів — головний науковець Google DeepMind Ян Гудфеллоу, філософи Девід Чалмерс і Деніел Деннетт, автор і блогер Сем Гарріс і колишній музикант/Ілон Маск Граймс. Якщо говорити про саму людину, то підпис Маска відсутній. 

Генеральний директор Twitter було серед тих, хто підписав ан відкритий лист опублікований Інститутом майбутнього життя в березні цього року, закликаючи а півроку перерви про навчання систем штучного інтелекту, «потужніших за GPT-4». Не дивно, що підпис генерального директора OpenAI Альтмана був відсутній Що конкретному листі, нібито тому, що він безпосередньо викликав його компанію. 

Відтоді випущено OpenAI власні попередження про загрози, які створює передовий штучний інтелект, і закликав до створення глобального наглядового органу, подібного до Міжнародного агентства з атомної енергії, для регулювання використання штучного інтелекту.

Це попередження та регулятивний виклик, у випадку історично невдалого часу, надійшли того самого дня, коли Альтман загрозою перетягнути OpenAI і ChatGPT з ним з ЄС через блок Закон про ШІ. Правила, які він підтримує, — це одне, але Альтман сказав Брюсселю, що їхня ідея обмеження штучного інтелекту була занадто далекою від нормативного мосту, велике вам спасибі. 

Європарламентарі відповідь заявивши, що вони не підпадають під диктування OpenAI, і що якщо компанія не може дотримуватися основних правил управління та прозорості, «їхні системи не підходять для європейського ринку», — заявив голландський депутат Європарламенту Кім ван Спаррентак. 

Ми звернулися до OpenAI з проханням надати роз’яснення щодо позиції Альтмана та оновимо цю історію, якщо отримаємо відповідь. ®

Часова мітка:

Більше від Реєстр