Є ще один проклятий відкритий лист про ШІ. Цього разу велика група технічних лідерів, світил МЛ і навіть кількох знаменитостей закликали світ більш серйозно поставитися до ймовірних загроз рівня вимирання, які створює штучний інтелект.
Більш влучно, заява, повідомлення від Центру безпеки ШІ (CAIS), підписане такими особами, як піонер ШІ Джеффрі Хінтон, генеральний директор OpenAI Сем Альтман, гуру шифрування Мартін Хеллман, технічний директор Microsoft Кевін Скотт та інші єдине оповідальне речення передбачення апокаліпсису, якщо його не помітять:
«Пом’якшення ризику вимирання від штучного інтелекту повинно бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна».
Чому так коротко? Метою було «продемонструвати широку та зростаючу коаліцію вчених ШІ, технічних лідерів і професорів, які стурбовані ризиками зникнення ШІ. Нам потрібне широке визнання ставок, щоб ми могли проводити корисні політичні дискусії», — сказав директор CAIS Ден Хендрікс. Реєстр.
CAIS не згадує про штучний загальний інтелект (AGI). список ризиків ШІ, зазначаємо. І моделі нинішнього покоління, такі як ChatGPT, не є апокаліптичною загрозою для людства, сказав нам Хендрікс. Попередження цього тижня стосується того, що може статися далі.
«Типи катастрофічних загроз, про які йдеться в цій заяві, пов’язані з майбутніми вдосконаленими системами штучного інтелекту», — вважає Хендрікс. Він додав, що необхідний прогрес, необхідний для досягнення рівня «апокаліптичної загрози», може бути лише за два-десять років, а не за кілька десятиліть. «Нам потрібно підготуватися зараз. Однак системи штучного інтелекту, які можуть призвести до катастрофічних наслідків, не обов’язково повинні бути AGI», — сказав він.
Тому що люди все одно цілком миролюбні
Один такий загроза це створення зброї або ідея про те, що хтось може перепрофілювати доброзичливий штучний інтелект на дуже руйнівний, наприклад, використовувати бота для виявлення наркотиків для розробки хімічної чи біологічної зброї або використовувати навчання з підкріпленням для машинного бою. Тим не менш, люди вже цілком здатні виготовляти ті види зброї, які можуть знищити людину, район, місто чи країну.
Нас попереджають, що штучний інтелект також можна навчити досягати своїх цілей без урахування індивідуальних чи суспільних цінностей. Це може «послабити» людей, які в кінцевому підсумку передадуть навички та здібності автоматизованим машинам, спричиняючи дисбаланс потужностей між контролерами ШІ та тими, хто витісняється автоматизацією, або використовуватися для поширення дезінформації, навмисно чи інакше.
Знову ж таки, жоден із залучених до цього штучного інтелекту не повинен бути загальним, і неважко побачити потенціал штучного інтелекту нинішнього покоління для розвитку ризиків, про які турбується CAIS. У вас може бути власна думка про те, наскільки справді руйнівним або здатним може бути або буде програмне забезпечення, і чого воно насправді може досягти.
Вкрай важливо, аргумент CAIS, вивчити й усунути негативні наслідки штучного інтелекту, які вже відчуваються, і перетворити ці існуючі наслідки на передбачення. «Оскільки ми боремося з безпосередніми ризиками штучного інтелекту... галузь штучного інтелекту та уряди в усьому світі також повинні серйозно протистояти ризику того, що майбутні штучні інтелекти можуть становити загрозу для існування людини», — Хендрікс. сказав в заяві.
«Світ успішно співпрацює, щоб зменшити ризики, пов’язані з ядерною війною. Такий самий рівень зусиль необхідний для усунення небезпек, які становлять майбутні системи штучного інтелекту», — закликав Хендрікс, підтримавши його список лідерів компаній, науковців і експертів.
Маска немає на борту
Серед інших підписантів — головний науковець Google DeepMind Ян Гудфеллоу, філософи Девід Чалмерс і Деніел Деннетт, автор і блогер Сем Гарріс і колишній музикант/Ілон Маск Граймс. Якщо говорити про саму людину, то підпис Маска відсутній.
Генеральний директор Twitter було серед тих, хто підписав ан відкритий лист опублікований Інститутом майбутнього життя в березні цього року, закликаючи а півроку перерви про навчання систем штучного інтелекту, «потужніших за GPT-4». Не дивно, що підпис генерального директора OpenAI Альтмана був відсутній Що конкретному листі, нібито тому, що він безпосередньо викликав його компанію.
Відтоді випущено OpenAI власні попередження про загрози, які створює передовий штучний інтелект, і закликав до створення глобального наглядового органу, подібного до Міжнародного агентства з атомної енергії, для регулювання використання штучного інтелекту.
Це попередження та регулятивний виклик, у випадку історично невдалого часу, надійшли того самого дня, коли Альтман загрозою перетягнути OpenAI і ChatGPT з ним з ЄС через блок Закон про ШІ. Правила, які він підтримує, — це одне, але Альтман сказав Брюсселю, що їхня ідея обмеження штучного інтелекту була занадто далекою від нормативного мосту, велике вам спасибі.
Європарламентарі відповідь заявивши, що вони не підпадають під диктування OpenAI, і що якщо компанія не може дотримуватися основних правил управління та прозорості, «їхні системи не підходять для європейського ринку», — заявив голландський депутат Європарламенту Кім ван Спаррентак.
Ми звернулися до OpenAI з проханням надати роз’яснення щодо позиції Альтмана та оновимо цю історію, якщо отримаємо відповідь. ®
- Розповсюдження контенту та PR на основі SEO. Отримайте посилення сьогодні.
- PlatoAiStream. Web3 Data Intelligence. Розширення знань. Доступ тут.
- Карбування майбутнього з Адріенн Ешлі. Доступ тут.
- Купуйте та продавайте акції компаній, які вийшли на IPO, за допомогою PREIPO®. Доступ тут.
- джерело: https://go.theregister.com/feed/www.theregister.com/2023/05/30/ai_human_extinction/
- : має
- :є
- : ні
- $UP
- 10
- a
- здібності
- МЕНЮ
- відсутнім
- академічний
- Achieve
- дію
- насправді
- доданий
- адреса
- просунутий
- досягнення
- агентство
- AGI
- AI
- Системи ШІ
- нібито
- пліч-о-пліч
- вже
- Також
- серед
- an
- та
- Інший
- ЕСТЬ
- аргумент
- навколо
- штучний
- штучний загальний інтелект
- штучний інтелект
- AS
- асоційований
- автор
- Автоматизований
- Автоматизація
- геть
- назад
- підтримка
- основний
- BE
- оскільки
- буття
- між
- Бот
- BRIDGE
- широкий
- Брюссель
- але
- by
- call
- званий
- прийшов
- CAN
- здатний
- випадок
- катастрофічний
- Викликати
- викликаючи
- знаменитості
- Центр
- Генеральний директор
- ChatGPT
- хімічний
- Місто
- CO
- боротьби з
- Приходити
- компанія
- стурбований
- Корпоративний
- може
- країна
- вирішальне значення
- CTO
- Небезпеки
- Данило
- Девід
- день
- десятиліття
- Deepmind
- демонструвати
- розвивати
- продиктовано
- безпосередньо
- Директор
- відкриття
- обговорення
- дезінформація
- переміщених
- do
- наркотик
- виявлення наркотиків
- нідерландська
- зусилля
- шифрування
- кінець
- енергія
- установа
- Ефір (ETH)
- EU
- Європейська
- Навіть
- еволюціонувати
- досліджувати
- experts
- вимирання
- далеко
- кілька
- відповідати
- для
- від
- майбутнє
- Загальне
- загальний інтелект
- Глобальний
- мета
- Цілі
- йде
- управління
- Уряду
- Зростання
- Мати
- he
- чути
- дуже
- його
- його
- історично
- Як
- Однак
- HTTPS
- людина
- Людство
- Людей
- ідея
- if
- дисбаланс
- Негайний
- Вплив
- in
- включати
- індивідуальний
- осіб
- промисловість
- Інститут
- Інтелект
- навмисно
- Міжнародне покриття
- в
- залучений
- Випущений
- IT
- ЙОГО
- JPG
- Кім
- Лідери
- вивчення
- лист
- рівень
- життя
- як
- список
- трохи
- світила
- Машинки для перманенту
- РОБОТИ
- Робить
- людина
- виробництво
- березня
- ринок
- Мартін
- Може..
- MEP
- повідомлення
- Microsoft
- Пом'якшити
- пом’якшення
- ML
- Моделі
- місяць
- більше
- багато
- Маск
- необхідно
- Необхідність
- необхідний
- потреби
- негативний
- наступний
- немає
- зараз
- ядерний
- of
- on
- ONE
- відкрити
- OpenAI
- Думки
- or
- Інше
- інші
- з
- Результати
- над
- власний
- Пандемії
- приватність
- Минуле
- людина
- піонер
- plato
- Інформація про дані Платона
- PlatoData
- політика
- бідні
- потенціал
- влада
- потужний
- прогнозування
- Готувати
- Головний
- пріоритет
- опублікований
- переслідувати
- RE
- досягати
- відноситься
- вважати
- Регулювати
- регуляторні
- навчання
- пов'язаний
- обмеження
- Reuters
- Risk
- ризики
- турів
- Правила
- s
- сейф
- Безпека
- Зазначений
- Сем
- то ж
- приказка
- вчений
- Вчені
- Скотт
- побачити
- кілька
- Повинен
- Підписанти
- підписаний
- з
- навички
- So
- суспільний
- Софтвер
- Хтось
- розмова
- поширення
- Заява
- Історія
- Успішно
- такі
- Опори
- Systems
- Приймати
- прийняті
- технології
- ніж
- дякувати
- Що
- Команда
- Майбутнє
- світ
- їх
- вони
- річ
- це
- На цьому тижні
- ті
- думка
- думки лідерів
- загроза
- загрози
- час
- синхронізація
- до
- занадто
- навчений
- Навчання
- прозорість
- по-справжньому
- ПЕРЕГЛЯД
- Генеральний директор Twitter
- два
- Типи
- Оновити
- переконуючи
- us
- використання
- використовуваний
- використання
- Цінності
- Ve
- дуже
- війна
- попередження
- було
- сторожовий
- we
- Зброя
- week
- Що
- який
- ВООЗ
- широкий
- широко поширений
- волі
- з
- без
- світ
- хвилювалися
- років
- ви
- зефірнет