OpenAI закликає глобальне агентство регулювати суперінтелект

OpenAI закликає глобальне агентство регулювати суперінтелект

Вихідний вузол: 2674707

За словами топ-менеджерів виробника GPT-4 OpenAI, міжнародне агентство має відповідати за інспектування та аудит загального штучного інтелекту, щоб переконатися, що технологія безпечна для людства.

Генеральний директор Сем Олтман і співзасновники Грег Брокман та Ілля Сацкевер заявили, що «можна уявити», що протягом наступного десятиліття ШІ отримає надзвичайні здібності, які перевищать людські.

«З точки зору потенційних плюсів і мінусів, суперінтелект буде потужнішим, ніж інші технології, з якими людству доводилося боротися в минулому. Ми можемо мати значно більш процвітаюче майбутнє; але ми повинні керувати ризиками, щоб досягти цього», – тріо пише у вівторок.

Вони стверджували, що витрати на створення такої потужної технології лише зменшуються, оскільки більше людей працюють над її вдосконаленням. Щоб контролювати прогрес, розробка повинна проходити під наглядом міжнародної організації, наприклад Міжнародного агентства з атомної енергії (МАГАТЕ).

МАГАТЕ було створено в 1957 році в той час, коли уряди побоювалися, що ядерна зброя буде розроблена під час холодної війни. Агентство допомагає регулювати ядерну енергетику та встановлює гарантії, щоб ядерна енергія не використовувалася у військових цілях.

«Імовірно, з часом нам знадобиться щось на кшталт МАГАТЕ для суперрозвідувальних зусиль; будь-які зусилля, що перевищують певний поріг можливостей (або ресурсів, як-от обчислювальних), повинні бути підпорядковані міжнародним органам, які можуть перевіряти системи, вимагати аудитів, тестувати на відповідність стандартам безпеки, встановлювати обмеження щодо ступенів розгортання та рівнів безпеки тощо, " вони сказали.

Така група буде відповідати за відстеження використання обчислювальної техніки та енергії, життєво важливих ресурсів, необхідних для навчання та запуску великих і потужних моделей.

«Ми могли б колективно погодитися, що швидкість зростання можливостей штучного інтелекту на кордоні обмежена певною швидкістю на рік», — запропонувало керівництво OpenAI. Компанії повинні будуть добровільно погоджуватися на перевірки, а агентство має зосередитися на «зменшенні ризику існування», а не на регулятивних питаннях, які визначаються та встановлюються окремими законами країни.

Минулого тижня Альтман висунув ідею про те, що компанії повинні отримувати ліцензію на створення моделей із розширеними можливостями вище певного порогу в Сенаті. слух. Пізніше його пропозицію розкритикували, оскільки вона могла б несправедливо вплинути на системи штучного інтелекту, створені невеликими компаніями або спільнотою з відкритим кодом, яка, швидше за все, не матиме ресурсів для виконання юридичних вимог.

«Ми вважаємо, що важливо дозволити компаніям і проектам з відкритим кодом розробляти моделі, які не мають значного порогу можливостей, без такого регулювання, яке ми описуємо тут (включно з обтяжливими механізмами, як-от ліцензії чи аудити)», — сказали вони.

Наприкінці березня Ілон Маск був одним із 1,000 підписантів відкритого листа, який закликав до шестимісячної паузи в розробці та навчанні штучного інтелекту, більш потужного, ніж GPT4, через потенційні ризики для людства, те, що Альтман підтверджений в середині квітня це робив.

«Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики — керованими», — йдеться в листі.

Генеральний директор Alphabet і Google Сундар Пічаї написав матеріал у Financial Times на вихідних, приказка: «Я все ще вважаю, що штучний інтелект надто важливий, щоб не регулювати його, і надто важливий, щоб не регулювати належним чином». ®

Часова мітка:

Більше від Реєстр