OpenAI призывает глобальное агентство регулировать сверхразум

OpenAI призывает глобальное агентство регулировать сверхразум

Исходный узел: 2674707

По словам топ-менеджеров OpenAI, производителя GPT-4, международное агентство должно отвечать за инспектирование и аудит искусственного общего интеллекта, чтобы гарантировать безопасность технологии для человечества.

Генеральный директор Сэм Альтман и соучредители Грег Брокман и Илья Суцкевер заявили, что «вероятно» то, что ИИ получит экстраординарные способности, превосходящие человеческие в течение следующего десятилетия.

«С точки зрения как потенциальных преимуществ, так и недостатков, сверхразум будет более мощным, чем другие технологии, с которыми человечеству приходилось бороться в прошлом. У нас может быть значительно более процветающее будущее; но мы должны управлять рисками, чтобы попасть туда», — трио писал во вторник.

Они утверждают, что затраты на создание такой мощной технологии только уменьшаются, поскольку все больше людей работают над ее продвижением. Чтобы контролировать прогресс, разработка должна контролироваться международной организацией, такой как Международное агентство по атомной энергии (МАГАТЭ).

МАГАТЭ было создано в 1957 году, когда правительства опасались разработки ядерного оружия во время холодной войны. Агентство помогает регулировать ядерную энергетику и устанавливает меры безопасности, чтобы ядерная энергия не использовалась в военных целях.

«Нам, вероятно, в конечном итоге понадобится что-то вроде МАГАТЭ для усилий по сверхразведке; любые усилия, превышающие определенный порог возможностей (или ресурсов, таких как вычислительные ресурсы), должны быть подчинены международному органу, который может инспектировать системы, требовать аудита, тестировать на соответствие стандартам безопасности, устанавливать ограничения на степени развертывания и уровни безопасности и т. д. " Они сказали.

Такая группа будет отвечать за отслеживание использования вычислений и энергии, жизненно важных ресурсов, необходимых для обучения и запуска больших и мощных моделей.

«Мы могли бы коллективно согласиться с тем, что скорость роста возможностей ИИ на переднем крае ограничена определенной скоростью в год», — предложило высшее руководство OpenAI. Компании должны будут добровольно согласиться на проверки, и агентство должно сосредоточиться на «снижении экзистенциального риска», а не на вопросах регулирования, которые определяются и устанавливаются отдельными законами страны.

На прошлой неделе Альтман выдвинул идею о том, что компании должны получить лицензию на создание моделей с расширенными возможностями выше определенного порога в Сенате. слух. Позже его предложение подверглось критике, поскольку оно могло несправедливо повлиять на системы искусственного интеллекта, созданные небольшими компаниями или сообществом открытого исходного кода, которые с меньшей вероятностью будут располагать ресурсами для выполнения требований законодательства.

«Мы считаем важным позволить компаниям и проектам с открытым исходным кодом разрабатывать модели ниже значительного порога возможностей, без того регулирования, которое мы здесь описываем (включая обременительные механизмы, такие как лицензии или аудиты)», — сказали они.

Илон Маск в конце марта был одним из 1,000 человек, подписавших открытое письмо, в котором содержится призыв к шестимесячной паузе в разработке и обучении ИИ, более мощного, чем GPT4, из-за потенциальных рисков для человечества. подтвердил в середине апреля это делал.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а связанные с ними риски будут управляемыми», — говорится в письме.

Генеральный директор Alphabet и Google Сундар Пичаи написал статью в Financial Times на выходных: поговорка: «Я по-прежнему считаю, что ИИ слишком важен, чтобы его не регулировать, и слишком важен, чтобы не регулировать должным образом». ®

Отметка времени:

Больше от Регистр