Эксперты предупреждают о вымирании из-за ИИ, если не принять меры сейчас

Эксперты предупреждают о вымирании из-за ИИ, если не принять меры сейчас

Исходный узел: 2688105

Есть еще одно обреченное открытое письмо об искусственном интеллекте. На этот раз широкий круг технологических лидеров, светил машинного обучения и даже несколько знаменитостей подписались, чтобы призвать мир более серьезно отнестись к предполагаемым угрозам исчезновения, исходящим от искусственного интеллекта. 

Более подходящим заявлением является сообщение Центра безопасности ИИ (CAIS), подписанное такими людьми, как пионер ИИ. Джеффри Хинтон, генеральный директор OpenAI Сэм Альтман, гуру шифрования Мартин Хеллман, технический директор Microsoft Кевин Скотт и другие. одно повествовательное предложение предсказывая апокалипсис, если он останется незамеченным:

«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война». 

Почему так кратко? Цель состояла в том, чтобы «продемонстрировать широкую и растущую коалицию ученых в области ИИ, технических лидеров и профессоров, которые обеспокоены рисками исчезновения ИИ. Нам нужно широкое признание ставок, чтобы мы могли вести полезные политические обсуждения», — сказал директор CAIS Дэн Хендрикс. Регистр.

CAIS не упоминает общий искусственный интеллект (AGI) в своем список рисков ИИ, мы заметили. А модели текущего поколения, такие как ChatGPT, не представляют апокалиптической угрозы для человечества, сказал нам Хендрикс. Предупреждение на этой неделе касается того, что может произойти дальше.

«Типы катастрофических угроз, на которые ссылается это заявление, связаны с будущими передовыми системами искусственного интеллекта», — считает Хендрикс. Он добавил, что необходимые достижения, необходимые для достижения уровня «апокалиптической угрозы», могут произойти всего через два-десять лет, а не через несколько десятилетий. «Нам нужно готовиться сейчас. Однако системы ИИ, которые могут привести к катастрофическим последствиям, не обязательно должны быть ОИИ», — сказал он. 

Потому что люди в любом случае совершенно миролюбивы

Один такой угроза — это вепонизация или идея о том, что кто-то может перепрофилировать доброжелательный ИИ, чтобы он был очень разрушительным, например, использовать бота для обнаружения наркотиков для разработки химического или биологического оружия или использовать обучение с подкреплением для машинного боя. Тем не менее, люди уже вполне способны производить такие виды оружия, которые могут уничтожить человека, район, город или страну.

Нас предупреждают, что ИИ также можно научить преследовать свои цели, не принимая во внимание индивидуальные или общественные ценности. Это может «ослабить» людей, которые в конечном итоге уступят свои навыки и способности автоматизированным машинам, вызвав дисбаланс власти между контроллерами ИИ и теми, кто вытеснен автоматизацией, или будет использоваться для распространения дезинформации, преднамеренно или в противном случае.

Опять же, ни один из ИИ, вовлеченных в это, не должен быть общим, и не так уж сложно увидеть потенциал развития ИИ текущего поколения, который будет создавать риски, о которых беспокоится CAIS. У вас может быть собственное мнение о том, насколько действительно разрушительным или способным может быть или будет программное обеспечение, и чего оно может на самом деле достичь.

Согласно аргументу CAIS, крайне важно изучить и устранить негативные последствия ИИ, которые уже ощущаются, и превратить эти существующие воздействия в предвидение. «Поскольку мы боремся с непосредственными рисками ИИ… индустрия ИИ и правительства во всем мире также должны серьезно противостоять риску того, что будущие ИИ могут представлять угрозу для человеческого существования», — Хендрикс. — сказал в своем заявлении.

«Мир успешно сотрудничал для снижения рисков, связанных с ядерной войной. Такой же уровень усилий необходим для устранения опасностей, связанных с будущими системами искусственного интеллекта», — призвал Хендрикс, поддержавший список корпоративных, академических и идейных лидеров. 

Маска нет на борту

Среди других подписантов - главный научный сотрудник Google DeepMind Ян Гудфеллоу, философы Дэвид Чалмерс и Дэниел Деннетт, писатель и блогер Сэм Харрис и музыкант/бывшая Илона Маска Граймс. Говоря о самом человеке, подпись Маска отсутствует. 

Генеральный директор Twitter законопроект среди тех, кто подписал Открой письмо опубликовано Институтом будущего жизни в марте этого года с призывом шестимесячная пауза по обучению систем ИИ «мощнее ГПТ-4». Неудивительно, что подпись генерального директора OpenAI Альтмана отсутствовала. который конкретное письмо, якобы потому, что оно напрямую вызывало его компанию. 

С тех пор OpenAI выпустил собственные предупреждения об угрозах, создаваемых передовым ИИ, и призвал к созданию глобального наблюдательного органа, подобного Международному агентству по атомной энергии, для регулирования использования ИИ.

Этот предупредительный и регулирующий призыв, в случае исторически неудачного момента, прозвучал в тот же день, когда Альтман угрожает вытащить OpenAI, а вместе с ним и ChatGPT, из ЕС через блок Закон об ИИ. Правила, которые он поддерживает, — это одно, но Альтман сказал Брюсселю, что их идея об ограничении ИИ — это слишком нормативный мост, большое вам спасибо. 

парламентарии ЕС ответ заявив, что они не будут диктоваться OpenAI, и что, если компания не сможет соблюдать основные правила управления и прозрачности, «их системы не подходят для европейского рынка», — заявил депутат Европарламента от Нидерландов Ким ван Спаррентак. 

Мы запросили у OpenAI разъяснение позиции Альтмана и обновим эту историю, если получим ответ. ®

Отметка времени:

Больше от Регистр