Есть еще одно обреченное открытое письмо об искусственном интеллекте. На этот раз широкий круг технологических лидеров, светил машинного обучения и даже несколько знаменитостей подписались, чтобы призвать мир более серьезно отнестись к предполагаемым угрозам исчезновения, исходящим от искусственного интеллекта.
Более подходящим заявлением является сообщение Центра безопасности ИИ (CAIS), подписанное такими людьми, как пионер ИИ. Джеффри Хинтон, генеральный директор OpenAI Сэм Альтман, гуру шифрования Мартин Хеллман, технический директор Microsoft Кевин Скотт и другие. одно повествовательное предложение предсказывая апокалипсис, если он останется незамеченным:
«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война».
Почему так кратко? Цель состояла в том, чтобы «продемонстрировать широкую и растущую коалицию ученых в области ИИ, технических лидеров и профессоров, которые обеспокоены рисками исчезновения ИИ. Нам нужно широкое признание ставок, чтобы мы могли вести полезные политические обсуждения», — сказал директор CAIS Дэн Хендрикс. Регистр.
CAIS не упоминает общий искусственный интеллект (AGI) в своем список рисков ИИ, мы заметили. А модели текущего поколения, такие как ChatGPT, не представляют апокалиптической угрозы для человечества, сказал нам Хендрикс. Предупреждение на этой неделе касается того, что может произойти дальше.
«Типы катастрофических угроз, на которые ссылается это заявление, связаны с будущими передовыми системами искусственного интеллекта», — считает Хендрикс. Он добавил, что необходимые достижения, необходимые для достижения уровня «апокалиптической угрозы», могут произойти всего через два-десять лет, а не через несколько десятилетий. «Нам нужно готовиться сейчас. Однако системы ИИ, которые могут привести к катастрофическим последствиям, не обязательно должны быть ОИИ», — сказал он.
Потому что люди в любом случае совершенно миролюбивы
Один такой угроза — это вепонизация или идея о том, что кто-то может перепрофилировать доброжелательный ИИ, чтобы он был очень разрушительным, например, использовать бота для обнаружения наркотиков для разработки химического или биологического оружия или использовать обучение с подкреплением для машинного боя. Тем не менее, люди уже вполне способны производить такие виды оружия, которые могут уничтожить человека, район, город или страну.
Нас предупреждают, что ИИ также можно научить преследовать свои цели, не принимая во внимание индивидуальные или общественные ценности. Это может «ослабить» людей, которые в конечном итоге уступят свои навыки и способности автоматизированным машинам, вызвав дисбаланс власти между контроллерами ИИ и теми, кто вытеснен автоматизацией, или будет использоваться для распространения дезинформации, преднамеренно или в противном случае.
Опять же, ни один из ИИ, вовлеченных в это, не должен быть общим, и не так уж сложно увидеть потенциал развития ИИ текущего поколения, который будет создавать риски, о которых беспокоится CAIS. У вас может быть собственное мнение о том, насколько действительно разрушительным или способным может быть или будет программное обеспечение, и чего оно может на самом деле достичь.
Согласно аргументу CAIS, крайне важно изучить и устранить негативные последствия ИИ, которые уже ощущаются, и превратить эти существующие воздействия в предвидение. «Поскольку мы боремся с непосредственными рисками ИИ… индустрия ИИ и правительства во всем мире также должны серьезно противостоять риску того, что будущие ИИ могут представлять угрозу для человеческого существования», — Хендрикс. — сказал в своем заявлении.
«Мир успешно сотрудничал для снижения рисков, связанных с ядерной войной. Такой же уровень усилий необходим для устранения опасностей, связанных с будущими системами искусственного интеллекта», — призвал Хендрикс, поддержавший список корпоративных, академических и идейных лидеров.
Маска нет на борту
Среди других подписантов - главный научный сотрудник Google DeepMind Ян Гудфеллоу, философы Дэвид Чалмерс и Дэниел Деннетт, писатель и блогер Сэм Харрис и музыкант/бывшая Илона Маска Граймс. Говоря о самом человеке, подпись Маска отсутствует.
Генеральный директор Twitter законопроект среди тех, кто подписал Открой письмо опубликовано Институтом будущего жизни в марте этого года с призывом шестимесячная пауза по обучению систем ИИ «мощнее ГПТ-4». Неудивительно, что подпись генерального директора OpenAI Альтмана отсутствовала. который конкретное письмо, якобы потому, что оно напрямую вызывало его компанию.
С тех пор OpenAI выпустил собственные предупреждения об угрозах, создаваемых передовым ИИ, и призвал к созданию глобального наблюдательного органа, подобного Международному агентству по атомной энергии, для регулирования использования ИИ.
Этот предупредительный и регулирующий призыв, в случае исторически неудачного момента, прозвучал в тот же день, когда Альтман угрожает вытащить OpenAI, а вместе с ним и ChatGPT, из ЕС через блок Закон об ИИ. Правила, которые он поддерживает, — это одно, но Альтман сказал Брюсселю, что их идея об ограничении ИИ — это слишком нормативный мост, большое вам спасибо.
парламентарии ЕС ответ заявив, что они не будут диктоваться OpenAI, и что, если компания не сможет соблюдать основные правила управления и прозрачности, «их системы не подходят для европейского рынка», — заявил депутат Европарламента от Нидерландов Ким ван Спаррентак.
Мы запросили у OpenAI разъяснение позиции Альтмана и обновим эту историю, если получим ответ. ®
- SEO-контент и PR-распределение. Получите усиление сегодня.
- ПлатонАйСтрим. Анализ данных Web3. Расширение знаний. Доступ здесь.
- Чеканка будущего с Эдриенн Эшли. Доступ здесь.
- Покупайте и продавайте акции компаний PREIPO® с помощью PREIPO®. Доступ здесь.
- Источник: https://go.theregister.com/feed/www.theregister.com/2023/05/30/ai_human_extinction/
- :имеет
- :является
- :нет
- $UP
- 10
- a
- способности
- О нас
- отсутствующий
- академический
- Достигать
- Действие
- на самом деле
- добавленный
- адрес
- продвинутый
- достижения
- агентство
- AGI
- AI
- Системы искусственного интеллекта
- утверждаемый
- рядом
- уже
- Также
- среди
- an
- и
- Другой
- МЫ
- аргумент
- около
- искусственный
- искусственный общий интеллект
- искусственный интеллект
- AS
- связанный
- автор
- Автоматизированный
- автоматизация
- прочь
- назад
- поддержка
- основной
- BE
- , так как:
- не являетесь
- между
- Бот
- МОСТ
- широкий
- Брюссель
- но
- by
- призывают
- под названием
- пришел
- CAN
- способный
- случаев
- катастрофический
- Вызывать
- Причинение
- знаменитости
- Центр
- Генеральный директор
- ChatGPT
- химический
- Город
- CO
- борьбы с
- как
- Компания
- обеспокоенный
- Корпоративное
- может
- страна
- решающее значение
- CTO
- Опасности
- Дэниел
- Давид
- день
- десятилетия
- DeepMind
- демонстрировать
- развивать
- диктовали
- непосредственно
- директор
- открытие
- обсуждение
- дезинформация
- перемещенный
- do
- наркотик
- лекарств
- Голландский
- усилие
- шифрование
- конец
- энергетика
- создание
- Эфир (ETH)
- EU
- Европейская кухня
- Даже
- развивается
- исследовать
- эксперты
- вымирание
- далеко
- несколько
- соответствовать
- Что касается
- от
- будущее
- Общие
- общий интеллект
- Глобальный
- цель
- Цели
- идет
- управление
- Правительства
- Рост
- Есть
- he
- слышать
- очень
- его
- его
- исторически
- Как
- Однако
- HTTPS
- человек
- Человечество
- Людей
- идея
- if
- дисбаланс
- немедленная
- Воздействие
- in
- включают
- individual
- лиц
- промышленность
- Институт
- Интеллекта
- намеренно
- Мультиязычность
- в
- вовлеченный
- Выпущен
- IT
- ЕГО
- JPG
- Ким
- Лидеры
- изучение
- письмо
- уровень
- ЖИЗНЬЮ
- такое как
- Список
- мало
- корифеи
- Продукция
- ДЕЛАЕТ
- Создание
- человек
- производство
- Март
- рынок
- Мартин
- Май..
- Минприроды
- сообщение
- Microsoft
- смягчать
- смягчающим
- ML
- Модели
- Месяц
- БОЛЕЕ
- много
- Маск:
- необходимо
- Необходимость
- необходимый
- потребности
- отрицательный
- следующий
- нет
- сейчас
- ядерный
- of
- on
- ONE
- открытый
- OpenAI
- Мнения
- or
- Другое
- Другое
- внешний
- Результаты
- за
- собственный
- Пандемия
- особый
- мимо
- человек
- пионер
- Платон
- Платон Интеллектуальные данные
- ПлатонДанные
- политика
- состояния потока
- потенциал
- мощностью
- мощный
- прогнозирования
- Подготовить
- Основной
- приоритет
- опубликованный
- преследовать
- RE
- достигать
- понимается
- Считать
- регламентировать
- регуляторы
- усиление обучения
- Связанный
- ограничение
- Reuters
- Снижение
- рисках,
- туры
- условиями,
- s
- безопасный
- Сохранность
- Сказал
- Сэм
- то же
- поговорка
- Ученый
- Ученые
- Скотт
- посмотреть
- несколько
- должен
- Подписанты
- подписанный
- с
- навыки
- So
- социальный
- Software
- Кто-то
- Говоря
- распространение
- заявление
- История
- Успешно
- такие
- Поддержка
- системы
- взять
- приняты
- технологии
- чем
- спасибо
- который
- Ассоциация
- Будущее
- мир
- их
- они
- задача
- этой
- На этой неделе
- те
- мысль
- мыслители
- угроза
- угрозы
- время
- синхронизация
- в
- слишком
- специалистов
- Обучение
- Прозрачность
- по-настоящему
- ОЧЕРЕДЬ
- Генеральный директор Twitter
- два
- Типы
- Обновление ПО
- убеждая
- us
- использование
- используемый
- через
- Наши ценности
- Ve
- очень
- войны
- предупреждение
- законопроект
- сторожевой пес
- we
- Оружие
- неделя
- Что
- который
- КТО
- широкий
- широко распространена
- будете
- без
- Мир
- беспокоиться
- лет
- являетесь
- зефирнет