Главный научный сотрудник Meta в области искусственного интеллекта отвергает экзистенциальную угрозу искусственного интеллекта

Главный научный сотрудник Meta в области искусственного интеллекта отвергает экзистенциальную угрозу искусственного интеллекта

Исходный узел: 2951498

Глобальные дебаты об искусственном интеллекте (ИИ) достигли критической точки. Недавние заявления тяжеловесов отрасли свидетельствуют о резком расхождении во мнениях. Ян ЛеКун, главный научный сотрудник Meta по искусственному интеллекту, стоит на одном конце, утверждая безопасность искусственного интеллекта в его нынешней форме.

Напротив, доктор Джеффри Хинтон, которого ласково называют «Крестным отцом искусственного интеллекта», ушел из Google, чтобы пролить свет на свои насущные проблемы.

Великие дебаты об искусственном интеллекте

В своем интервью в случае с Financial Times Лекун не стеснялся слов. Он назвал опасения по поводу экзистенциального риска ИИ «преждевременными». Далее он пояснил, что идея о том, что ИИ может уничтожить человечество, «абсурдна». Однако такая перспектива делает текущие дебаты вокруг ИИ настолько захватывающими.

Он подчеркивает нынешние ограничения ИИ: «Дебаты о экзистенциальном риске будут очень преждевременными, пока мы не разработаем систему, способную соперничать с кошкой с точки зрения способностей к обучению, которых у нас нет на данный момент». Кроме того, ЛеКун подчеркнул, что нынешние модели искусственного интеллекта должны понимать тонкости нашего мира. Они не могут по-настоящему планировать или рассуждать.

Однако такой оптимизм разделяют и за пределами сообщества ИИ. доктора Хинтона Вылет из от Google и последующие разъяснения подчеркивают это расхождение. Его непосредственные опасения включают потенциал ИИ. злоупотреблять на онлайн-платформах. Он опасается, что ИИ может наводнить Интернет фальшивыми фотографиями, видео и текстом, что усложнит различие между реальным контентом и контентом, созданным ИИ.

Помимо этих прямых последствий, более широкие опасения Хинтона вращаются вокруг социального воздействия ИИ, в частности, потенциальной потери рабочих мест и эскалации гонки вооружений в области ИИ. Последняя проблема напрямую касается разработки летальных автономных систем вооружения (СОЛН).

Ошибки и злоупотребления ИИ

Еще одним аспектом разговора об ИИ является его потенциальное неправильное использование. Например, всемирно известная криптовалютная платформа Binance оказалась в центре клеветнической кампании, созданной искусственным интеллектом. ИИ ошибочно связал своего генерального директора Чанпэна «CZ» Чжао с молодежной организацией Коммунистической партии Китая.

Более того, инструменты искусственного интеллекта продемонстрировали потенциал для создания фейковых новостей, что вызвало серьезную обеспокоенность в средствах массовой информации. Например, Daily Mail была введена в заблуждение, опубликовав статью, основанную на информации, сгенерированной искусственным интеллектом, которую позже отозвала. Эти примеры подчеркивают опасения, против которых выступают такие эксперты, как доктор Хинтон.

Призывы к глобальной осторожности

Хотя индивидуальные голоса важны, коллективное признание еще более красноречиво. Несколько экспертов в области искусственного интеллекта, в том числе руководители таких организаций, как OpenAI и Google DeepMind, совместно выразили обеспокоенность. Их совместное заявление, краткое, но мощное, гласит: «Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война».

Однако путь вперед мог бы быть более очевидным даже в рамках этого коллективного призыва к осторожности. Генеральный директор OpenAI Сэм Альтман дал представление об этой сложной истории. Пока он предстал перед Сенатский слушание Говоря о регулировании ИИ, он подчеркнул важность сдержек и противовесов без остановки инноваций.

Двигаясь вперед с ИИ

Управление этими дебатами будет иметь решающее значение, поскольку общество глубже погружается в эпоху доминирования ИИ. В то время как лидеры отрасли, такие как ЛеКун, выражают уверенность в позитивной траектории развития ИИ, голоса предостережения, подобные голосу Хинтона, напоминают нам о предстоящих проблемах.

Нахождение хрупкого баланса между инновациями и регулированием будет иметь решающее значение. Продолжающийся дискурс вокруг потенциальных опасностей и возможностей ИИ носит более чем академический характер, поскольку он сыграет определяющую роль в том, как человечество будет использовать эту преобразующую технологию.

Отметка времени:

Больше от МетаНьюс