ChatGPT не может думать: сознание — это нечто совершенно отличное от современного ИИ

ChatGPT не может думать: сознание — это нечто совершенно отличное от современного ИИ

Исходный узел: 2674703

Мир был шокирован быстрыми темпами прогресса с ChatGPT и другой искусственный интеллект, созданный с помощью так называемых больших языковых моделей (LLM). Эти системы могут создавать текст, который, кажется, отображает мысль, понимание и даже творчество.

Но могут ли эти системы действительно думать и понимать? Это не тот вопрос, на который можно ответить с помощью технического прогресса, но тщательный философский анализ и аргументация говорят нам, что ответ отрицательный. И без проработки этих философских вопросов мы никогда не сможем полностью понять опасности и преимущества революции ИИ.

В 1950 году отец современных компьютеров Алан Тьюринг опубликовал статью это изложило способ определить, думает ли компьютер. Теперь это называется «тестом Тьюринга». Тьюринг представил себе человека, разговаривающего с двумя скрытыми от глаз собеседниками: один — человеком, другой — компьютером. Игра заключается в том, чтобы выяснить, что есть что.

Если компьютер может обмануть 70 процентов судей за 5-минутный разговор, заставив их думать, что это человек, компьютер проходит тест. Покажет ли прохождение теста Тьюринга — то, что сейчас кажется неизбежным, — что ИИ достиг мышления и понимания?

Шахматный вызов

Тьюринг отклонил этот вопрос как безнадежно расплывчатый и заменил его прагматическим определением «мысли», в соответствии с которым думать означает просто пройти тест.

Однако Тьюринг ошибался, когда говорил, что единственное ясное понятие «понимания» — это чисто поведенческое понимание прохождения теста. Хотя этот способ мышления в настоящее время доминирует в когнитивной науке, существует также четкое, повседневное понятие «понимание», которое связано с сознание. Понять в этом смысле значит сознательно усвоить некоторую истину о реальности.

В 1997, ИИ Deep Blue обыграл гроссмейстера Гарри Каспарова. Если исходить из чисто поведенческой концепции понимания, то Deep Blue обладал знаниями о шахматной стратегии, которые превосходят любого человека. Но оно не было сознательным: у него не было ни чувств, ни переживаний.

Люди сознательно понимают правила игры в шахматы и смысл стратегии. Deep Blue, напротив, был бесчувственным механизмом, обученным хорошо работать в игре. Точно так же ChatGPT — это бесчувственный механизм, который был обучен на огромном количестве данных, созданных человеком, для создания контента, который выглядит так, как будто он был написан человеком.

Он сознательно не понимает значения слов, которые выплевывает. Если «мысль» означает акт сознательного размышления, то у ChatGPT нет мыслей ни о чем.

Время платить

Как я могу быть уверен, что ChatGPT не в сознании? В 1990-х годах нейробиолог Кристоф Кох поспорил с философом Дэвидом Чалмерсом на ящик хорошего вина что ученые полностью определили бы «нейронные корреляты сознания» за 25 лет.

Под этим он подразумевал, что они определили бы формы мозговой активности, необходимые и достаточные для сознательного опыта. Пришло время Коху заплатить, так как нет единого мнения, что это произошло.

Это потому что сознание нельзя наблюдать, заглянув внутрь своей головы. В своих попытках найти связь между мозговой активностью и опытом нейробиологи должны полагаться на показания испытуемых или на внешние маркеры сознания. Но есть несколько способов интерпретации данных.

Некоторые ученые считают, что существует тесная связь между сознанием и рефлексивным познанием — способностью мозга получать доступ к информации и использовать ее для принятия решений. Это заставляет их думать, что префронтальная кора головного мозга, где происходят высокоуровневые процессы приобретения знаний, по существу участвует во всех сознательных переживаниях. Другие отрицают это, вместо этого утверждая, что это происходит в любой локальной области мозга, где происходит соответствующая сенсорная обработка.

Ученые хорошо понимают основы химии мозга. Мы также добились прогресса в понимании высокоуровневых функций различных участков мозга. Но мы почти ничего не знаем о том, что находится между ними: как высокоуровневое функционирование мозга реализуется на клеточном уровне.

Люди очень воодушевлены потенциалом сканирования для выявления работы мозга. Но фМРТ (функциональная магнитно-резонансная томография) имеет очень низкое разрешение: каждый пиксель на скане мозга соответствует 5.5 миллионам нейронов, а это означает, что существует предел того, насколько подробно эти сканы могут показать.

Я верю, что прогресс в области сознания наступит, когда мы лучше поймем, как работает мозг.

Пауза в развитии

Как я утверждаю в своей будущей книге Почему? Цель Вселенной, сознание, должно быть, развилось, потому что оно изменило поведение. Системы с сознанием должны вести себя по-другому и, следовательно, выживать лучше, чем системы без сознания.

Если бы все поведение определялось лежащими в его основе химией и физикой, у естественного отбора не было бы мотивации сделать организмы сознательными; мы развились бы как бесчувственные механизмы выживания.

Ставлю на то, что по мере того, как мы будем узнавать больше о подробностях работы мозга, мы точно определим, какие области мозга воплощают сознание. Это связано с тем, что эти области будут демонстрировать поведение, которое не может быть объяснено известными в настоящее время химией и физикой. Уже, некоторые нейробиологи ищут потенциальные новые объяснения сознания, чтобы дополнить основные уравнения физики.

Хотя обработка LLM в настоящее время слишком сложна для полного понимания, мы знаем, что в принципе ее можно предсказать на основе известной физики. На этом основании мы можем с уверенностью утверждать, что ChatGPT не обладает сознанием.

ИИ таит в себе много опасностей, и я полностью поддерживаю недавний призыв десятков тысяч людей, в том числе технологических лидеров Стива Возняка и Илона Маска: сделать паузу разработки для решения проблем безопасности. Потенциал мошенничества, например, огромен. Однако аргумент о том, что ближайшие потомки нынешних систем ИИ будут сверхразумными и, следовательно, представлять серьезную угрозу человечеству, преждевременн.

Это не означает, что современные системы ИИ не опасны. Но мы не можем правильно оценить угрозу, если не классифицируем ее точно. LLM не умны. Это системы, обученные придавать внешнему виду человеческий интеллект. Страшно, но не настолько.Беседа

Эта статья переиздана из Беседа под лицензией Creative Commons. Прочтите оригинал статьи.

Изображение Фото: Герд Альтманн от Pixabay

Отметка времени:

Больше от Singularity Hub