ChatGPT не може думати — свідомість є чимось зовсім іншим, ніж сучасний ШІ

ChatGPT не може думати — свідомість є чимось зовсім іншим, ніж сучасний ШІ

Вихідний вузол: 2674703

Світ був шокований швидкими темпами прогресу ChatGPT та інший штучний інтелект, створений за допомогою так званих великих мовних моделей (LLM). Ці системи можуть створювати текст, який, здається, відображає думку, розуміння і навіть творчість.

Але чи справді ці системи можуть мислити й розуміти? На це питання не можна відповісти завдяки технологічному прогресу, але ретельний філософський аналіз і аргументація говорять нам, що відповідь – ні. І без опрацювання цих філософських питань ми ніколи не зможемо повністю зрозуміти небезпеки та переваги революції ШІ.

У 1950 році батько сучасної комп’ютерної техніки Алан Тюрінг опублікував статтю який запропонував спосіб визначити, чи думає комп’ютер. Тепер це називається «тестом Тюрінга». Тьюрінг уявив собі людину, яка веде розмову з двома співрозмовниками, прихованими від очей: один — людина, інший — комп’ютер. Гра полягає в тому, щоб визначити, що є що.

Якщо комп’ютер може обдурити 70 відсотків суддів під час 5-хвилинної розмови, щоб вони подумали, що це людина, комп’ютер успішно проходить тест. Чи пройде тест Тюрінга — те, що зараз здається неминучим — покаже, що ШІ досяг розуму та розуміння?

Шаховий виклик

Тьюрінг відкинув це питання як безнадійно розпливчасте і замінив його прагматичним визначенням «думки», згідно з яким думати означає просто пройти тест.

Однак Тьюрінг помилився, коли сказав, що єдиним чітким поняттям «розуміння» є суто поведінкове поняття про проходження його тесту. Хоча цей спосіб мислення зараз домінує в когнітивній науці, існує також чітке повсякденне поняття «розуміння», яке пов’язане з свідомість. Зрозуміти в цьому сенсі означає свідомо осягнути деяку правду про реальність.

В 1997, Deep Blue AI переміг шахового гросмейстера Гаррі Каспарова. Виходячи з суто поведінкової концепції розуміння, Deep Blue мав знання про шахову стратегію, яке перевершує будь-яку людину. Але воно не було свідомим: у нього не було ні почуттів, ні переживань.

Люди свідомо розуміють правила гри в шахи та обґрунтування стратегії. Deep Blue, навпаки, був безчуттєвим механізмом, який був навчений, щоб добре працювати в грі. Подібним чином ChatGPT — це безчуттєвий механізм, який був навчений на величезній кількості створених людьми даних для створення вмісту, який виглядає так, ніби його написала людина.

Він свідомо не розуміє значення слів, які викидає. Якщо «думка» означає акт свідомого відображення, то у ChatGPT немає думок ні про що.

Час платити

Як я можу бути настільки впевненим, що ChatGPT не в свідомості? У 1990-х роках нейробіолог Крістоф Кох поставити філософа Девіда Чалмерса в ящик гарного вина що вчені повністю визначили б «нейронні кореляти свідомості» за 25 років.

Під цим він мав на увазі, що вони визначили форми мозкової активності, необхідні й достатні для свідомого досвіду. Настав час Коху розплатитися, оскільки немає єдиної думки, що це сталося.

Це відбувається тому свідомість не можна побачити, заглянувши всередину вашої голови. У своїх спробах знайти зв'язок між мозковою активністю та досвідом нейробіологи повинні покладатися на свідчення своїх піддослідних або на зовнішні маркери свідомості. Але існує кілька способів інтерпретації даних.

Деякі вчені вірять, що існує тісний зв’язок між свідомістю та рефлексивним пізнанням — здатністю мозку отримувати доступ до інформації та використовувати її для прийняття рішень. Це змушує їх думати, що префронтальна кора головного мозку, де відбуваються процеси високого рівня отримання знань, суттєво бере участь у всьому свідомому досвіді. Інші це заперечують, сперечаючись замість цього це відбувається в будь-якій місцевій області мозку, де відбувається відповідна сенсорна обробка.

Вчені добре розуміють основну хімію мозку. Ми також досягли прогресу в розумінні функцій високого рівня різних частин мозку. Але ми майже не знаємо про дещицю між ними: як високорівневе функціонування мозку реалізується на клітинному рівні.

Люди дуже захоплюються потенціалом сканування для виявлення роботи мозку. Але фМРТ (функціональна магнітно-резонансна томографія) має дуже низьку роздільну здатність: кожен піксель на скануванні мозку відповідає 5.5 мільйонам нейронів, а це означає, що існує обмеження щодо того, скільки деталей можуть показати ці сканування.

Я вірю, що прогрес у свідомості відбудеться, коли ми краще зрозуміємо, як працює мозок.

Пауза в розвитку

Як я стверджую у своїй майбутній книзі чому Призначення Всесвіту, свідомість, мабуть, еволюціонувала, оскільки змінила поведінку. Системи зі свідомістю повинні поводитися інакше, а отже, виживати краще, ніж системи без свідомості.

Якби вся поведінка визначалася хімією та фізикою, що лежить в основі, природний відбір не мав би мотивації робити організми свідомими; ми б еволюціонували як безчуттєві механізми виживання.

Тому я впевнений, що коли ми дізнаємося більше про роботу мозку, ми точно визначимо, які його області втілюють свідомість. Це пояснюється тим, що ці регіони демонструватимуть поведінку, яку неможливо пояснити відомими на даний момент хімією та фізикою. вже, деякі нейробіологи шукають потенційно нові пояснення свідомості, щоб доповнити основні рівняння фізики.

Хоча обробка LLM зараз надто складна для повного розуміння, ми знаємо, що в принципі її можна передбачити з відомої фізики. Виходячи з цього, ми можемо впевнено стверджувати, що ChatGPT не є свідомим.

Штучний інтелект створює багато небезпек, і я повністю підтримую нещодавній заклик десятків тисяч людей, у тому числі технічних лідерів Стіва Возняка та Ілона Маска, зробити паузу розробки для вирішення проблем безпеки. Потенціал для шахрайства, наприклад, величезний. Однак аргумент про те, що найближчі нащадки нинішніх систем штучного інтелекту будуть надрозумними і, отже, серйозною загрозою для людства, є передчасним.

Це не означає, що поточні системи ШІ не небезпечні. Але ми не можемо правильно оцінити загрозу, якщо не класифікуємо її точно. LLMs не розумні. Це системи, навчені створювати зовнішній вигляд людського інтелекту. Страшно, але не так страшно.Бесіда

Ця стаття перевидана з Бесіда за ліцензією Creative Commons. Читати оригінал статті.

Зображення Фото: Герд Альтман від Pixabay

Часова мітка:

Більше від Хаб сингулярності