ChatGPT nie może myśleć — świadomość to coś zupełnie innego niż dzisiejsza sztuczna inteligencja

ChatGPT nie może myśleć — świadomość to coś zupełnie innego niż dzisiejsza sztuczna inteligencja

Węzeł źródłowy: 2674703

Na całym świecie nastąpił szok w szybkim tempie postępu ChatGPT i inna sztuczna inteligencja stworzona za pomocą tak zwanych dużych modeli językowych (LLM). Systemy te mogą generować tekst, który wydaje się wyrażać myśl, zrozumienie, a nawet kreatywność.

Ale czy te systemy naprawdę potrafią myśleć i rozumieć? Nie jest to pytanie, na które można odpowiedzieć dzięki postępowi technologicznemu, ale uważna analiza filozoficzna i argumenty mówią nam, że odpowiedź brzmi „nie”. Bez przepracowania tych filozoficznych kwestii nigdy w pełni nie zrozumiemy niebezpieczeństw i korzyści płynących z rewolucji AI.

W 1950 roku ojciec nowoczesnych komputerów, Alan Turing, opublikował artykuł który określa sposób określania, czy komputer myśli. Nazywa się to teraz „testem Turinga”. Turing wyobraził sobie człowieka pogrążonego w rozmowie z dwoma niewidocznymi rozmówcami: jeden inny człowiek, drugi komputer. Gra polega na ustaleniu, która jest która.

Jeśli komputer może oszukać 70 procent sędziów podczas 5-minutowej rozmowy, aby pomyśleli, że to osoba, komputer zdaje egzamin. Czy zdanie testu Turinga – coś, co wydaje się nieuchronne – pokazałoby, że sztuczna inteligencja osiągnęła zdolność myślenia i rozumienia?

Szachy Wyzwanie

Turing odrzucił to pytanie jako beznadziejnie niejasne i zastąpił je pragmatyczną definicją „myśli”, zgodnie z którą myślenie oznacza po prostu zdanie egzaminu.

Turing mylił się jednak, kiedy powiedział, że jedynym jasnym pojęciem „zrozumienia” jest czysto behawioralne zdanie egzaminu. Chociaż ten sposób myślenia dominuje obecnie w kognitywistyce, istnieje również jasne, codzienne pojęcie „rozumienia”, które wiąże się z świadomość. Zrozumieć w tym sensie to świadomie uchwycić jakąś prawdę o rzeczywistości.

W 1997, Deep Blue AI pokonał arcymistrza szachowego Garry'ego Kasparowa. Opierając się na czysto behawioralnej koncepcji zrozumienia, Deep Blue posiadał wiedzę na temat strategii szachowych, która przewyższa każdą istotę ludzką. Ale nie było świadome: nie miało żadnych uczuć ani przeżyć.

Ludzie świadomie rozumieją zasady gry w szachy i uzasadnienie strategii. Z kolei Deep Blue był nieczułym mechanizmem, który został wyszkolony, by dobrze spisywać się w grze. Podobnie ChatGPT to nieczuły mechanizm, który został przeszkolony na ogromnych ilościach danych stworzonych przez człowieka w celu generowania treści, które wyglądają, jakby zostały napisane przez osobę.

Nie rozumie świadomie znaczenia słów, które wypluwa. Jeśli „myśl” oznacza akt świadomej refleksji, to ChatGPT nie myśli o niczym.

Czas zapłacić

Jak mogę być pewien, że ChatGPT nie jest świadomy? W latach 1990. neurobiolog Christof Koch postawić filozofa Davida Chalmersa na skrzynkę dobrego wina że naukowcy całkowicie ustaliliby „neurowe korelaty świadomości” w ciągu 25 lat.

Miał przez to na myśli, że zidentyfikowaliby formy aktywności mózgu niezbędne i wystarczające do świadomego doświadczenia. Najwyższy czas, aby Koch zapłacił, ponieważ nie ma zgody co do tego, że tak się stało.

To dlatego, że świadomość nie można zaobserwować, zaglądając do wnętrza głowy. W swoich próbach znalezienia związku między aktywnością mózgu a doświadczeniem neuronaukowcy muszą polegać na zeznaniach swoich pacjentów lub na zewnętrznych markerach świadomości. Istnieje jednak wiele sposobów interpretacji danych.

Niektórzy naukowcy wierzą, że istnieje ścisły związek między świadomością a poznaniem refleksyjnym - zdolnością mózgu do uzyskiwania dostępu do informacji i wykorzystywania ich do podejmowania decyzji. Prowadzi to ich do przekonania, że ​​kora przedczołowa mózgu — miejsce, w którym zachodzą procesy zdobywania wiedzy na wysokim poziomie — jest zasadniczo zaangażowana we wszelkie świadome doświadczenia. Inni temu zaprzeczają, argumentując zamiast tego dzieje się to w dowolnym lokalnym regionie mózgu, w którym ma miejsce odpowiednie przetwarzanie sensoryczne.

Naukowcy dobrze rozumieją podstawową chemię mózgu. Poczyniliśmy również postępy w zrozumieniu funkcji wysokiego poziomu różnych części mózgu. Ale prawie nie mamy pojęcia o tym, co znajduje się pomiędzy: w jaki sposób funkcjonowanie mózgu na wysokim poziomie jest realizowane na poziomie komórkowym.

Ludzie są bardzo podekscytowani potencjałem skanów do ujawnienia działania mózgu. Ale fMRI (funkcjonalny rezonans magnetyczny) ma bardzo niską rozdzielczość: każdy piksel na skanie mózgu odpowiada 5.5 milionom neuronów, co oznacza, że ​​istnieje ograniczenie liczby szczegółów, które te skany są w stanie pokazać.

Wierzę, że postęp w zakresie świadomości nastąpi, gdy lepiej zrozumiemy, jak działa mózg.

Przerwa w rozwoju

Jak argumentuję w mojej przyszłej książce Dlaczego? Cel wszechświata, świadomość musiała ewoluować, ponieważ spowodowała różnicę w zachowaniu. Systemy ze świadomością muszą zachowywać się inaczej, a zatem przetrwać lepiej, niż systemy bez świadomości.

Gdyby wszystkie zachowania były determinowane chemią i fizyką, dobór naturalny nie miałby żadnej motywacji do uświadamiania organizmów; wyewoluowalibyśmy jako nieczułe mechanizmy przetrwania.

Założę się więc, że gdy dowiemy się więcej o szczegółowych działaniach mózgu, dokładnie zidentyfikujemy, które obszary mózgu ucieleśniają świadomość. Dzieje się tak dlatego, że regiony te będą wykazywać zachowanie, którego nie da się wyjaśnić za pomocą obecnie znanej chemii i fizyki. Już, niektórzy neurobiolodzy poszukują potencjalnych nowych wyjaśnień świadomości, aby uzupełnić podstawowe równania fizyki.

Chociaż przetwarzanie LLM jest obecnie zbyt skomplikowane, abyśmy mogli je w pełni zrozumieć, wiemy, że w zasadzie można je przewidzieć na podstawie znanej fizyki. Na tej podstawie możemy śmiało stwierdzić, że ChatGPT nie jest świadomy.

Sztuczna inteligencja niesie ze sobą wiele niebezpieczeństw i w pełni popieram niedawny apel dziesiątek tysięcy ludzi, w tym liderów technologii Steve'a Wozniaka i Elona Muska, pauzować rozwoju w celu rozwiązania problemów związanych z bezpieczeństwem. Potencjał oszustwa, na przykład, jest ogromny. Jednak argument, że wkrótce potomkowie obecnych systemów sztucznej inteligencji będą superinteligentni, a tym samym poważne zagrożenie dla ludzkości, jest przedwczesny.

Nie oznacza to, że obecne systemy sztucznej inteligencji nie są niebezpieczne. Jednak nie możemy prawidłowo ocenić zagrożenia, jeśli nie dokonamy jego dokładnej kategoryzacji. LLM nie są inteligentne. Są to systemy wyszkolone do nadawania zewnętrznego wyglądu ludzkiej inteligencji. Straszne, ale nie takie straszne.Konwersacje

Artykuł został opublikowany ponownie Konwersacje na licencji Creative Commons. Przeczytać oryginalny artykuł.

Kredytowych Image: Gerd Altmann od Pixabay

Znak czasu:

Więcej z Centrum osobliwości