ChatGPT ei osaa ajatella – tietoisuus on jotain täysin erilaista kuin nykypäivän tekoäly

ChatGPT ei osaa ajatella – tietoisuus on jotain täysin erilaista kuin nykypäivän tekoäly

Lähdesolmu: 2674703

On ollut shokki ympäri maailmaa nopealla edistyksellä ChatGPT ja muut tekoälyt, jotka on luotu niin kutsutuilla suurilla kielimalleilla (LLM). Nämä järjestelmät voivat tuottaa tekstiä, joka näyttää osoittavan ajattelua, ymmärrystä ja jopa luovuutta.

Mutta voivatko nämä järjestelmät todella ajatella ja ymmärtää? Tämä ei ole kysymys, johon voidaan vastata tekniikan kehityksen avulla, mutta huolellinen filosofinen analyysi ja argumentointi kertovat meille, että vastaus on ei. Ja ilman näiden filosofisten kysymysten käsittelyä emme koskaan täysin ymmärrä tekoälyvallankumouksen vaaroja ja etuja.

Vuonna 1950 modernin tietojenkäsittelyn isä, Alan Turing, julkaisi paperin joka esitti tavan määrittää, ajatteleeko tietokone. Tätä kutsutaan nyt "Turingin testiksi". Turing kuvitteli ihmisen keskustelevan kahden näkyviltä piilossa olevan keskustelukumppanin kanssa: toinen ihminen, toinen tietokone. Pelin tarkoituksena on selvittää kumpi on kumpi.

Jos tietokone voi huijata 70 prosenttia tuomareista 5 minuutin keskustelun aikana ajattelemaan, että kyseessä on henkilö, tietokone läpäisee testin. Osoittaisiko Turingin testin läpäiseminen – mikä nyt näyttää välittömältä –, että tekoäly on saavuttanut ajattelun ja ymmärryksen?

Shakkihaaste

Turing hylkäsi tämän kysymyksen toivottoman epämääräisenä ja korvasi sen pragmaattisella "ajattelun" määritelmällä, jossa ajatteleminen tarkoittaa vain kokeen läpäisemistä.

Turing oli kuitenkin väärässä, kun hän sanoi, että ainoa selkeä käsite "ymmärryksestä" on puhtaasti käyttäytymiseen liittyvä kokeen läpäiseminen. Vaikka tämä ajattelutapa hallitsee nykyään kognitiivista tiedettä, on olemassa myös selkeä, jokapäiväinen käsitys "ymmärryksestä", joka liittyy tietoisuus. Ymmärtäminen tässä mielessä tarkoittaa tietoista oivaltamista todellisuudesta.

In 1997, Deep Blue AI voitti shakin suurmestari Garry Kasparovin. Puhtaasti käyttäytymiskäsityksen perusteella Deep Blueilla oli tietoa shakkistrategiasta, joka ylittää kaikki ihmiset. Mutta se ei ollut tietoinen: sillä ei ollut tunteita tai kokemuksia.

Ihminen ymmärtää tietoisesti shakin säännöt ja strategian perusteet. Deep Blue sen sijaan oli tunteeton mekanismi, joka oli koulutettu toimimaan hyvin pelissä. Samoin ChatGPT on tunteeton mekanismi, joka on koulutettu valtaviin määriin ihmisen tuottamaa tietoa luomaan sisältöä, joka näyttää olevan henkilön kirjoittama.

Se ei tietoisesti ymmärrä sylkemiensä sanojen merkitystä. Jos "ajattelu" tarkoittaa tietoista pohdintaa, niin ChatGPT:llä ei ole ajatuksia mistään.

Maksun aika

Kuinka voin olla niin varma, ettei ChatGPT ole tietoinen? 1990-luvulla neurotieteilijä Christof Koch lyö vetoa filosofi David Chalmersille hyvästä viinistä että tiedemiehet olisivat täysin selvittäneet "tietoisuuden hermokorrelaatit" 25 vuodessa.

Tällä hän tarkoitti, että he olisivat tunnistaneet tietoisen kokemuksen kannalta tarpeelliset ja riittävät aivotoiminnan muodot. Kochin on aika maksaa, sillä ei ole yksimielisyyttä siitä, että näin on tapahtunut.

Tämä johtuu siitä, että tietoisuus ei voi havaita katsomalla pään sisään. Yrittessään löytää yhteyttä aivotoiminnan ja kokemuksen välillä neurotieteilijöiden on turvauduttava koehenkilöiden todistukseen tai ulkoisiin tietoisuuden merkkiaineisiin. Mutta on olemassa useita tapoja tulkita tietoja.

Jotkut tutkijat uskovat, että tietoisuuden ja reflektoivan kognition välillä on läheinen yhteys - aivojen kyky saada tietoa ja käyttää sitä päätöksentekoon. Tämä saa heidät ajattelemaan, että aivojen prefrontaalinen aivokuori – jossa korkean tason tiedonhankintaprosessit tapahtuvat – on olennaisesti mukana kaikessa tietoisessa kokemuksessa. Toiset kieltävät tämän, väittelee sen sijaan se tapahtuu millä tahansa paikallisella aivoalueella, että asiaankuuluva sensorinen prosessointi tapahtuu.

Tiedemiehet ymmärtävät hyvin aivojen peruskemian. Olemme myös edistyneet aivojen eri osien korkean tason toimintojen ymmärtämisessä. Mutta olemme melkein tietämättömiä siltä väliltä: kuinka aivojen korkean tason toiminta toteutuu solutasolla.

Ihmiset ovat erittäin innoissaan skannausten mahdollisuudesta paljastaa aivojen toiminta. Mutta fMRI:llä (toiminnallinen magneettikuvaus) on erittäin alhainen resoluutio: jokainen pikseli aivoskannauksessa vastaa 5.5 miljoonaa hermosolua, mikä tarkoittaa, että on raja, kuinka paljon yksityiskohtia nämä skannaukset pystyvät näyttämään.

Uskon, että tietoisuus edistyy, kun ymmärrämme paremmin, kuinka aivot toimivat.

Tauko kehitystyössä

Kuten väitän tulevassa kirjassani Miksi? Universumin tarkoitus, tietoisuuden on täytynyt kehittyä, koska se muutti käyttäytymistä. Tietoisuuden omaavien järjestelmien täytyy käyttäytyä eri tavalla ja siten selviytyä paremmin kuin järjestelmien ilman tietoisuutta.

Jos kaiken käyttäytymisen määräisi taustalla oleva kemia ja fysiikka, luonnollisella valinnalla ei olisi motivaatiota tehdä organismeista tietoisia; olisimme kehittyneet tuntemattomina selviytymismekanismeina.

Veikkaan siis, että kun opimme lisää aivojen yksityiskohtaisesta toiminnasta, tunnistamme tarkasti mitkä aivojen alueet ilmentävät tietoisuutta. Tämä johtuu siitä, että näillä alueilla esiintyy käyttäytymistä, jota ei voida selittää tällä hetkellä tunnetulla kemialla ja fysiikalla. Jo, jotkut neurotieteilijät etsivät mahdollisia uusia selityksiä tietoisuudelle täydentämään fysiikan perusyhtälöitä.

Vaikka LLM:ien käsittely on nyt liian monimutkaista ymmärtääksemme täysin, tiedämme, että se voidaan periaatteessa ennustaa tunnetun fysiikan perusteella. Tämän perusteella voimme vakuuttaa, että ChatGPT ei ole tietoinen.

Tekoäly aiheuttaa monia vaaroja, ja tuen täysin kymmenien tuhansien ihmisten äskettäistä kehotusta, mukaan lukien teknologiajohtajat Steve Wozniak ja Elon Musk. keskeyttää kehitystä turvallisuusongelmien ratkaisemiseksi. Esimerkiksi petosten mahdollisuus on valtava. Väite, jonka mukaan nykyisten tekoälyjärjestelmien lähiajan jälkeläiset olisivat erittäin älykkäitä ja siten suuri uhka ihmiskunnalle, on kuitenkin ennenaikainen.

Tämä ei tarkoita, etteivätkö nykyiset tekoälyjärjestelmät olisi vaarallisia. Emme kuitenkaan voi arvioida uhkaa oikein, ellemme luokittele sitä tarkasti. LLM:t eivät ole älykkäitä. Ne ovat järjestelmiä, jotka on koulutettu antamaan ihmisälyn ulkonäön. Pelottavaa, mutta ei niin pelottavaa.Conversation

Tämä artikkeli julkaistaan ​​uudelleen Conversation Creative Commons -lisenssin alla. Lue alkuperäinen artikkeli.

Kuva pistetilanne: Gerd Altmann alkaen Pixabay

Aikaleima:

Lisää aiheesta Singulaarisuus Hub