ChatGPT は考えることができない — 意識は今日の AI とはまったく異なるものです

ChatGPT は考えることができない — 意識は今日の AI とはまったく異なるものです

ソースノード: 2674703

急速な進歩に世界中に衝撃が広がっています。 AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 大規模言語モデル (LLM) として知られるもので作成されたその他の人工知能。 これらのシステムは、思考、理解、さらには創造性を示すかのようなテキストを生成できます。

しかし、これらのシステムは本当に考えて理解することができるのでしょうか? これは技術の進歩によって答えられる質問ではありませんが、慎重な哲学的分析と議論により、答えはノーであることがわかります。 そして、これらの哲学的問題に取り組むことなしには、AI 革命の危険性と利点を完全に理解することはできません。

1950年、現代コンピューティングの父アラン・チューリングは、 論文を発表 これは、コンピューターが思考するかどうかを判断する方法を示しました。 これは現在「チューリング テスト」と呼ばれています。 チューリングは、人間が、視界から隠れた XNUMX 人の対話者と会話しているところを想像しました。一方は人間であり、もう一方はコンピュータです。 ゲームは、どれがどれかを解決することです。

コンピュータが 70 分間の会話で裁判官の 5% を騙して人間だと思わせることができれば、コンピュータはテストに合格します。 チューリング テストに合格することは、今では差し迫っているように見えますが、AI が思考と理解を達成したことを示すのでしょうか?

チェスチャレンジ

チューリングはこの質問を絶望的に曖昧なものとして却下し、それを「思考」の実際的な定義に置き換え、考えるということは単にテストに合格することを意味するというものでした。

しかしチューリングは、「理解」の唯一の明確な概念は、テストに合格するという純粋に行動的な概念であると述べたが、それは間違っていた。 この考え方は現在認知科学を支配していますが、日常的に「理解」という概念が明確に存在しており、それが認知科学に結びついています。 意識。 この意味で理解するとは、現実についての真実を意識的に把握することです。

1997で、 ディープ・ブルー AI がチェスのグランドマスター、ガルリー・カスパロフに勝利。 純粋に行動的な理解の概念に基づいて、ディープ ブルーは人間を超えるチェスの戦略の知識を持っていました。 しかし、それは意識を持っておらず、感情も経験もありませんでした。

人間はチェスのルールと戦略の理論的根拠を意識的に理解しています。 対照的に、ディープ ブルーは、ゲームでうまく機能するように訓練された感情のないメカニズムでした。 同様に、ChatGPT は、人間が作成した膨大なデータを使用してトレーニングされ、人間が書いたかのようなコンテンツを生成する冷酷なメカニズムです。

自分が吐いた言葉の意味を意識的には理解していません。 「思考」が意識的な反映の行為を意味する場合、ChatGPT は何も考えません。

支払いの時間

ChatGPT が意識的でないことをどうやって確信できるでしょうか? 1990年代、神経科学者のクリストフ・コッホは、 哲学者のデイビッド・チャーマーズに高級ワインを賭ける 科学者たちは25年もあれば「意識の神経相関」を完全に突き止めていただろう。

これによって彼は、意識体験に必要かつ十分な脳活動の形態を特定したであろうことを意味した。 このようなことが起こったことについてのコンセンサスは皆無なので、そろそろコッホ氏が代償を払う時期が来ている。

それの訳は 意識 頭の中を覗いても観察できません。 脳の活動と経験との関係を見つけようとする試みにおいて、神経科学者は被験者の証言、または意識の外部マーカーに頼らなければなりません。 ただし、データを解釈する方法は複数あります。

一部の科学者 意識と反射的認知、つまり意思決定を行うために情報にアクセスして情報を使用する脳の能力の間には密接な関係があると考えられています。 このことから、知識を獲得する高度なプロセスが行われる脳の前頭前野が、本質的にすべての意識経験に関与していると考えられるようになりました。 これを否定する人もいますが、 その代わりにこう主張する 関連する感覚処理が行われる局所的な脳領域で発生します。

科学者は脳の基本的な化学構造をよく理解しています。 また、脳のさまざまな部分の高度な機能の理解も進んでいます。 しかし、その中間、つまり脳の高度な機能が細胞レベルでどのように実現されるのかについては、ほとんど無知です。

人々は、脳の働きを明らかにするスキャンの可能性に非常に興奮しています。 ただし、fMRI (機能的磁気共鳴画像法) の解像度は非常に低いです。 すべてのピクセル 脳スキャンでは 5.5 万個のニューロンに相当します。つまり、これらのスキャンで表示できる詳細には限界があります。

脳がどのように機能するかをよりよく理解することで、意識の進歩が起こると私は信じています。

開発の一時停止

私が近々出版する本の中で主張しているように、 なぜ? 宇宙の目的, それが行動に違いをもたらしたので、意識は進化したに違いありません。 意識のあるシステムは、意識のないシステムとは異なる動作をする必要があり、したがってより良く生き残る必要があります。

すべての行動が根底にある化学と物理学によって決定されるのであれば、自然選択は生物に意識を持たせる動機を持たないでしょう。 私たちは無感情な生存メカニズムとして進化していたでしょう。

したがって、私は、脳の詳細な働きについてもっと学ぶにつれて、脳のどの領域が意識を体現しているのかを正確に特定できるようになるだろうと考えています。 これらの領域は現在知られている化学や物理学では説明できない挙動を示すためです。 すでに、 一部の神経科学者 彼らは、物理学の基本方程式を補う意識の新しい説明の可能性を模索しています。

LLM の処理は現在、完全に理解するには複雑すぎますが、原理的には既知の物理学から予測できることがわかっています。 これに基づいて、ChatGPT は意識的ではないと自信を持って断言できます。

AI によってもたらされる危険は数多くありますが、私はテクノロジーリーダーのスティーブ・ウォズニアック氏やイーロン・マスク氏を含む数万人による最近の呼びかけを全面的に支持します。 一時停止する 安全性の懸念に対処するための開発。 たとえば、詐欺の可能性は計り知れません。 しかし、現在の AI システムの近い将来の子孫は超知能を持ち、したがって人類にとって大きな脅威となるだろうという議論は時期尚早です。

これは、現在の AI システムが危険ではないという意味ではありません。 しかし、脅威を正確に分類しない限り、脅威を正しく評価することはできません。 LLM はインテリジェントではありません。 これらは、人間の知性を外見上与えるように訓練されたシステムです。 怖いけど、そこまで怖くない。会話

この記事はから再公開されます 会話 クリエイティブコモンズライセンスの下で 読む 原著.

画像のクレジット: ゲルトアルトマン から Pixabay

タイムスタンプ:

より多くの 特異点ハブ