ChatGPT는 생각할 수 없다—의식은 오늘날의 AI와 완전히 다른 것이다

ChatGPT는 생각할 수 없다—의식은 오늘날의 AI와 완전히 다른 것이다

소스 노드 : 2674703

의 급속한 발전 속도에 전 세계적으로 충격을 받았습니다. ChatGPT LLM(Large Language Models)으로 알려진 것으로 생성된 기타 인공 지능입니다. 이러한 시스템은 생각, 이해, 심지어 창의성을 나타내는 것처럼 보이는 텍스트를 생성할 수 있습니다.

그러나 이러한 시스템이 실제로 생각하고 이해할 수 있습니까? 이것은 기술의 진보를 통해 대답할 수 있는 질문이 아니지만, 신중한 철학적 분석과 논거는 대답이 '아니오'임을 말해줍니다. 그리고 이러한 철학적 문제를 해결하지 않고는 AI 혁명의 위험과 이점을 완전히 이해하지 못할 것입니다.

1950년 현대 컴퓨팅의 아버지 앨런 튜링은 논문을 발표 그것은 컴퓨터가 생각하는지 여부를 결정하는 방법을 제시했습니다. 이것은 이제 "튜링 테스트"라고 불립니다. Turing은 시야에 숨겨진 두 대담자와 대화에 참여하는 인간을 상상했습니다. 서로는 인간이고 다른 하나는 컴퓨터입니다. 게임은 어느 것이 무엇인지 알아내는 것입니다.

컴퓨터가 70분간의 대화에서 심사위원의 5%를 자신이 사람이라고 생각하도록 속일 수 있다면 컴퓨터는 테스트를 통과한 것입니다. 튜링 테스트(현재 임박한 것처럼 보이는 것)를 통과하면 AI가 사고와 이해를 달성했음을 보여줄 수 있습니까?

체스 챌린지

튜링은 이 질문을 가망이 없을 정도로 모호하다고 일축하고 "생각"에 대한 실용적인 정의로 대체했습니다. 즉, 생각한다는 것은 테스트를 통과하는 것을 의미합니다.

그러나 Turing이 "이해"의 유일한 명확한 개념은 테스트를 통과하는 순전히 행동적인 개념이라고 말한 것은 틀렸습니다. 이러한 사고 방식이 현재 인지 과학을 지배하고 있지만, "이해"라는 명확하고 일상적인 개념도 있습니다. 의식. 이런 의미에서 이해한다는 것은 현실에 대한 어떤 진실을 의식적으로 파악하는 것입니다.

1997에서 Deep Blue AI가 체스 그랜드마스터 Garry Kasparov를 이겼습니다.. 순전히 행동적인 이해 개념에서 Deep Blue는 인간을 능가하는 체스 전략에 대한 지식을 가졌습니다. 그러나 그것은 의식이 없었습니다. 어떤 감정이나 경험도 없었습니다.

인간은 체스의 규칙과 전략의 근거를 의식적으로 이해합니다. 대조적으로 Deep Blue는 게임에서 잘 수행되도록 훈련된 무감각한 메커니즘이었습니다. 마찬가지로 ChatGPT는 사람이 작성한 것처럼 보이는 콘텐츠를 생성하기 위해 엄청난 양의 인간이 만든 데이터에 대해 훈련된 무감각한 메커니즘입니다.

그것은 자신이 내뱉는 말의 의미를 의식적으로 이해하지 못합니다. "생각"이 의식적인 반성의 행위를 의미한다면 ChatGPT는 아무것도 생각하지 않습니다.

지불할 시간

ChatGPT가 의식이 없다고 어떻게 확신할 수 있나요? 1990년대 신경과학자 크리스토프 코흐(Christof Koch)는 철학자 David Chalmers에게 고급 와인 한 상자를 걸다 과학자들은 25년 안에 "의식의 신경 상관물"을 완전히 파악했을 것입니다.

이것으로 그는 그들이 의식 경험에 필요하고 충분한 뇌 활동의 형태를 식별했을 것이라고 의미했습니다. 이것이 일어났다는 합의가 전혀 없기 때문에 Koch가 돈을 지불할 때입니다.

이 때문입니다 의식 머리 속을 들여다보면 관찰할 수 없다. 뇌 활동과 경험 사이의 연관성을 찾으려는 시도에서 신경과학자들은 대상의 증언이나 의식의 외부 표지에 의존해야 합니다. 그러나 데이터를 해석하는 방법에는 여러 가지가 있습니다.

일부 과학자들 의사 결정을 위해 정보에 접근하고 정보를 사용하는 뇌의 능력인 반사적 인지와 의식 사이에 밀접한 관련이 있다고 믿습니다. 이것은 그들이 지식을 습득하는 높은 수준의 과정이 일어나는 뇌의 전두엽 피질이 본질적으로 모든 의식적 경험에 관여한다고 생각하게 합니다. 남들은 이를 부정하지만 대신 주장 관련 감각 처리가 일어나는 지역 뇌 영역에서 발생합니다.

과학자들은 뇌의 기본 화학을 잘 이해하고 있습니다. 우리는 또한 뇌의 다양한 부분의 높은 수준의 기능을 이해하는 데 진전을 이루었습니다. 그러나 우리는 그 사이의 비트에 대해 거의 알지 못합니다. 뇌의 높은 수준의 기능이 어떻게 세포 수준에서 실현되는지입니다.

사람들은 뇌의 작용을 밝히는 스캔의 잠재력에 대해 매우 흥분합니다. 그러나 fMRI(기능적 자기 공명 영상)는 해상도가 매우 낮습니다. 모든 픽셀 뇌 스캔의 경우 5.5만 개의 뉴런에 해당합니다. 즉, 이러한 스캔이 보여줄 수 있는 세부 정보에는 한계가 있습니다.

저는 우리가 뇌가 어떻게 작동하는지 더 잘 이해할 때 의식의 진보가 올 것이라고 믿습니다.

개발 중 일시 중지

앞으로 나올 책에서 내가 주장하는 것처럼 왜? 우주의 목적, 행동의 차이를 만들었기 때문에 의식이 진화했음에 틀림없다. 의식이 있는 시스템은 의식이 없는 시스템보다 다르게 행동해야 하므로 더 잘 생존합니다.

모든 행동이 근본적인 화학과 물리학에 의해 결정된다면 자연 선택은 유기체를 의식하게 만들 동기가 없을 것입니다. 우리는 무감각한 생존 메커니즘으로 진화했을 것입니다.

그렇다면 뇌의 세부적인 작동에 대해 더 많이 알게 되면 뇌의 어느 영역이 의식을 구현하는지 정확하게 식별할 수 있을 것입니다. 이는 해당 영역이 현재 알려진 화학 및 물리학으로 설명할 수 없는 동작을 나타내기 때문입니다. 이미, 일부 신경과학자 물리학의 기본 방정식을 보완하기 위해 의식에 대한 잠재적인 새로운 설명을 찾고 있습니다.

LLM의 처리는 이제 우리가 완전히 이해하기에는 너무 복잡하지만 원칙적으로 알려진 물리학에서 예측할 수 있다는 것을 알고 있습니다. 이를 바탕으로 우리는 ChatGPT가 의식이 없다고 자신 있게 주장할 수 있습니다.

AI가 제기하는 많은 위험이 있으며, 저는 기술 리더인 Steve Wozniak과 Elon Musk를 포함하여 수만 명의 최근 요청을 전적으로 지지합니다. 일시 중지 안전 문제를 해결하기 위한 개발. 예를 들어 사기 가능성은 엄청납니다. 그러나 현재 AI 시스템의 단기 후예가 초지능이 되어 인류에 대한 주요 위협이 될 것이라는 주장은 시기상조입니다.

그렇다고 현재 AI 시스템이 위험하지 않다는 의미는 아닙니다. 그러나 위협을 정확하게 분류하지 않으면 위협을 올바르게 평가할 수 없습니다. LLM은 지능적이지 않습니다. 그들은 인간 지능의 외형을 제공하도록 훈련된 시스템입니다. 무섭지만 그렇게 무섭지는 않습니다.대화

이 기사는에서 다시 게시됩니다. 대화 크리에이티브 커먼즈 라이센스하에 읽기 원래 기사.

이미지 신용 : 게르트 알트만 에 Pixabay

타임 스탬프 :

더보기 특이점 허브