ChatGPT는 훌륭합니다. 잘못 사용하고 있을 뿐입니다.

ChatGPT는 훌륭합니다. 잘못 사용하고 있을 뿐입니다.

소스 노드 : 1941062

얻는 데 많은 시간이 필요하지 않습니다. ChatGPT 사실적인 실수를 저지르는 것. 제 아들이 미국 대통령에 대한 보고서를 작성하고 있어서 전기 몇 개를 찾아 그를 도와야겠다고 생각했습니다. 에이브러햄 링컨에 관한 책 목록을 물어보았는데 아주 훌륭했습니다.

텍스트 화면 캡처
링컨에 관한 합리적인 책 목록. 이미지 크레디트: 조나단 메이의 화면 캡처, CC의 BY-ND

4번은 옳지 않습니다. Garry Wills는 "Lincoln at Gettysburg"를 저술한 것으로 유명하며 Lincoln 자신도 물론 노예해방 선언문을 작성했지만 나쁜 시작은 아닙니다. 그런 다음 더 어려운 것을 시도하여 대신 훨씬 더 모호한 William Henry Harrison에 대해 물었고 거의 모든 것이 잘못된 목록을 제공했습니다.

텍스트 화면 캡처
절반도 안 되는 해리슨에 관한 책. 이미지 크레디트: 조나단 메이의 화면 캡처, CC의 BY-ND

숫자 4와 5가 맞습니다. 나머지는 존재하지 않거나 해당 사람들이 작성하지 않았습니다. 나는 정확히 같은 연습을 반복했고 약간 다른 결과를 얻었습니다.

텍스트 화면 캡처
아직 거의 존재하지 않는 해리슨에 관한 더 많은 책. 이미지 크레디트: 조나단 메이의 화면 캡처, CC의 BY-ND

이번에는 숫자 2와 3이 맞고 나머지 세 개는 실제 책이 아니거나 해당 저자가 쓴 것이 아닙니다. 4번, "William Henry Harrison: 그의 생애와 시대"는 진짜 책, 하지만 Robert Remini가 아니라 James A. Green의 작품입니다. 저명한 역사가 잭슨 시대의.

나는 오류를 지적했고, ChatGPT는 열심히 스스로 수정한 다음 책이 사실 게일 콜린스(해리슨의 다른 전기를 쓴 사람)가 쓴 책이라고 자신 있게 말한 다음 계속해서 책과 그녀에 대해 더 많이 말했습니다. 나는 마침내 진실을 밝혔고 기계는 내 수정으로 기뻐했습니다. 그런 다음 대통령이 처음 XNUMX일 동안 어떤 전직 대통령의 전기를 써야 한다고 터무니없는 거짓말을 했고 ChatGPT가 저를 불렀습니다. 그런 다음 나는 미묘하게 거짓말을 하여 해리슨 전기의 저자가 역사가이자 작가인 Paul C. Nagel에게 있다고 잘못 돌렸고, 그것은 내 거짓말을 샀습니다.

ChatGPT에 제가 거짓말을 하고 있는 것이 확실한지 물었을 때 그것은 단지 "AI 언어 모델"일 뿐이며 정확성을 검증할 수 있는 능력이 없다고 주장했습니다. 그러나 “내가 제공한 교육 데이터에 근거한 정보만 제공할 수 있으며, 'William Henry Harrison: His Life and Times'라는 책은 Paul C. Nagel이 작성하여 출판한 것으로 보입니다. 1977년.”

이것은 사실이 아닙니다.

사실이 아닌 말

이 상호 작용에서 ChatGPT에 저자 및 책에 대한 잘못된 주장을 포함하여 사실 라이브러리가 제공된 것으로 보일 수 있습니다. 결국 ChatGPT의 제조사인 OpenAI는 "인간이 작성한 방대한 양의 인터넷 데이터. "

그러나 그것은 거의 확실히 가장 많은 것 중 하나에 관한 많은 구성 책의 이름이 주어지지 않았습니다. 평범한 대통령. 그러나 어떤 면에서 이 잘못된 정보는 실제로 훈련 데이터를 기반으로 합니다.

으로 컴퓨터 과학자, 나는 종종 ChatGPT와 그 이전 형제 GPT3 및 GPT2와 같은 대규모 언어 모델에 대한 일반적인 오해를 드러내는 불만을 접수합니다. 무한히 큰 사실 라이브러리, 또는 스토리와 캐릭터의 파스 티치 함께 스매싱. 그들은 그 어떤 것도 하지 않습니다. 적어도 명시적으로 설계되지는 않았습니다.

좋은데

ChatGPT와 같은 언어 모델은 공식적으로 "생성 사전 훈련 변환기"(G, P 및 T가 의미하는 것임)로 알려져 있으며 현재 대화를 받아들이고 대화에 포함된 모든 단어에 대한 확률을 형성합니다. 그 대화에 주어진 어휘 중 하나를 가능성 있는 다음 단어로 선택합니다. 그런 다음 멈출 때까지 반복해서 반복합니다.

따라서 사실 자체가 없습니다. 다음에 어떤 단어가 와야 하는지 알 뿐입니다. 다시 말해, ChatGPT는 사실인 문장을 쓰려고 하지 않습니다. 그러나 그것은 그럴듯한 문장을 쓰려고 노력합니다.

ChatGPT에 대해 동료들과 개인적으로 이야기할 때, ChatGPT가 생성하는 사실과 다른 진술이 얼마나 많은지 지적하고 무시하는 경우가 많습니다. 나에게 ChatGPT가 결함이 있는 데이터 검색 시스템이라는 생각은 요점을 벗어났습니다. 결국 사람들은 지난 XNUMX년 동안 Google을 사용해 왔습니다. 이미 꽤 좋은 사실 찾기 서비스가 있습니다.

사실 그 모든 대통령 책 제목이 정확한지 확인할 수 있었던 유일한 방법은 인터넷 검색을 한 다음 확인하는 것뿐이었습니다. 결과. 내 인생의 거의 절반 동안 문서를 검색한 다음 내용을 신뢰할 수 있는지 확인하기 위해 비판적 분석을 수행하여 이러한 사실을 얻는 방식 대신 대화를 통해 이러한 사실을 얻는다면 내 인생은 그다지 나아지지 않을 것입니다.

개선 파트너

반면에 내가 말하는 것에 그럴듯한 반응을 주는 봇과 대화할 수 있다면 상황에 유용할 것입니다. 사실적 정확성이 그다지 중요하지 않은 경우. 몇 년 전에 한 학생과 저는 대화를 계속하기 위해 "예"라고 말하는 모든 것에 응답하는 "개선 봇"을 만들려고 했습니다. 우리는 종이, 우리의 포구 당시에는 다른 봇보다 "예, 하고"를 잘했지만 AI에서 XNUMX년은 고대사입니다.

일반적인 즉흥 수업에서 볼 수 있는 것과 다르지 않은 공상 과학 우주 탐험 시나리오인 ChatGPT로 대화를 시도했습니다. ChatGPT는 우리가 했던 것보다 "예, 그리고-ing"을 훨씬 더 잘하지만 드라마를 전혀 고조시키지는 못했습니다. 나는 모든 무거운 짐을 지고 있는 것처럼 느꼈다.

약간의 조정 후 좀 더 참여하게 되었고 하루가 끝날 무렵 20년 이상 전에 대학을 졸업한 이후로 즉흥 연주를 많이 하지 않은 나에게 꽤 좋은 운동이라고 느꼈습니다. .

텍스트 화면 캡처
저자가 ChatGPT로 생성한 우주 탐사 즉흥 장면. 이미지 크레디트: 조나단 메이의 화면 캡처, CC의 BY-ND

물론입니다. ChatGPT가 "어쨌든 누구의 라인입니까?” 그리고 이것은 훌륭한 “Star Trek” 플롯이 아닙니다(하지만 “명예 코드”) 그러나 처음부터 무언가를 쓰기 위해 앉았고 앞에있는 빈 페이지에 겁에 질린 적이 몇 번이나 있습니까? 나쁜 첫 번째 초안으로 시작하면 작가의 장애물을 뚫고 창의적인 주스가 흐르게 할 수 있으며 ChatGPT 및 이와 같은 대규모 언어 모델은 이러한 연습을 지원하는 데 적합한 도구인 것 같습니다.

그리고 정보를 제공하지 않고 사용자가 제공하는 단어에 응답하여 가능한 한 좋은 소리를 내는 일련의 단어를 생성하도록 설계된 기계의 경우 도구를 올바르게 사용하는 것 같습니다.

이 기사는에서 다시 게시됩니다. 대화 크리에이티브 커먼즈 라이센스하에 읽기 원래 기사.

이미지 신용 : 저스틴 하 / Unsplash 

타임 스탬프 :

더보기 특이점 허브