ChatGPT, GPT-4 และข่าว AI สร้างสรรค์อื่นๆ

ChatGPT, GPT-4 และข่าว AI สร้างสรรค์อื่นๆ

โหนดต้นทาง: 1975355

ChatGPT, GPT-4 และข่าว AI สร้างสรรค์อื่นๆ
ทนายความ เครดิต: Midjourney

 

หากคุณอ่านงานของฉัน คุณอาจรู้ว่าฉันเผยแพร่บทความของฉันเป็นอันดับแรกและสำคัญที่สุดในจดหมายข่าว AI ของฉัน สะพานอัลกอริทึม. สิ่งที่คุณอาจไม่รู้คือทุกวันอาทิตย์ฉันจะเผยแพร่คอลัมน์พิเศษที่เรียกว่า "สิ่งที่คุณอาจพลาดไป" ซึ่งฉันจะทบทวนทุกสิ่งที่เกิดขึ้นในระหว่างสัปดาห์พร้อมบทวิเคราะห์ที่ช่วยให้คุณเข้าใจข่าวได้

Microsoft-OpenAI ข้อตกลงมูลค่า 10 หมื่นล้านดอลลาร์

เซมาฟอร์รายงาน เมื่อสองสัปดาห์ที่แล้ว หากทุกอย่างเป็นไปตามแผน Microsoft จะปิดข้อตกลงการลงทุนมูลค่า 10 พันล้านดอลลาร์กับ OpenAI ก่อนสิ้นเดือนมกราคม (Satya Nadella, CEO ของ Microsoft ได้ประกาศ ขยายความร่วมมือ อย่างเป็นทางการในวันจันทร์)

มีข้อมูลที่ผิดเกี่ยวกับข้อตกลงซึ่งบอกเป็นนัยว่าผู้บริหารของ OpenAI ไม่แน่ใจเกี่ยวกับความเป็นไปได้ในระยะยาวของบริษัท อย่างไรก็ตาม, มันถูกชี้แจงในภายหลัง ข้อตกลงมีลักษณะดังนี้:

 

ChatGPT, GPT-4 และข่าว AI สร้างสรรค์อื่นๆ
เครดิต: โชคลาภ

 

ลีโอ ลอเรนจ์ ผู้เขียน The Neuron อธิบาย ว่า “เมื่อกำไร 92 ล้านดอลลาร์ บวกกับเงินลงทุนเริ่มแรก 13 ล้านดอลลาร์ จะได้รับการชำระคืนให้กับ Microsoft และเมื่อนักลงทุนร่วมทุนรายอื่นได้รับ 150 ล้านดอลลาร์ ส่วนของทุนทั้งหมดก็จะกลับคืนสู่ OpenAI”

ผู้คนแตกแยก บางคนบอกว่าดีลนี้ “เจ๋ง” หรือ “น่าสนใจ” ในขณะที่บางคนบอกว่ามัน “แปลก” และ “บ้า” สิ่งที่ฉันรับรู้ด้วยสายตาที่ไม่ใช่ผู้เชี่ยวชาญคือ OpenAI และ Sam Altman do ความเชื่อใจ (บางคนบอกว่า ไว้ใจเกิน) ความสามารถระยะยาวของบริษัทในการบรรลุเป้าหมาย

อย่างไรก็ตามเนื่องจาก Will Knight เขียน สำหรับ WIRED “ยังไม่ชัดเจนว่าผลิตภัณฑ์ใดที่สามารถสร้างจากเทคโนโลยีได้” OpenAI ต้องหารูปแบบธุรกิจที่ทำงานได้ในไม่ช้า

การเปลี่ยนแปลงของ ChatGPT: ฟีเจอร์ใหม่และการสร้างรายได้

OpenAI อัปเดต ChatGPT ในวันที่ 9 ม.ค. (จากเดิมอัพเดทวันที่ 15 ธ.ค.) ตอนนี้แชทบอทได้ "ปรับปรุงข้อเท็จจริง" และคุณสามารถหยุดคนรุ่นกลางได้

พวกเขากำลังทำงานกับ "ChatGPT เวอร์ชันมืออาชีพ" (ซึ่งมีข่าวลือว่าจะเปิดตัวที่ $ 42 / เดือน) ในฐานะประธานของ OpenAI Greg Brockman ประกาศ ในวันที่ 11 ม.ค. คุณสมบัติหลัก XNUMX ประการ ได้แก่

“พร้อมใช้งานเสมอ (ไม่มีหน้าต่างปิดทึบ)

การตอบสนองที่รวดเร็วจาก ChatGPT (เช่น ไม่มีการควบคุมปริมาณ)

ข้อความได้มากเท่าที่คุณต้องการ (อย่างน้อย 2X ขีดจำกัดรายวันตามปกติ)”

ในการลงทะเบียนรายการรอคุณต้อง กรอกแบบฟอร์ม โดยพวกเขาจะถามคุณว่าคุณต้องการจ่ายเท่าไหร่ (และเท่าไหร่ที่จะมากเกินไป)

หากคุณวางแผนที่จะดำเนินการอย่างจริงจัง คุณควรพิจารณาลงลึกในกลุ่มผลิตภัณฑ์ของ OpenAI ด้วย ที่เก็บตำราอาหาร OpenAI. โบยาน ตุงกุซ กล่าวว่า "repo ที่ได้รับความนิยมสูงสุดบน GitHub ในเดือนนี้” เป็นสัญญาณที่ดีเสมอ

ChatGPT นักวิทยาศาสตร์ตัวปลอม

ChatGPT ได้เข้าสู่โดเมนทางวิทยาศาสตร์แล้ว คารีม คาร์ โพสต์ภาพหน้าจอในวันพฤหัสบดีของเอกสารที่ ChatGPT เป็นผู้เขียนร่วม

 

แหล่ง

 

แต่ทำไม ChatGPT เป็นเครื่องมือ? “ผู้คนเริ่มปฏิบัติต่อ ChatGPT ราวกับว่ามันเป็นข้อมูลทางวิทยาศาสตร์ที่น่าเชื่อถือและได้รับการรับรองอย่างดี ผู้ประสานงานGary Marcus อธิบาย ในโพสต์ Substack. “นักวิทยาศาสตร์ โปรดอย่าปล่อยให้แชทบอทของคุณเติบโตขึ้นมาเป็นผู้เขียนร่วม” เขาขอร้อง

ที่น่าเป็นห่วงกว่านั้นคือกรณีที่ไม่มีการเปิดเผยการใช้ AI นักวิทยาศาสตร์ ได้พบ พวกเขาไม่สามารถระบุบทคัดย่อที่เขียนโดย ChatGPT ได้อย่างน่าเชื่อถือ — คำพูดพล่ามพล่ามของมันหลอกแม้กระทั่งผู้เชี่ยวชาญในสาขาของตน ดังที่ Sandra Wachter ผู้ซึ่ง “ศึกษาเทคโนโลยีและระเบียบข้อบังคับ” ที่ Oxford กล่าวกับ Holly Else สำหรับ ชิ้นส่วนเกี่ยวกับธรรมชาติ:

“หากตอนนี้เราอยู่ในสถานการณ์ที่ผู้เชี่ยวชาญไม่สามารถระบุได้ว่าสิ่งใดจริงหรือไม่จริง เราจะสูญเสียคนกลางที่เราจำเป็นอย่างยิ่งที่จะแนะนำเราผ่านหัวข้อที่ซับซ้อน”

ความท้าทายของ ChatGPT ต่อการศึกษา

ChatGPT ถูกแบนในศูนย์การศึกษาทั่วโลก (เช่น โรงเรียนของรัฐนิวยอร์กมหาวิทยาลัยในออสเตรเลียและ อาจารย์ในสหราชอาณาจักร กำลังคิดอยู่) อย่างที่ผมเถียงไป เรียงความก่อนหน้านี้ฉันไม่คิดว่านี่เป็นการตัดสินใจที่ฉลาดที่สุด แต่เป็นเพียงปฏิกิริยาเนื่องจากไม่ได้เตรียมพร้อมสำหรับการพัฒนาอย่างรวดเร็วของ AI เชิงกำเนิด

Kevin Roose จาก NYT โต้แย้ง ว่า “ศักยภาพของ [ChatGPT] ในฐานะเครื่องมือทางการศึกษานั้นมีมากกว่าความเสี่ยง” Terence Tao นักคณิตศาสตร์ผู้ยิ่งใหญ่ ตกลง: “ในระยะยาว ดูเหมือนว่าไร้ประโยชน์ที่จะต่อสู้กับสิ่งนี้ บางทีสิ่งที่เราในฐานะวิทยากรต้องทำคือเปลี่ยนไปใช้โหมดการสอบแบบ “open book, open AI””

จาดา พิสติลลี่นักจริยธรรมหลักของ Hugging Face อธิบายถึงความท้าทายที่โรงเรียนต้องเผชิญกับ ChatGPT:

“น่าเสียดายที่ระบบการศึกษาดูเหมือนจะถูกบังคับให้ต้องปรับตัวให้เข้ากับเทคโนโลยีใหม่เหล่านี้ ฉันคิดว่ามันเข้าใจได้ว่าเป็นปฏิกิริยา เนื่องจากไม่ค่อยมีใครทำเพื่อคาดการณ์ บรรเทา หรือแก้ปัญหาทางเลือกอย่างละเอียดเพื่อกำหนดขอบเขตของปัญหาที่อาจเกิดขึ้น เทคโนโลยีก่อกวนมักต้องการการศึกษาผู้ใช้เพราะไม่สามารถถูกโยนใส่ผู้คนอย่างควบคุมไม่ได้”

ประโยคสุดท้ายนั้นจับได้อย่างสมบูรณ์แบบว่าปัญหาเกิดขึ้นที่ใดและวิธีแก้ปัญหาที่เป็นไปได้ เราต้องพยายามเป็นพิเศษเพื่อให้ความรู้แก่ผู้ใช้เกี่ยวกับวิธีการทำงานของเทคโนโลยีนี้ และสิ่งที่เป็นไปได้และไม่ควรทำกับพวกเขา นั่นคือแนวทางที่ Catalonia ได้ดำเนินไป เช่น Francesc Bracero และ Carina Farreras รายงาน สำหรับ La Vanguardia:

“ในคาตาโลเนีย กระทรวงศึกษาธิการจะไม่ห้าม 'ทั้งระบบและสำหรับทุกคน เนื่องจากจะเป็นมาตรการที่ไม่ได้ผล' ตามแหล่งข่าวจากกระทรวง จะเป็นการดีกว่าหากขอให้ศูนย์ให้ความรู้ในการใช้ AI 'ซึ่งสามารถให้ความรู้และข้อดีมากมาย'”

เพื่อนที่ดีที่สุดของนักเรียน: ฐานข้อมูลข้อผิดพลาดของ ChatGPT

Gary Marcus และ Ernest Davis ได้จัดตั้ง “ตัวติดตามข้อผิดพลาด” เพื่อบันทึกและจัดประเภทรูปแบบภาษาที่มีข้อผิดพลาด เช่น ChatGPT make (นี่คือข้อมูลเพิ่มเติม เกี่ยวกับสาเหตุที่พวกเขารวบรวมเอกสารนี้และสิ่งที่พวกเขาวางแผนจะทำกับเอกสารนี้)

ฐานข้อมูลเป็นแบบสาธารณะและทุกคนสามารถเข้าร่วมได้ เป็นแหล่งข้อมูลที่ดีที่ช่วยให้สามารถศึกษาอย่างเข้มงวดว่าโมเดลเหล่านี้ทำงานผิดปกติอย่างไร และผู้คนจะหลีกเลี่ยงการใช้ผิดวิธีได้อย่างไร นี่คือตัวอย่างที่น่าขบขันว่าทำไมเรื่องนี้ถึงสำคัญ:

 

แหล่ง

 

OpenAI ตระหนักถึงสิ่งนี้และต้องการต่อสู้กับข้อมูลที่ผิดและบิดเบือน: “การคาดการณ์การใช้รูปแบบภาษาในทางที่ผิดสำหรับแคมเปญที่บิดเบือนข้อมูล — และวิธีลดความเสี่ยง".

ข้อมูลใหม่

แซม อัลท์แมนพูดเป็นนัย ความล่าช้าในการเปิดตัว GPT-4 ในการสนทนากับ คอนนี่ ลอยซอสบรรณาธิการของ Silicon Valley ที่ TechCrunch Altman กล่าวว่า "โดยทั่วไปแล้ว เราจะปล่อยเทคโนโลยีช้ากว่าที่ผู้คนต้องการ เราจะนั่งกับมันอีกนาน…” นี่คือสิ่งที่ฉันใช้:

 

แหล่ง

 

(Altman ยังบอกด้วยว่ากำลังมีโมเดลวิดีโออยู่ในผลงาน!)

ข้อมูลที่ไม่ถูกต้องเกี่ยวกับ GPT-4

มีการอ้างสิทธิ์ "GPT-4 = 100T" ที่กำลังแพร่ระบาดไปทั่วบนโซเชียลมีเดีย (ส่วนใหญ่ฉันเห็นใน Twitter และ LinkedIn) ในกรณีที่คุณไม่เห็น ดูเหมือนว่า:

 

แหล่ง

หรือสิ่งนี้:

แหล่ง

 

ทั้งหมดเป็นเวอร์ชันที่แตกต่างกันเล็กน้อยในสิ่งเดียวกัน: กราฟภาพที่น่าดึงดูดซึ่งดึงดูดความสนใจ และตะขอที่แข็งแกร่งด้วยการเปรียบเทียบ GPT-4/GPT-3 (พวกเขาใช้ GPT-3 เป็นพร็อกซีสำหรับ ChatGPT)

ฉันคิดว่าการแบ่งปันข่าวลือและการคาดเดาและตีกรอบให้เป็นเช่นนั้นไม่เป็นไร (ฉันรู้สึกมีส่วนรับผิดชอบในเรื่องนี้) แต่การโพสต์ข้อมูลที่ตรวจสอบไม่ได้ด้วยน้ำเสียงที่น่าเชื่อถือและไม่มีการอ้างอิงนั้นเป็นสิ่งที่น่ารังเกียจ

ผู้คนที่ทำเช่นนี้ไม่ได้ห่างไกลจากความไร้ประโยชน์และอันตรายเท่ากับ ChatGPT ที่เป็นแหล่งข้อมูล — และด้วยแรงจูงใจที่แข็งแกร่งกว่ามากให้ทำต่อไป ระวังสิ่งนี้เพราะจะทำให้ทุกช่องทางของข้อมูลเกี่ยวกับ AI เสียหายในอนาคต

ทนายความหุ่นยนต์

Joshua Browder ซีอีโอของ DoNotPay โพสต์เมื่อวันที่ 9 มกราคม:

 

แหล่ง

 

จะเป็นอย่างอื่นไปไม่ได้ การอ้างสิทธิ์ที่กล้าได้กล้าเสียนี้เกิดขึ้น การถกเถียงกันมาก ถึงจุดที่ Twitter ตั้งค่าสถานะทวีตพร้อมลิงก์ไปยัง หน้าศาลฎีกาของต้องห้าม.

แม้ว่าในที่สุดพวกเขาจะไม่สามารถทำได้เนื่องจากเหตุผลทางกฎหมาย แต่ก็คุ้มค่าที่จะพิจารณาคำถามจากจุดยืนทางจริยธรรมและสังคม จะเกิดอะไรขึ้นหากระบบ AI ทำผิดพลาดอย่างร้ายแรง? สามารถ คนที่ไม่สามารถเข้าถึงได้ เพื่อให้ทนายความได้รับประโยชน์จากเทคโนโลยีนี้ในเวอร์ชันผู้ใหญ่

การฟ้องร้องต่อ Stable Diffusion ได้เริ่มขึ้นแล้ว

แมทธิว บัตเตอร์ริค เผยแพร่เมื่อวันที่ 13 มกราคม:

“ในนามของสามสิ่งที่ยอดเยี่ยม โจทก์ศิลปิน - ซาราห์ แอนเดอร์เซ็นเคลลี่ แมคเคอร์แนนและ คาร์ลา ออร์ติซ — เราได้ยื่นฟ้องคดีแบบกลุ่มกับ AI เสถียรภาพจิตพิสัยและ กลางการเดินทาง สำหรับการใช้งานของพวกเขา การแพร่กระจายที่เสถียรซึ่งเป็นเครื่องมือคอลลาจแห่งศตวรรษที่ 21 ที่รีมิกซ์ผลงานที่มีลิขสิทธิ์ของศิลปินหลายล้านคน ซึ่งผลงานของเขาถูกใช้เป็นข้อมูลการฝึกอบรม”

เริ่มต้นขึ้น — ขั้นตอนแรกในสิ่งที่สัญญาว่าจะเป็นการต่อสู้ที่ยาวนานเพื่อกลั่นกรองการฝึกอบรมและการใช้ AI เชิงกำเนิด ฉันเห็นด้วยกับแรงจูงใจ: “AI จำเป็นต้องยุติธรรมและมีจริยธรรมสำหรับทุกคน”

แต่ เหมือนคนอื่นๆ อีกหลายคนฉันพบความไม่ถูกต้องในบล็อกโพสต์ มันลงลึกในด้านเทคนิคของ Stable Diffusion แต่ไม่สามารถอธิบายได้อย่างถูกต้อง ไม่ว่าจะเป็นความตั้งใจที่จะเชื่อมช่องว่างทางเทคนิคสำหรับผู้ที่ไม่ทราบ — และไม่มีเวลาที่จะเรียนรู้ — เกี่ยวกับวิธีการทำงานของเทคโนโลยีนี้ (หรือเป็นวิธีการระบุลักษณะของเทคโนโลยีในลักษณะที่เป็นประโยชน์ต่อพวกเขา ) หรือผิดพลาดเปิดให้เก็งกำไร

ฉันเถียง ในบทความก่อนหน้านี้ การปะทะกันระหว่างศิลปะ AI และศิลปินดั้งเดิมนั้นรุนแรงมากในตอนนี้ การตอบสนองต่อคดีนี้จะไม่แตกต่างกัน เราจะต้องรอกรรมการตัดสินผล

CNET เผยแพร่บทความที่สร้างโดย AI

รายงานลัทธิอนาคต เมื่อสองสามสัปดาห์ที่ผ่านมา:

"CNETสำนักข่าวเทคโนโลยีที่ได้รับความนิยมอย่างล้นหลาม ใช้ความช่วยเหลือจาก “เทคโนโลยีอัตโนมัติ” ซึ่งเป็นคำสละสลวยสำหรับ AI อย่างเงียบๆ ในบทความอธิบายทางการเงินคลื่นลูกใหม่”

Gael Breton ผู้พบเห็นสิ่งนี้เป็นคนแรก เขียนบทวิเคราะห์เชิงลึกเมื่อวันศุกร์. เขาอธิบายว่า Google ดูเหมือนจะไม่ขัดขวางการเข้าชมโพสต์เหล่านี้ “ตอนนี้เนื้อหา AI โอเคไหม” เขาถาม.

ฉันพบว่ามันเป็นการตัดสินใจของ CNET เพื่อเปิดเผยการใช้ AI อย่างครบถ้วน ในบทความของพวกเขาเป็นแบบอย่างที่ดี ตอนนี้มีคนกี่คนที่เผยแพร่เนื้อหาโดยใช้ AI โดยไม่เปิดเผย อย่างไรก็ตาม ผลที่ตามมาคือผู้คนอาจตกงานหากสิ่งนี้ได้ผล (เช่นฉันและคนอื่นๆ ที่คาดการณ์). มันกำลังเกิดขึ้นแล้ว:

 

แหล่ง

 

ฉันเห็นด้วยอย่างยิ่งกับทวีตนี้จากซันติอาโก:

 

แหล่ง

 

RLHF สำหรับการสร้างภาพ

หากการเรียนรู้แบบเสริมแรงผ่านคำติชมของมนุษย์ใช้ได้กับโมเดลภาษา ทำไมไม่ใช้กับการแปลงข้อความเป็นรูปภาพ นั่นคือสิ่งที่ PickaPic พยายามทำให้สำเร็จ

 

 
ตัวอย่าง มีไว้เพื่อวัตถุประสงค์ในการวิจัย แต่อาจเป็นส่วนเสริมที่น่าสนใจสำหรับ Stable Diffusion หรือ DALL-E (Midjourney ทำสิ่งที่คล้ายกัน — พวกเขาแนะนำโมเดลภายในเพื่อให้ได้ภาพที่สวยงามและเป็นศิลปะ)

สูตร "ทำให้ Siri/Alexa ดีขึ้น 10 เท่า"

สูตรอาหารที่ผสมโมเดล AI กำเนิดต่างๆ เพื่อสร้างบางอย่างที่ดีกว่าผลรวมของส่วนต่างๆ:

 

แหล่ง

 
 
อัลแบร์โต โรเมโร เป็นนักเขียนอิสระที่เน้นเรื่องเทคโนโลยีและ AI เขาเขียน สะพานอัลกอริทึมจดหมายข่าวที่ช่วยให้ผู้ที่ไม่เชี่ยวชาญด้านเทคนิคเข้าใจข่าวสารและกิจกรรมเกี่ยวกับ AI เขายังเป็นนักวิเคราะห์เทคโนโลยีที่ CambrianAI ซึ่งเขาเชี่ยวชาญด้านโมเดลภาษาขนาดใหญ่

 
Original. โพสต์ใหม่โดยได้รับอนุญาต
 

ประทับเวลา:

เพิ่มเติมจาก KD นักเก็ต