สัปดาห์นี้ใน AI 18 สิงหาคม: OpenAI ในปัญหาทางการเงิน • ความเสถียรของ AI ประกาศ StableCode - KDnuggets

สัปดาห์นี้ใน AI วันที่ 18 สิงหาคม: OpenAI ในปัญหาทางการเงิน • ความเสถียรของ AI ประกาศ StableCode – KDnuggets

โหนดต้นทาง: 2833080

### ALT ###
รูปภาพที่สร้างโดย Editor ด้วย Midjourney
 

ยินดีต้อนรับสู่ฉบับสัปดาห์นี้ของ “This Week in AI” บน KDnuggets โพสต์รายสัปดาห์ที่รวบรวมไว้นี้มีจุดมุ่งหมายเพื่อให้คุณทันการพัฒนาที่น่าสนใจที่สุดในโลกของปัญญาประดิษฐ์ที่ก้าวหน้าอย่างรวดเร็ว ตั้งแต่พาดหัวข่าวที่แหวกแนวซึ่งกำหนดความเข้าใจของเราเกี่ยวกับบทบาทของ AI ในสังคม ไปจนถึงบทความที่กระตุ้นความคิด แหล่งข้อมูลการเรียนรู้เชิงลึก และการวิจัยที่น่าสนใจซึ่งผลักดันขอบเขตความรู้ของเรา โพสต์นี้จะให้ภาพรวมที่ครอบคลุมเกี่ยวกับภูมิทัศน์ปัจจุบันของ AI การอัปเดตประจำสัปดาห์นี้ออกแบบมาเพื่อให้คุณอัปเดตและรับทราบข้อมูลในฟิลด์ที่มีการพัฒนาตลอดเวลานี้ คอยติดตามและมีความสุขในการอ่าน!

 
ส่วน "หัวข้อข่าว" จะกล่าวถึงข่าวเด่นและการพัฒนาจากสัปดาห์ที่ผ่านมาในด้านปัญญาประดิษฐ์ ข้อมูลมีตั้งแต่นโยบาย AI ของรัฐบาลไปจนถึงความก้าวหน้าทางเทคโนโลยีและนวัตกรรมขององค์กรในด้าน AI

 
💡 ChatGPT มีปัญหา: OpenAI อาจล้มละลายภายในปี 2024 บอท AI มีค่าใช้จ่าย 700,000 ดอลลาร์ทุกวัน

OpenAI กำลังประสบปัญหาทางการเงินเนื่องจากค่าใช้จ่ายสูงในการเรียกใช้ ChatGPT และบริการ AI อื่นๆ แม้จะเติบโตเร็วอย่างรวดเร็ว แต่ฐานผู้ใช้ของ ChatGPT กลับลดลงในช่วงหลายเดือนที่ผ่านมา OpenAI กำลังดิ้นรนเพื่อสร้างรายได้จากเทคโนโลยีอย่างมีประสิทธิภาพและสร้างรายได้ที่ยั่งยืน ในขณะเดียวกันก็ยังคงเผาผลาญเงินสดในอัตราที่น่าตกใจ ด้วยการแข่งขันที่ร้อนระอุและการขาดแคลน GPU ขององค์กรที่เป็นอุปสรรคต่อการพัฒนาโมเดล OpenAI จำเป็นต้องค้นหาเส้นทางสู่การทำกำไรอย่างเร่งด่วน หากล้มเหลวในการดำเนินการดังกล่าว อาจถึงขั้นล้มละลายสำหรับสตาร์ทอัพด้าน AI รุ่นบุกเบิก

 
💡 Stability AI ประกาศ StableCode ผู้ช่วยเข้ารหัส AI สำหรับนักพัฒนา

Stability AI ได้เปิดตัว StableCode ซึ่งเป็นผลิตภัณฑ์ AI รุ่นแรกที่ได้รับการปรับให้เหมาะกับการพัฒนาซอฟต์แวร์ StableCode รวมเอาโมเดลต่างๆ ที่ผ่านการฝึกอบรมบนโทเค็นของโค้ดมากกว่า 500 พันล้านโทเค็นเพื่อให้การเติมข้อความอัตโนมัติอัจฉริยะ ตอบสนองต่อคำสั่งภาษาธรรมชาติ และจัดการช่วงยาวของโค้ด ในขณะที่ AI เชิงสนทนาสามารถเขียนโค้ดได้ StableCode สร้างขึ้นตามวัตถุประสงค์เพื่อเพิ่มประสิทธิภาพการทำงานของโปรแกรมเมอร์ด้วยการทำความเข้าใจโครงสร้างโค้ดและการพึ่งพา ด้วยการฝึกอบรมเฉพาะทางและโมเดลที่สามารถจัดการกับบริบทที่ยาวได้ StableCode มีเป้าหมายเพื่อปรับปรุงเวิร์กโฟลว์ของนักพัฒนาและลดอุปสรรคในการเข้าถึงสำหรับผู้เขียนโค้ดที่ต้องการ การเปิดตัวดังกล่าวแสดงถึงการจู่โจมของ Stability AI ในเครื่องมือเขียนโค้ดที่ได้รับความช่วยเหลือจาก AI ท่ามกลางการแข่งขันที่เพิ่มขึ้นในพื้นที่

 
💡 ขอแนะนำ Superalignment โดย OpenAI

OpenAI ทำงานเชิงรุกเพื่อจัดการกับความเสี่ยงที่อาจเกิดขึ้นจาก AI อัจฉริยะขั้นสูงผ่านทีม Superalignment ใหม่ของพวกเขา ซึ่งกำลังใช้เทคนิคต่างๆ เช่น การเรียนรู้แบบเสริมกำลังจากความคิดเห็นของมนุษย์เพื่อจัดระบบ AI เป้าหมายหลักคือการพัฒนาวิธีการฝึกอบรมที่ปรับขยายได้โดยใช้ระบบ AI อื่นๆ การตรวจสอบความถูกต้องของโมเดล และการทดสอบความเครียดของไปป์ไลน์การจัดตำแหน่งทั้งหมด แม้จะมีโมเดลที่ไม่ตรงแนวโดยเจตนาก็ตาม โดยรวมแล้ว OpenAI มีเป้าหมายเพื่อแสดงว่าการเรียนรู้ของเครื่องสามารถดำเนินการได้อย่างปลอดภัยโดยแนวทางการบุกเบิกเพื่อควบคุมดูแลด้านข่าวกรองอย่างมีความรับผิดชอบ

 
💡 เรียนรู้ในขณะที่คุณค้นหา (และเรียกดู) โดยใช้ generative AI

Google กำลังประกาศการอัปเดตหลายรายการสำหรับความสามารถด้าน AI ของ Search Engine Generation (SGE) รวมถึงการเลื่อนคำนิยามสำหรับหัวข้อวิทยาศาสตร์/ประวัติศาสตร์ การเน้นไวยากรณ์ด้วยรหัสสีสำหรับภาพรวมของโค้ด และการทดสอบในช่วงต้นที่เรียกว่า "SGE ขณะเรียกดู" ซึ่งจะสรุปประเด็นสำคัญและช่วยเหลือผู้ใช้ สำรวจหน้าเมื่ออ่านเนื้อหาแบบยาวบนเว็บ จุดมุ่งหมายเหล่านี้เพื่อเพิ่มความเข้าใจในหัวข้อที่ซับซ้อน ปรับปรุงการย่อยข้อมูลการเข้ารหัส และช่วยในการนำทางและการเรียนรู้ขณะที่ผู้ใช้เรียกดู การอัปเดตแสดงถึงความพยายามอย่างต่อเนื่องของ Google ในการพัฒนาประสบการณ์การค้นหาด้วย AI ตามความคิดเห็นของผู้ใช้ โดยมุ่งเน้นที่ความเข้าใจและแยกรายละเอียดที่สำคัญออกจากเนื้อหาเว็บที่ซับซ้อน

 
💡 Together.ai ขยาย Llama2 เป็นหน้าต่างบริบท 32k

LLaMA-2-7B-32K เป็นโมเดลภาษาบริบทแบบโอเพ่นซอร์สแบบยาวที่พัฒนาโดย Together Computer ซึ่งขยายความยาวบริบทของโทเค็น LLaMA-2 ของ Meta เป็น 32K ใช้ประโยชน์จากการปรับให้เหมาะสมเช่น FlashAttention-2 เพื่อให้การอนุมานและการฝึกอบรมมีประสิทธิภาพมากขึ้น แบบจำลองได้รับการฝึกอบรมล่วงหน้าโดยใช้ข้อมูลผสมกัน ซึ่งรวมถึงหนังสือ เอกสาร และข้อมูลการเรียนการสอน ตัวอย่างมีไว้สำหรับการปรับแต่ง QA แบบยาวและงานสรุป ผู้ใช้สามารถเข้าถึงโมเดลผ่าน Hugging Face หรือใช้ OpenChatKit เพื่อการปรับแต่งแบบละเอียด เช่นเดียวกับโมเดลภาษาอื่นๆ LLaMA-2-7B-32K สามารถสร้างเนื้อหาที่มีอคติหรือไม่ถูกต้อง ซึ่งต้องใช้ความระมัดระวังในการใช้งาน

 
ส่วน "บทความ" นำเสนอชิ้นส่วนที่กระตุ้นความคิดเกี่ยวกับปัญญาประดิษฐ์ แต่ละบทความจะลงลึกในหัวข้อเฉพาะ นำเสนอข้อมูลเชิงลึกแก่ผู้อ่านในแง่มุมต่างๆ ของ AI รวมถึงเทคนิคใหม่ๆ แนวทางการปฏิวัติ และเครื่องมือที่ล้ำสมัย

 
📰 แผ่นโกง LangChain

ด้วย LangChain นักพัฒนาสามารถสร้างแอพที่ใช้ภาษา AI ที่มีความสามารถโดยไม่ต้องคิดค้นใหม่ โครงสร้างที่ประกอบได้ช่วยให้ผสมและจับคู่ส่วนประกอบต่างๆ เช่น LLM, เทมเพลตพรอมต์, เครื่องมือภายนอก และหน่วยความจำได้ง่าย สิ่งนี้ช่วยเร่งการสร้างต้นแบบและช่วยให้สามารถรวมความสามารถใหม่ ๆ ได้ตลอดเวลา ไม่ว่าคุณจะต้องการสร้างแชทบอท บอต QA หรือตัวแทนการให้เหตุผลแบบหลายขั้นตอน LangChain จัดเตรียมแบบเอกสารสำเร็จรูปเพื่อรวบรวม AI ขั้นสูงอย่างรวดเร็ว

 
📰 วิธีใช้ ChatGPT เพื่อแปลงข้อความเป็นงานนำเสนอ PowerPoint

บทความนี้สรุปกระบวนการสองขั้นตอนสำหรับการใช้ ChatGPT เพื่อแปลงข้อความเป็นงานนำเสนอ PowerPoint ขั้นแรกให้สรุปข้อความเป็นชื่อสไลด์และเนื้อหา จากนั้นสร้างโค้ด Python เพื่อแปลงข้อมูลสรุปเป็นรูปแบบ PPTX โดยใช้ไลบรารี python-pptx สิ่งนี้ช่วยให้สร้างงานนำเสนอที่น่าสนใจได้อย่างรวดเร็วจากเอกสารข้อความที่มีความยาว เอาชนะความพยายามด้วยตนเองที่น่าเบื่อ มีคำแนะนำที่ชัดเจนเกี่ยวกับการสร้างข้อความแจ้ง ChatGPT และการเรียกใช้โค้ด ซึ่งนำเสนอโซลูชันอัตโนมัติที่มีประสิทธิภาพสำหรับความต้องการในการนำเสนอ

 
📰 เปิดความท้าทายในการวิจัย LLM

บทความนี้ให้ภาพรวมของทิศทางการวิจัยหลัก 10 ประการเพื่อปรับปรุงโมเดลภาษาขนาดใหญ่: ลดความหลอน, ปรับความยาวบริบท/โครงสร้างให้เหมาะสม, รวมข้อมูลหลายรูปแบบ, เร่งโมเดล, ออกแบบสถาปัตยกรรมใหม่, พัฒนาทางเลือก GPU เช่น ชิปโทนิค, สร้างตัวแทนที่ใช้งานได้, ปรับปรุงการเรียนรู้จาก ความคิดเห็นจากมนุษย์ ปรับปรุงอินเทอร์เฟซการแชท และขยายเป็นภาษาที่ไม่ใช่ภาษาอังกฤษ โดยอ้างอิงเอกสารที่เกี่ยวข้องในพื้นที่เหล่านี้ โดยกล่าวถึงความท้าทายต่างๆ เช่น การแสดงความชอบของมนุษย์สำหรับการเรียนรู้แบบเสริมแรงและการสร้างแบบจำลองสำหรับภาษาที่มีทรัพยากรต่ำ ผู้เขียนสรุปว่า แม้ว่าบางประเด็น เช่น การพูดได้หลายภาษาจะเป็นเรื่องที่เข้าใจได้ง่าย แต่ประเด็นอื่นๆ เช่น สถาปัตยกรรมก็ต้องการการพัฒนาที่ก้าวหน้ากว่า โดยรวมแล้ว ความเชี่ยวชาญทั้งด้านเทคนิคและไม่ใช่ด้านเทคนิคของนักวิจัย บริษัท และชุมชนจะมีความสำคัญอย่างยิ่งต่อ LLMs ในเชิงบวก

 
📰 ทำไมคุณ (อาจ) ไม่จำเป็นต้องปรับแต่ง LLM

บทความนี้ให้ภาพรวมของทิศทางการวิจัยหลัก 10 ประการเพื่อปรับปรุงโมเดลภาษาขนาดใหญ่: ลดความหลอน, ปรับความยาวบริบท/โครงสร้างให้เหมาะสม, รวมข้อมูลหลายรูปแบบ, เร่งโมเดล, ออกแบบสถาปัตยกรรมใหม่, พัฒนาทางเลือก GPU เช่น ชิปโทนิค, สร้างตัวแทนที่ใช้งานได้, ปรับปรุงการเรียนรู้จาก ความคิดเห็นจากมนุษย์ ปรับปรุงอินเทอร์เฟซการแชท และขยายเป็นภาษาที่ไม่ใช่ภาษาอังกฤษ โดยอ้างอิงเอกสารที่เกี่ยวข้องในพื้นที่เหล่านี้ โดยกล่าวถึงความท้าทายต่างๆ เช่น การแสดงความชอบของมนุษย์สำหรับการเรียนรู้แบบเสริมแรงและการสร้างแบบจำลองสำหรับภาษาที่มีทรัพยากรต่ำ ผู้เขียนสรุปว่า แม้ว่าบางประเด็น เช่น การพูดได้หลายภาษาจะเป็นเรื่องที่เข้าใจได้ง่าย แต่ประเด็นอื่นๆ เช่น สถาปัตยกรรมก็ต้องการการพัฒนาที่ก้าวหน้ากว่า โดยรวมแล้ว ความเชี่ยวชาญทั้งด้านเทคนิคและไม่ใช่ด้านเทคนิคของนักวิจัย บริษัท และชุมชนจะมีความสำคัญอย่างยิ่งต่อ LLMs ในเชิงบวก

 
📰 แนวทางปฏิบัติที่ดีที่สุดในการใช้โมเดล OpenAI GPT

บทความนี้สรุปแนวปฏิบัติที่ดีที่สุดสำหรับการรับเอาต์พุตคุณภาพสูงเมื่อใช้โมเดล GPT ของ OpenAI โดยใช้ประสบการณ์ของชุมชน ขอแนะนำให้แจ้งรายละเอียดโดยเจาะจง เช่น ความยาวและบุคลิก คำแนะนำหลายขั้นตอน ตัวอย่างที่จะเลียนแบบ; การอ้างอิงและอ้างอิง; เวลาสำหรับการคิดอย่างมีวิจารณญาณ และการรันโค้ดเพื่อความแม่นยำ การปฏิบัติตามเคล็ดลับเหล่านี้ในการแนะนำโมเดล เช่น การระบุขั้นตอนและบุคลิก สามารถนำไปสู่ผลลัพธ์ที่แม่นยำ เกี่ยวข้อง และปรับแต่งได้มากขึ้น แนวทางนี้มีจุดมุ่งหมายเพื่อช่วยให้ผู้ใช้จัดโครงสร้างข้อความแจ้งได้อย่างมีประสิทธิภาพ เพื่อให้ได้รับประโยชน์สูงสุดจากความสามารถในการสร้างอันทรงพลังของ OpenAI

 
📰 เราทุกคนคิดผิดเกี่ยวกับ AI

ผู้เขียนให้เหตุผลว่าความสามารถของ AI ในปัจจุบันนั้นถูกประเมินต่ำเกินไป โดยใช้ตัวอย่างเช่น ความคิดสร้างสรรค์ การค้นหา และการปรับเปลี่ยนในแบบของคุณเพื่อต่อต้านความเข้าใจผิดทั่วไป เขากล่าวว่า AI สามารถสร้างสรรค์โดยการผสมผสานแนวคิดใหม่ ไม่ใช่แค่การสร้างแนวคิดแบบสุ่ม มันไม่ได้เป็นเพียงเครื่องมือค้นหาที่อัดแน่นอย่าง Google; และสามารถพัฒนาความสัมพันธ์ส่วนบุคคล ไม่ใช่แค่ทักษะทั่วไป แม้จะไม่แน่ใจว่าแอปพลิเคชันใดจะเป็นประโยชน์มากที่สุด ผู้เขียนขอให้เปิดใจมากกว่าการเพิกเฉย โดยเน้นว่าวิธีที่ดีที่สุดในการพิจารณาศักยภาพของ AI คือการสำรวจอย่างต่อเนื่อง เขาสรุปว่าจินตนาการของเราเกี่ยวกับ AI นั้นมีจำกัด และการใช้งานของมันน่าจะเกินความคาดหมายในปัจจุบันมาก

 
ส่วน "เครื่องมือ" แสดงรายการแอพและสคริปต์ที่มีประโยชน์ซึ่งสร้างโดยชุมชนสำหรับผู้ที่ต้องการใช้งานแอปพลิเคชัน AI ที่ใช้งานได้จริง ที่นี่คุณจะได้พบกับเครื่องมือประเภทต่างๆ ตั้งแต่ฐานรหัสที่ครอบคลุมขนาดใหญ่ไปจนถึงสคริปต์เฉพาะกลุ่มขนาดเล็ก โปรดทราบว่ามีการแบ่งปันเครื่องมือโดยไม่มีการรับรองและไม่มีการรับประกันใดๆ ทำการบ้านของคุณเองเกี่ยวกับซอฟต์แวร์ใด ๆ ก่อนการติดตั้งและใช้งาน!

 
🛠️ MetaGPT: Multi-Agent Framework

MetaGPT ใช้ข้อกำหนดหนึ่งบรรทัดเป็นอินพุตและเอาต์พุตเรื่องราวของผู้ใช้ / การวิเคราะห์การแข่งขัน / ข้อกำหนด / โครงสร้างข้อมูล / API / เอกสาร ฯลฯ ภายใน MetaGPT รวมถึงผู้จัดการผลิตภัณฑ์ / สถาปนิก / ผู้จัดการโครงการ / วิศวกร นำเสนอกระบวนการทั้งหมดของบริษัทซอฟต์แวร์พร้อมกับ SOP ที่จัดทำขึ้นอย่างรอบคอบ

 
🛠️ GPT LLM เทรนเนอร์

เป้าหมายของโครงการนี้คือการสำรวจไปป์ไลน์ทดลองใหม่เพื่อฝึกโมเดลเฉพาะงานที่มีประสิทธิภาพสูง เราพยายามขจัดความซับซ้อนทั้งหมดออกไป ดังนั้นจึงเป็นเรื่องง่ายที่สุดที่จะเปลี่ยนจากไอเดีย -> โมเดลที่ได้รับการฝึกฝนมาอย่างมีประสิทธิภาพ

เพียงป้อนคำอธิบายงานของคุณ จากนั้นระบบจะสร้างชุดข้อมูลตั้งแต่เริ่มต้น แยกวิเคราะห์เป็นรูปแบบที่ถูกต้อง และปรับแต่งโมเดล LLaMA 2 สำหรับคุณ

 
🛠️ แพทย์GPT

DoctorGPT เป็นรูปแบบภาษาขนาดใหญ่ที่สามารถผ่านการสอบใบอนุญาตทางการแพทย์ของสหรัฐอเมริกา นี่เป็นโครงการโอเพ่นซอร์สที่มีภารกิจในการจัดหาแพทย์ส่วนตัวให้กับทุกคน DoctorGPT เป็นเวอร์ชันของ Llama2 7 พันล้านพารามิเตอร์ Large Language Model ของ Meta ที่ได้รับการปรับแต่งอย่างละเอียดในชุดข้อมูลบทสนทนาทางการแพทย์ จากนั้นจึงปรับปรุงเพิ่มเติมโดยใช้การเรียนรู้เสริมกำลังและ AI ตามรัฐธรรมนูญ เนื่องจากโมเดลมีขนาดเพียง 3 กิกะไบต์ จึงเหมาะกับอุปกรณ์ภายในเครื่อง ดังนั้นจึงไม่จำเป็นต้องจ่าย API เพื่อใช้งาน

 
 

ประทับเวลา:

เพิ่มเติมจาก KD นักเก็ต

ข่าว KDnuggets วันที่ 19 เมษายน: AutoGPT: ทุกสิ่งที่คุณต้องรู้ • 10 เว็บไซต์เพื่อรับข้อมูลที่น่าทึ่งสำหรับโครงการวิทยาศาสตร์ข้อมูล

โหนดต้นทาง: 2595549
ประทับเวลา: เมษายน 19, 2023