มีใครแปลกใจจริงๆ ไหมที่ Apple กำลังพัฒนา AI บนอุปกรณ์?

มีใครแปลกใจจริงๆ ไหมที่ Apple กำลังพัฒนา AI บนอุปกรณ์?

โหนดต้นทาง: 3083594

Comment ความพยายามของ Apple ในการเพิ่ม AI เจนเนอเรชั่นให้กับ iDevices นั้นไม่น่าจะทำให้ใครแปลกใจ แต่การใช้เทคโนโลยีที่มีอยู่ของ Cupertino และข้อจำกัดของฮาร์ดแวร์มือถือ แนะนำว่ามันจะไม่ใช่ฟีเจอร์สำคัญของ iOS ในอนาคตอันใกล้นี้

Apple ไม่ได้เข้าร่วมกระแสการส่งเสริม AI แบบเจนเนอเรชั่นล่าสุด แม้ว่าโดยทั่วไปจะหลีกเลี่ยงคำว่า "AI" หรือ "ปัญญาประดิษฐ์" ในการนำเสนอประเด็นสำคัญล่าสุดเมื่อเปรียบเทียบกับธุรกิจจำนวนมาก อย่างไรก็ตาม แมชชีนเลิร์นนิงยังคงเป็นความสามารถหลักสำหรับ Apple และยังคงเป็นความสามารถหลัก โดยส่วนใหญ่อยู่เบื้องหลังในการให้บริการปรับปรุงประสบการณ์ผู้ใช้อย่างละเอียด

การใช้ AI ของ Apple ในการจัดการภาพเป็นตัวอย่างหนึ่งของเทคโนโลยีในการทำงานในพื้นหลัง เมื่อ iThings ถ่ายภาพ อัลกอริธึมการเรียนรู้ของเครื่องจะทำงานเพื่อระบุและแท็กหัวข้อ เรียกใช้การรู้จำอักขระด้วยแสง และเพิ่มลิงก์

ในปี 2024 AI ที่มองไม่เห็นแบบนั้นไม่ได้ตัดมันทิ้งไป คู่แข่งของ Apple กำลังโน้มน้าว AI เชิงสร้างสรรค์ว่าเป็นความสามารถที่จำเป็นสำหรับทุกอุปกรณ์และแอปพลิเคชัน ตามล่าสุด ไทม์ทางการเงิน รายงานApple ได้ซื้อบริษัท AI อย่างเงียบๆ และพัฒนาโมเดลภาษาขนาดใหญ่ของตัวเองเพื่อให้แน่ใจว่าจะสามารถส่งมอบได้

ข้อได้เปรียบด้านฮาร์ดแวร์ของ Apple

หน่วยประมวลผลประสาท (NPU) ในซิลิคอนโฮมบรูว์ของ Apple จัดการกับการใช้งาน AI ที่มีอยู่ Apple ได้ใช้ตัวเร่งความเร็วซึ่งเรียกว่า "Neural Engines" นับตั้งแต่เปิดตัวระบบบนชิป A2017 ในปี 11 และใช้พวกมันเพื่อจัดการเวิร์กโหลดการเรียนรู้ของเครื่องที่มีขนาดเล็กลง เพื่อลด CPU และ GPU ของอุปกรณ์สำหรับงานอื่น ๆ

NPU ของ Apple นั้นทรงพลังเป็นพิเศษ A17 Pro ที่พบใน iPhone 15 Pro สามารถผลักดันได้ถึง 35 TOPS ซึ่งเพิ่มขึ้นเป็นสองเท่าของรุ่นก่อนและประมาณนั้น สองครั้งนั้น ของ NPU บางตัวที่ Intel และ AMD เสนอให้ใช้ในพีซี

ชิป Snapdragon ล่าสุดของ Qualcomm อยู่ตรงนั้นกับ Apple ในแง่ของ NPU perf เช่นเดียวกับ Apple Qualcomm มีประสบการณ์หลายปีในด้าน NPU ในด้านอุปกรณ์พกพา AMD และ Intel นั้นค่อนข้างใหม่ในวงการนี้

Apple ไม่ได้แชร์จุดลอยตัวหรือประสิทธิภาพจำนวนเต็มสำหรับ GPU ของชิป แม้ว่าจะกล่าวถึงเกมที่มีความสามารถอย่าง Resident Evil 4 Remake และ Assassin's Creed Mirage สิ่งนี้ชี้ให้เห็นว่าพลังการคำนวณไม่ใช่ปัจจัยจำกัดสำหรับการรันโมเดล AI ที่ใหญ่กว่าบนแพลตฟอร์ม

การสนับสนุนเพิ่มเติมคือความจริงที่ว่าซิลิคอน M-series ของ Apple ซึ่งใช้ในผลิตภัณฑ์ Mac และ iPad ได้รับการพิสูจน์แล้วว่ามีศักยภาพเป็นพิเศษในการรันปริมาณงานการอนุมาน AI ในการทดสอบของเรา เมื่อพิจารณาจากหน่วยความจำที่เพียงพอ — เราประสบปัญหากับความจุน้อยกว่า 16GB — M1 Macbook Air ที่มีอายุสามปีตอนนี้มีความสามารถในการรัน Llama 2 7B ได้มากกว่าด้วยความแม่นยำ 8 บิต และยังเร็วกว่าด้วย 4 บิตอีกด้วย เวอร์ชันเชิงปริมาณของโมเดล อย่างไรก็ตาม หากคุณต้องการลองใช้ M1 Mac ของคุณ Ollama.ai ทำให้การรัน Llama 2 เป็นเรื่องง่าย

ในกรณีที่ Apple อาจถูกบังคับให้ยอมจำนนด้านฮาร์ดแวร์ก็คือหน่วยความจำ

โดยทั่วไปแล้ว โมเดล AI ต้องการหน่วยความจำประมาณหนึ่งกิกะไบต์สำหรับพารามิเตอร์ทุก ๆ พันล้านพารามิเตอร์ เมื่อทำงานที่ความแม่นยำ 8 บิต สิ่งนี้สามารถลดลงครึ่งหนึ่งโดยการลดความแม่นยำลง เช่น Int-4 หรือโดยการพัฒนาแบบจำลองเชิงปริมาณที่เล็กลง

Llama 2 7B กลายเป็นจุดอ้างอิงทั่วไปสำหรับพีซีและสมาร์ทโฟน AI เนื่องจากมีเนื้อที่ที่ค่อนข้างน้อยและข้อกำหนดในการคำนวณเมื่อใช้งานในขนาดแบตช์ขนาดเล็ก เมื่อใช้การวัดปริมาณ 4 บิต ความต้องการของโมเดลสามารถลดลงเหลือ 3.5GB

แต่ถึงแม้จะมี RAM ขนาด 8 GB บน iPhone 15 Pro แต่เราสงสัยว่าโทรศัพท์รุ่นถัดไปของ Apple อาจต้องการหน่วยความจำเพิ่มเติม หรือรุ่นจะต้องมีขนาดเล็กลงและตรงเป้าหมายมากขึ้น นี่อาจเป็นหนึ่งในเหตุผลที่ Apple เลือกที่จะพัฒนาโมเดลของตัวเอง แทนที่จะร่วมเลือกใช้โมเดลอย่าง Stable Diffusion หรือ Llama 2 เพื่อทำงานที่ Int-4 ดังที่เราได้เห็นจาก Qualcomm

นอกจากนี้ยังมีหลักฐานบางอย่างที่บ่งชี้ว่า Apple อาจพบวิธีแก้ไขปัญหาหน่วยความจำแล้ว ตามที่เห็นโดย ไทม์ทางการเงินย้อนกลับไปในเดือนธันวาคม นักวิจัยของ Apple เผยแพร่ [รูปแบบไฟล์ PDF] บทความสาธิตความสามารถในการเรียกใช้ LLM บนอุปกรณ์โดยใช้หน่วยความจำแฟลช

คาดหวังแนวทางที่อนุรักษ์นิยมมากขึ้นสำหรับ AI

เมื่อ Apple เปิดตัวฟังก์ชัน AI บนเดสก์ท็อปและแพลตฟอร์มมือถือ เราคาดว่าจะใช้แนวทางที่ค่อนข้างอนุรักษ์นิยม

การเปลี่ยน Siri ให้เป็นสิ่งที่ผู้คนไม่จำเป็นต้องพูดด้วยเหมือนเด็กก่อนวัยเรียนดูเหมือนจะเป็นจุดเริ่มต้นที่ชัดเจน การทำเช่นนี้อาจหมายถึงการให้ LLM แยกวิเคราะห์อินพุตเป็นรูปแบบที่ Siri สามารถเข้าใจได้ง่ายขึ้น เพื่อให้บอทสามารถให้คำตอบได้ดีขึ้น

Siri อาจสับสนน้อยลงหากคุณใช้วลีค้นหาในลักษณะวงเวียน ส่งผลให้ได้รับคำตอบที่มีประสิทธิภาพมากขึ้น

ตามทฤษฎีแล้ว สิ่งนี้ควรมีประโยชน์สองประการ สิ่งแรกคือ Apple ควรหลีกเลี่ยงการใช้รุ่นที่เล็กกว่ารุ่น Llama 2 มาก อย่างที่สองคือควรหลีกเลี่ยงปัญหาของ LLM ที่สร้างการตอบสนองที่ผิดพลาดเป็นส่วนใหญ่

เราอาจผิดพลาดได้ แต่ Apple มีประวัติที่ล่าช้าในการใช้เทคโนโลยีล่าสุด แต่กลับพบความสำเร็จที่ผู้อื่นล้มเหลวโดยใช้เวลาในการปรับแต่งและขัดเกลาคุณสมบัติต่างๆ จนกว่าจะมีประโยชน์จริง

และสำหรับสิ่งที่คุ้มค่า AI เจนเนอเรทีฟยังไม่ได้พิสูจน์ว่ามันเป็นที่นิยม: แชทบอทตัวใหญ่ของ Microsoft เดิมพันที่จะใช้ชีวิตใน Bing เสิร์ชเอ็นจิ้นที่ไม่มีใครชื่นชอบ ยังไม่ได้แปล เข้าสู่ส่วนแบ่งการตลาดที่สำคัญเพิ่มขึ้น

ในขณะเดียวกัน Apple ก็ครองมงกุฎในปี 2024 ผู้จำหน่ายสมาร์ทโฟนชั้นนำ ในขณะที่ปรับใช้ AI ที่มองไม่เห็นเท่านั้น ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน