Có ai thực sự ngạc nhiên khi Apple đang phát triển AI trên thiết bị không?

Có ai thực sự ngạc nhiên khi Apple đang phát triển AI trên thiết bị không?

Nút nguồn: 3083594

Bình luận Những nỗ lực của Apple trong việc bổ sung AI vào iDevices của mình sẽ không khiến ai ngạc nhiên, nhưng việc sử dụng công nghệ hiện tại của Cupertino và những hạn chế về phần cứng di động cho thấy đây sẽ không phải là một tính năng lớn của iOS trong tương lai gần.

Apple đã không tham gia vào làn sóng chủ nghĩa tăng cường AI tổng quát gần đây, thậm chí còn tránh sử dụng các thuật ngữ “AI” hoặc “Trí tuệ nhân tạo” trong các bài thuyết trình quan trọng gần đây của mình so với nhiều doanh nghiệp. Tuy nhiên, học máy đã và đang tiếp tục là một khả năng quan trọng của Apple - chủ yếu là nền tảng trong việc cung cấp các cải tiến tinh tế cho trải nghiệm người dùng.

Việc Apple sử dụng AI để xử lý hình ảnh là một ví dụ về công nghệ hoạt động ở chế độ nền. Khi iThings chụp ảnh, thuật toán học máy sẽ hoạt động để xác định và gắn thẻ đối tượng, chạy nhận dạng ký tự quang học và thêm liên kết.

Vào năm 2024, loại AI vô hình đó sẽ không còn tác dụng nữa. Các đối thủ của Apple đang chào hàng AI như một khả năng thiết yếu cho mọi thiết bị và ứng dụng. Theo một báo cáo gần đây Thời báo Tài chính báo cáoApple đã âm thầm mua lại các công ty AI và phát triển các mô hình ngôn ngữ lớn của riêng mình để đảm bảo có thể cung cấp.

Lợi thế phần cứng của Apple

Các đơn vị xử lý thần kinh (NPU) trong silicon homebrew của Apple xử lý việc triển khai AI hiện có. Apple đã sử dụng các bộ tăng tốc mà họ gọi là “Công cụ thần kinh” kể từ khi ra mắt hệ thống trên chip A2017 năm 11 và sử dụng chúng để xử lý khối lượng công việc học máy nhỏ hơn nhằm giải phóng CPU và GPU của thiết bị cho các công việc khác.

NPU của Apple đặc biệt mạnh mẽ. A17 Pro được tìm thấy trong iPhone 15 Pro có khả năng đẩy 35 TOPS, gấp đôi so với người tiền nhiệm và khoảng gấp đôi trong số một số NPU mà Intel và AMD cung cấp để sử dụng trong PC.

Các chip Snapdragon mới nhất của Qualcomm ngang bằng với Apple về hiệu suất NPU. Giống như Apple, Qualcomm cũng có nhiều năm kinh nghiệm về NPU trên thiết bị di động. AMD và Intel còn khá mới trong lĩnh vực này.

Apple chưa chia sẻ hiệu suất dấu phẩy động hoặc số nguyên cho GPU của chip, mặc dù họ đã giới thiệu về các trò chơi chạy hiệu quả như Resident Evil 4 Remake và Assassin's Creed Mirage. Điều này cho thấy sức mạnh tính toán không phải là yếu tố hạn chế để chạy các mô hình AI lớn hơn trên nền tảng.

Hỗ trợ thêm cho điều này là thực tế là silicon dòng M của Apple, được sử dụng trong các dòng máy Mac và iPad, đã được chứng minh là đặc biệt hiệu quả trong việc chạy khối lượng công việc suy luận AI. Trong thử nghiệm của chúng tôi, với bộ nhớ đầy đủ — chúng tôi gặp rắc rối với dung lượng dưới 16 GB — một chiếc Macbook Air M1 đã ba năm tuổi có nhiều khả năng chạy Llama 2 7B ở độ chính xác 8 bit và thậm chí còn nhanh hơn với 4 bit phiên bản lượng tử hóa của mô hình. Nhân tiện, nếu bạn muốn thử tính năng này trên máy Mac M1 của mình, Ollama.ai làm cho việc chạy Llama 2 trở nên dễ dàng.

Điểm mà Apple có thể buộc phải nhượng bộ về phần cứng là bộ nhớ.

Nói chung, các mô hình AI cần khoảng 8 gigabyte bộ nhớ cho mỗi tỷ tham số khi chạy ở độ chính xác 4 bit. Điều này có thể giảm đi một nửa bằng cách giảm xuống độ chính xác thấp hơn, chẳng hạn như Int-XNUMX, hoặc bằng cách phát triển các mô hình lượng tử hóa nhỏ hơn.

Llama 2 7B đã trở thành điểm tham chiếu phổ biến cho PC và điện thoại thông minh AI do yêu cầu tính toán và dấu chân tương đối nhỏ khi chạy kích thước lô nhỏ. Sử dụng lượng tử hóa 4 bit, yêu cầu của mô hình có thể giảm xuống còn 3.5 GB.

Nhưng ngay cả với 8 GB RAM trên iPhone 15 Pro, chúng tôi nghi ngờ rằng thế hệ điện thoại tiếp theo của Apple có thể cần nhiều bộ nhớ hơn hoặc các mẫu điện thoại sẽ cần nhỏ hơn và nhắm mục tiêu nhiều hơn. Đây có thể là một trong những lý do khiến Apple chọn phát triển các mẫu của riêng mình thay vì hợp tác với các mẫu như Stable Diffusion hay Llama 2 để chạy ở Int-4, như chúng ta đã thấy từ Qualcomm.

Cũng có một số bằng chứng cho thấy Apple có thể đã tìm ra cách giải quyết vấn đề bộ nhớ. Như được phát hiện bởi Thời báo Tài chính, hồi tháng 12, các nhà nghiên cứu của Apple đã công bố [PDF] một bài báo chứng minh khả năng chạy LLM trên thiết bị bằng bộ nhớ flash.

Mong đợi một cách tiếp cận thận trọng hơn đối với AI

Khi Apple giới thiệu chức năng AI trên nền tảng máy tính để bàn và thiết bị di động, chúng tôi kỳ vọng hãng sẽ có một cách tiếp cận tương đối thận trọng.

Biến Siri thành thứ mà mọi người không cảm thấy cần phải nói như một đứa trẻ mẫu giáo dường như là một điểm khởi đầu hiển nhiên. Làm điều đó có thể có nghĩa là giao cho LLM công việc phân tích đầu vào thành dạng mà Siri có thể dễ hiểu hơn, để bot có thể đưa ra câu trả lời tốt hơn.

Siri có thể trở nên ít dễ nhầm lẫn hơn nếu bạn diễn đạt truy vấn theo cách vòng vo, dẫn đến phản hồi hiệu quả hơn.

Về lý thuyết, điều này sẽ có một số lợi ích. Đầu tiên là Apple sẽ có thể thoát khỏi việc sử dụng một mô hình nhỏ hơn nhiều so với những thứ như Llama 2. Thứ hai, là hãng sẽ tránh được phần lớn vấn đề LLM tạo ra phản hồi sai.

Chúng tôi có thể sai, nhưng Apple có thành tích là chậm triển khai các công nghệ mới nhất nhưng sau đó lại đạt được thành công trong khi những người khác đã thất bại bằng cách dành thời gian để tinh chỉnh và đánh bóng các tính năng cho đến khi chúng thực sự hữu ích.

Và với giá trị của nó, AI có tính sáng tạo vẫn chưa chứng minh được nó là một thành công: Chatbot lớn của Microsoft đặt cược vào việc thổi sức sống vào công cụ tìm kiếm Bing mà không ai yêu thích chưa dịch vào việc tăng thị phần lớn.

Trong khi đó, Apple đã giành vương miện vào năm 2024 nhà cung cấp điện thoại thông minh hàng đầu trong khi chỉ triển khai AI vô hình. ®

Dấu thời gian:

Thêm từ Đăng ký