دور وحدة المعالجة المركزية في الذكاء الاصطناعي/التعلم الآلي المستدام

دور وحدة المعالجة المركزية في الذكاء الاصطناعي/التعلم الآلي المستدام

عقدة المصدر: 3093662

إعلانية مع توسيع الذكاء الاصطناعي نطاقه عبر بيئات الحوسبة التجارية، فإن تأثيره يسبب بعض التأثيرات غير المتوقعة. أحدث IDC فيوتشر سكيب على سبيل المثال، يتوقع التقرير أنه مع تسابق الشركات لتقديم منتجات/خدمات معززة بالذكاء الاصطناعي ومساعدة عملائها في تطبيقات الذكاء الاصطناعي، ستصبح التكنولوجيا حافزًا رئيسيًا للابتكار.

يتمحور تغيير آخر يعتمد على الذكاء الاصطناعي حول المدى الذي قد تضطر فيه مراكز البيانات إلى موازنة وحدات المعالجة المركزية مع مسرعات الذكاء الاصطناعي المنفصلة، ​​مثل وحدات معالجة الرسومات أو البنى المتخصصة من أجل توفير إمكانات الحوسبة عالية الأداء التي يريدها مطورو الذكاء الاصطناعي.

إنه نقاش يثير قضايا عالية المخاطر لأصحاب مراكز البيانات، سواء من حيث الاستثمار الرأسمالي الإضافي أو احتمال أن تستهلك عمليات الذكاء الاصطناعي النموذجية المعتمدة على وحدة معالجة الرسومات (رغم أن طرق القياس غير دقيقة) طاقة أكبر من أحمال عمل تكنولوجيا المعلومات التقليدية.

يعد التعامل مع الطاقة العالية/الكربون الزائد للذكاء الاصطناعي نقطة ألم إضافية لعمليات مراكز البيانات، والتي يجب أن تضمن أيضًا أن بنيات الحوسبة المحسنة للذكاء الاصطناعي يمكنها إدارة متطلبات الطاقة المتزايدة دون المخاطرة بزيادة التحميل على التكنولوجيا أو المرافق الحالية.

لذا، نظرًا لأن التنظيم الموسع في حوكمة الاستدامة وإدارة الكربون يدفع العمليات إلى تقليل استخدام الطاقة عبر سلسلة كاملة من أجهزة وبرمجيات تكنولوجيا المعلومات، فإن الذكاء الاصطناعي يمثل فرصة وعائقًا على حد سواء.

التخفيف من استهلاك طاقة الذكاء الاصطناعي

يوضح ستيفان جيليش، مدير قسم الذكاء الاصطناعي GTM في مركز التميز للذكاء الاصطناعي التابع لشركة إنتل، أن زيادة استهلاك الطاقة وإعادة التشكيل الهيكلي اللازمة لاستيعاب أعباء عمل الذكاء الاصطناعي والتعلم الآلي تشكل معًا تحديًا لا يرحم لمراكز البيانات.

"من الواضح إلى حد ما عبر القطاعات والصناعات الرأسية، أينما يتم تطوير تطبيقات وخدمات الذكاء الاصطناعي/التعلم الآلي وتدريبها وتشغيلها، يجب أن تخضع قدرات مرافق تكنولوجيا المعلومات المحلية والمستضافة على السحابة إلى ترقيات للتعامل مع كميات البيانات المتزايدة يقول غيليش: -أعباء العمل المكثفة. "ومن الواضح أيضًا أن هذه الترقيات يجب أن تستلزم أكثر من مجرد زيادة القدرة الحاسوبية."

يعتقد جيليتش أنه يمكن القيام بالكثير لتعزيز استدامة مراكز البيانات التي تركز على الذكاء الاصطناعي، بدءًا من إعادة تقييم بعض الافتراضات حول مشهد الذكاء الاصطناعي/التعلم الآلي. تعد وحدات المعالجة مكانًا جيدًا للبدء، خاصة عند تحديد ما إذا كانت وحدات المعالجة المركزية (CPU) أو وحدات معالجة الرسومات (GPU) أكثر ملاءمة للمهمة.

لأنه في حين يبدو أن أعباء العمل الخاصة بالحوسبة المكثفة الخاصة بالذكاء الاصطناعي آخذة في الارتفاع (لا أحد متأكد تمامًا من السرعة التي تسير بها)، فإن الجزء الأكبر من عمل مركز البيانات (أعباء العمل غير المتعلقة بالذكاء الاصطناعي) يجب أن يستمر في العمل يومًا بعد يوم - مما يوفر تطبيقًا ثابتًا وعدم إزعاج تدفقات إيرادات الخدمة.

يتم التعامل مع معظم هذه العناصر حاليًا بواسطة وحدات المعالجة المركزية (CPUs)، كما أن إعادة تجهيز مركز بيانات قياسي بوحدات معالجة رسوميات أكثر تكلفة سيكون فائضًا عن المتطلبات للعديد من المرافق. بشكل عام، تستهلك وحدة معالجة الرسومات طاقة أكبر من وحدة المعالجة المركزية لأداء مهمة مماثلة. اعتمادًا على مصدر الطاقة لتكوين حامل معين، يتطلب دمج وحدات معالجة الرسومات في البنية التحتية لمركز البيانات ترقيات لأنظمة توزيع الطاقة على سبيل المثال، والتي لا بد أن تتحمل تكاليف أولية إضافية، بالإضافة إلى فواتير طاقة أعلى بمجرد تشغيلها.

علاوة على ذلك، يستمر تطوير وحدة المعالجة المركزية من Intel في الابتكار. في حالات الاستخدام المتعددة، يمكن إثبات أن وحدة المعالجة المركزية تحقق أداءً عامًا جيدًا - وأحيانًا أفضل - مثل وحدة معالجة الرسومات، كما يقول جيليش. ويمكن تعزيز أدائها باستخدام تقنيات متقدمة مثل Intel® AMX (امتدادات المصفوفة المتقدمة) وهو مُسرع مدمج في وحدات المعالجة المركزية Intel Xeon من الجيل الرابع.

ويشير جيليتش إلى أن "معالجات Intel Xeon يمكنها تمكين مركز البيانات من توسيع نطاق اعتماد الذكاء الاصطناعي من خلال تسريع الذكاء الاصطناعي المدمج الذي يعزز أداء وحدة المعالجة المركزية للتعلم الآلي والتدريب والاستدلال". "وبهذه الطريقة، يمكنهم اعتماد مسرعات منفصلة لتقليل النفقات الرأسمالية وزيادة الأداء إلى أقصى حد مع الاستفادة من بيئات معالجة Intel Xeon الحالية."

تحتاج إلى المزج بين أعباء العمل المتعلقة بالذكاء الاصطناعي وغير المرتبطة بالذكاء الاصطناعي

Intel AMX عبارة عن كتلة أجهزة مخصصة في قلب معالج Intel Xeon Scalable الذي يمكّن تشغيل أحمال عمل الذكاء الاصطناعي على وحدة المعالجة المركزية بدلاً من تفريغها إلى مسرع منفصل، مما يوفر تعزيزًا كبيرًا للأداء. إنها مناسبة لأحمال عمل الذكاء الاصطناعي مثل أنظمة توصيات التعلم الآلي، والتعرف على الصور، ومعالجة اللغات الطبيعية، التي تعتمد على رياضيات المصفوفة.

حجة أخرى لصالح وحدات المعالجة المركزية المعززة هي أنها توفر طريقًا فعالاً من حيث التكلفة لمشغلي مراكز البيانات لتحقيق المزيد من التزامات وحدة المعالجة المركزية الحالية، وتأمين أصولهم للمستقبل حتى يتمكنوا من تحمل أعباء العمل المختلطة، ووضعهم في وضع يسمح لهم بشكل أفضل التحكم في استخدام الطاقة بشكل عام.

وهذا بدوره قد يساعد مقدمي خدمات مراكز البيانات (وعملائهم) على تحقيق أهداف الاستدامة، ويوفر نقطة بيع لمطوري البرامج (المؤسسات أو الجهات الخارجية) الذين يبحثون عن منصة محسنة لعرض كفاءة استخدام الطاقة في ترميزهم. النواتج.

يقول جيليتش: "الحقيقة هي أنه بدلاً من التسرع في استغلال الفرص التي قد تعد بها أعباء عمل الذكاء الاصطناعي، يدرك مشغلو مراكز البيانات أنه ينبغي عليهم النظر في مجموعة من الضرورات التي تسترشد بالمخاوف التجارية بقدر ما تسترشد بالخيارات التكنولوجية".

يمكن أن تشمل هذه الضرورات ما يلي: تكامل أعباء عمل الذكاء الاصطناعي مع أعباء العمل غير المتعلقة بالذكاء الاصطناعي؛ التكامل بين مجموعات الأجهزة والبرامج المختلفة؛ ولأنهم يريدون التأكد من أن لديهم بنية مناسبة لأحمال عمل متعددة ومختلفة، وتكامل أنواع مسارات العمل المختلفة.

يقول جيليتش: "تشير هذه الأسئلة إلى تحديات معقدة، لأن الإجابة عليها بشكل صحيح له تأثير على الكفاءة التكنولوجية والكفاءة المثلى للطاقة - حيث أصبحت كفاءة الطاقة الآن معيارًا أساسيًا للأداء من شأنه أن يؤثر بشكل متزايد على الجدوى التجارية لمركز البيانات". "لذلك مرة أخرى، إنه أمر في غاية الأهمية."

من وجهة نظر جيليش، فإن مفتاح التكيف مع هذا الواقع الناشئ هو عملية تدريجية لما يمكن أن نطلق عليه "استيعاب الذكاء الاصطناعي". النقطة الأولى هنا هي أن أعباء عمل الذكاء الاصطناعي لا يتم فصلها عن أنواع أعباء العمل الأخرى، بل سيتم دمجها في أعباء العمل التقليدية، بدلاً من تشغيلها بشكل منفصل.

يعطي جيليتش مؤتمرات الفيديو كمثال على هذا التكامل المرحلي: "أثناء تدفق حركة مرور الصوت/الفيديو القياسية عبر التطبيقات القياسية، تم دمج الذكاء الاصطناعي لأداء المهام المصاحبة مثل التلخيص والترجمة والنسخ. يتم دعم هذه الميزات بشكل جيد للغاية بواسطة الذكاء الاصطناعي.

توفير الطاقة من النهاية إلى النهاية

ويرى جيليتش أن تحقيق كفاءة استخدام الطاقة يجب أن يكون بمثابة مهمة استراتيجية شاملة حقًا. "إنها تمتد إلى جانب البرامج بالإضافة إلى بنيات الأجهزة - وهي الآلية الكاملة التي تتيح عملية سير عمل معينة. أين يتم تخزين البيانات لجعل الوصول إليها أكثر كفاءة - من حيث الحساب وبالتالي من حيث الطاقة - هل هذا هو أفضل مكان لكفاءة استخدام الطاقة؟ "

العامل الآخر الذي يجب إدخاله في هذا التقييم هو تحديد مكان تشغيل عبء العمل. على سبيل المثال، هل يتم تشغيله على العملاء (مثل كمبيوتر الذكاء الاصطناعي المزود بمعالجات Intel Core Ultra، بدلاً من الخوادم الموجودة في مركز البيانات؟ هل يمكن بالفعل تشغيل بعض أعباء عمل الذكاء الاصطناعي هذه على العملاء (إلى جانب الخوادم)؟

يستحق كل خيار النظر فيه إذا كان سيساعد في تحقيق توازن أفضل بين حوسبة الذكاء الاصطناعي واستهلاك الطاقة، كما يقول جيليش: "يشبه الأمر تقريبًا العودة إلى فكرة المدرسة القديمة للحوسبة الموزعة".

ويضيف جيليش: "في بعض الأحيان يتساءل عملاؤنا: "أين سيلعب الذكاء الاصطناعي؟" – الجواب هو أن الذكاء الاصطناعي سوف يلعب في كل مكان. لذا، فإن طموحنا في إنتل يتركز على ما يمكن تسميته بالتكيف العالمي للذكاء الاصطناعي، لأننا نعتقد أنه سيدخل في جميع مجالات التطبيق.

في Intel، يشمل هذا البرامج الوسيطة مثل واجهات برمجة التطبيقات (APIs)، والتي، كما هو الحال مع أي جزء آخر من حزمة البرامج، يجب أن تكون فعالة قدر الإمكان. يمكن أن يؤدي "امتداد واجهة برمجة التطبيقات" (API) إلى معالجة غير ضرورية، وتقليل أثر البنية التحتية، ونقص المراقبة والتحكم.

"مع إنتل ونAPI"، يمكن للمؤسسات تحقيق القيمة الكاملة للأجهزة الخاصة بها، وتطوير تعليمات برمجية عالية الأداء عبر البنى التحتية، وجعل تطبيقاتها جاهزة للاحتياجات المستقبلية"، يوضح غيليش.

"إن Intel oneAPI عبارة عن نموذج برمجة مفتوح ومتعدد الصناعات وقائم على المعايير وموحد ومتعدد البنى ومتعدد البائعين يوفر تجربة مطور مشتركة عبر بنى التسريع - لتحقيق أداء أسرع للتطبيقات وتحسين الإنتاجية. تشجع مبادرة oneAPI التعاون بشأن مواصفات oneAPI وتطبيقات oneAPI المتوافقة عبر النظام البيئي."

يضيف جيليش: "توفر واجهة OneAPI مجموعة من البرامج الوسيطة التي تأخذ أشياء قياسية مثل أطر عمل الذكاء الاصطناعي - مثل Pytorch أو TensorFlow [منصة البرامج مفتوحة المصدر للذكاء الاصطناعي والتعلم الآلي] - وتترجمها على مستوى الآلة، كما تتيح واجهة OneAPI طريقة فعالة لـ إفعل ذلك. يمكن للمستخدمين استخدام واجهة برمجة تطبيقات مشتركة على مستوى إطار عمل Ai، ولدينا واجهة برمجة تطبيقات (oneAPI) تعالج نكهات الأجهزة المختلفة. لذا فإن واجهة برمجة التطبيقات المشتركة تعني أنه يمكن للمستخدمين إنشاء برامج مفتوحة يمكن دعمها على مجموعة برامج مفتوحة.

أداء على مستوى وحدة معالجة الرسومات عند نقاط السعر على مستوى وحدة المعالجة المركزية

إن التقدم في مجال تكنولوجيا المعلومات مدفوع إلى حد كبير بتوقع التقدم التكنولوجي المستمر المتحالف مع التحسينات المستندة إلى الرؤية في استراتيجيات النشر. إنه نموذج يعتمد على إيجاد أفضل توازن يمكن تحقيقه بين نفقات الميزانية وعائد الاستثمار في الأعمال، والتوقع بأن هناك دائمًا المزيد من الابتكار الذي يجب السعي لتحقيقه. يمثل الذكاء الاصطناعي ذروة هذا المثل الأعلى - فهو ذكي بما يكفي لإعادة اختراع عرض القيمة الخاص به من خلال التحسين الذاتي الدائم.

من خلال دمج مسرع AMX في وحدات المعالجة المركزية Intel Xeon من الجيل الرابع، توضح Intel كيف يمكن تحقيق الأداء على مستوى وحدة معالجة الرسومات عند نقاط السعر على مستوى وحدة المعالجة المركزية. وهذا يسمح لمراكز البيانات بالتوسع مع تعظيم قيمة العائد لعقارات المعالجة الحالية التي تعمل بتقنية Intel Xeon، ولكنه يوفر أيضًا نموذج تسعير يقلل من تكلفة الدخول للعملاء الذين لديهم أعباء عمل الذكاء الاصطناعي ولكن بميزانيات محدودة.

ويعني انخفاض استهلاك الطاقة لوحدات المعالجة المركزية (CPU) أنه يمكن تحقيق كفاءة استخدام الطاقة بشكل شامل عبر العمليات الكاملة لمنشأة مركز البيانات - مثل التبريد والتهوية - وهذا عامل جذب آخر لمهندسي البرمجيات المهتمين بالاستدامة ومطوري حلول AL.

ساهمت بها شركة إنتل.

الطابع الزمني:

اكثر من السجل