موازنة الذكاء الاصطناعي: فعل الخير وتجنب الأذى - IBM Blog

موازنة الذكاء الاصطناعي: فعل الخير وتجنب الأذى - IBM Blog

عقدة المصدر: 3084303


موازنة الذكاء الاصطناعي: فعل الخير وتجنب الأذى - IBM Blog




عندما كبرت، كان والدي يقول دائمًا: "افعل الخير". عندما كنت طفلاً، كنت أعتقد أنها قواعد نحوية مزعجة وكنت أقوم بتصحيحه، وأصر على أنها يجب أن تكون "أحسنت". حتى أطفالي يضايقونني عندما يسمعون نصيحته "افعل الخير" وسأعترف بأنني سمحت له بالحصول على تصريح في القواعد النحوية.

في حالة الذكاء الاصطناعي المسؤول (AI)، يجب على المنظمات إعطاء الأولوية للقدرة على تجنب الضرر باعتبارها محور التركيز الرئيسي. قد تهدف بعض المنظمات أيضًا إلى استخدام الذكاء الاصطناعي من أجل "فعل الخير". ومع ذلك، في بعض الأحيان يتطلب الذكاء الاصطناعي حواجز حماية واضحة قبل أن يتفق المرء على "الخير".

اقرأ ورقة "Presidio AI Framework" للتعرف على كيفية معالجة مخاطر الذكاء الاصطناعي التوليدية من خلال حواجز الحماية عبر دورة حياة الذكاء الاصطناعي الموسعة

As الذكاء الاصطناعي التوليدي ومع استمرار الاتجاه السائد، فإن المؤسسات متحمسة بشأن إمكانية تحويل العمليات وخفض التكاليف وزيادة قيمة الأعمال. يتطلع قادة الأعمال إلى إعادة تصميم استراتيجيات أعمالهم لتقديم خدمة أفضل للعملاء أو المرضى أو الموظفين أو الشركاء أو المواطنين بشكل أكثر كفاءة وتحسين التجربة الشاملة. يفتح الذكاء الاصطناعي التوليدي الأبواب ويخلق فرصًا ومخاطر جديدة للمؤسسات على مستوى العالم، حيث تلعب قيادة الموارد البشرية (HR) دورًا رئيسيًا في إدارة هذه التحديات.

التكيف مع الآثار المترتبة على زيادة اعتماد الذكاء الاصطناعي يمكن أن يشمل الامتثال للمتطلبات التنظيمية المعقدة مثل نيستأطلقت حملة قانون الاتحاد الأوروبي للذكاء الاصطناعي, مدينة نيويورك 144, لجنة تكافؤ فرص العمل الأمريكية و قانون البيت الأبيض للذكاء الاصطناعي، والتي تؤثر بشكل مباشر على سياسات الموارد البشرية والسياسات التنظيمية، بالإضافة إلى المهارات الاجتماعية والوظيفية واتفاقيات العمل الجماعية. يتطلب اعتماد الذكاء الاصطناعي المسؤول استراتيجية متعددة أصحاب المصلحة كما أكدت ذلك أفضل الموارد الدولية بما في ذلك NIST، منظمة التعاون والتنميةأطلقت حملة معهد الذكاء الاصطناعي المسؤولأطلقت حملة تحالف البيانات والثقة و IEEE.

هذا ليس مجرد دور لتكنولوجيا المعلومات؛ تلعب الموارد البشرية دورًا رئيسيًا

يقدم قادة الموارد البشرية الآن المشورة للشركات حول المهارات المطلوبة للعمل اليوم بالإضافة إلى المهارات المستقبلية، مع الأخذ في الاعتبار الذكاء الاصطناعي والتقنيات الأخرى. ووفقاً للمنتدى الاقتصادي العالمي، يقدر أصحاب العمل أن 44% من مهارات العمال سوف تتعطل في السنوات الخمس المقبلة. يستكشف متخصصو الموارد البشرية بشكل متزايد إمكاناتهم لتحسين الإنتاجية من خلال زيادة عمل الموظفين وتمكينهم من التركيز على العمل على مستوى أعلى. مع توسع قدرات الذكاء الاصطناعي، هناك مخاوف وأسئلة أخلاقية يجب على كل قائد أعمال أخذها في الاعتبار حتى لا يأتي استخدام الذكاء الاصطناعي على حساب العمال أو الشركاء أو العملاء.

تعرف على مبادئ الثقة والشفافية التي أوصت بها شركة IBM للمؤسسات لدمج الذكاء الاصطناعي بشكل مسؤول في عملياتها.

يتم الآن تنسيق تعليم العمال وإدارة المعرفة بشكل وثيق كاستراتيجية لأصحاب المصلحة المتعددين مع مشغلي تكنولوجيا المعلومات والشؤون القانونية والامتثال والأعمال التجارية كعملية مستمرة، بدلاً من مربع الاختيار مرة واحدة في السنة. على هذا النحو، يحتاج قادة الموارد البشرية إلى المشاركة بشكل فطري في تطوير البرامج لإنشاء السياسات وتنمية فطنة الذكاء الاصطناعي لدى الموظفين، وتحديد مكان تطبيق قدرات الذكاء الاصطناعي، ووضع استراتيجية مسؤولة لحوكمة الذكاء الاصطناعي. باستخدام أدوات مثل الذكاء الاصطناعي والأتمتة للمساعدة في ضمان مراعاة الموظفين واحترامهم من خلال اعتماد الذكاء الاصطناعي الجدير بالثقة والشفاف. 

التحديات والحلول في تبني أخلاقيات الذكاء الاصطناعي داخل المنظمات

على الرغم من أن حالات اعتماد الذكاء الاصطناعي واستخدامه مستمرة في التوسع، إلا أن المؤسسات قد لا تكون مستعدة بشكل كامل للعديد من الاعتبارات والعواقب المترتبة على اعتماد قدرات الذكاء الاصطناعي في عملياتها وأنظمتها. في حين يؤكد 79% من المديرين التنفيذيين الذين شملهم الاستطلاع على أهمية أخلاقيات الذكاء الاصطناعي في نهج الذكاء الاصطناعي على مستوى المؤسسة، فإن أقل من 25% منهم قاموا بتفعيل المبادئ المشتركة لأخلاقيات الذكاء الاصطناعي. وفقًا لمعهد IBM لأبحاث قيمة الأعمال.

ويعود هذا التناقض إلى أن السياسات وحدها لا تستطيع القضاء على انتشار الأدوات الرقمية وزيادة استخدامها. أصبح استخدام العمال المتزايد للأجهزة والتطبيقات الذكية مثل ChatGPT أو النماذج العامة الأخرى للصندوق الأسود، دون الحصول على الموافقة المناسبة، مشكلة مستمرة ولا تتضمن إدارة التغيير الصحيحة لإبلاغ العمال بالمخاطر المرتبطة. 

على سبيل المثال، قد يستخدم العمال هذه الأدوات لكتابة رسائل بريد إلكتروني إلى العملاء باستخدام بيانات العملاء الحساسة أو قد يستخدمها المديرون لكتابة مراجعات الأداء التي تكشف عن بيانات الموظفين الشخصية. 

وللمساعدة في تقليل هذه المخاطر، قد يكون من المفيد تضمين جهات اتصال أو مناصرين مسؤولين لممارسة الذكاء الاصطناعي داخل كل قسم ووحدة عمل ومستوى وظيفي. يمكن أن يكون هذا المثال فرصة للموارد البشرية لقيادة ودعم الجهود الرامية إلى إحباط التحديات الأخلاقية والمخاطر التشغيلية المحتملة.

في النهاية، إنشاء منظمة العفو الدولية المسؤولة تعد الإستراتيجية ذات القيم والمبادئ المشتركة التي تتماشى مع القيم الأوسع للشركة واستراتيجية العمل ويتم توصيلها إلى جميع الموظفين أمرًا ضروريًا. تحتاج هذه الإستراتيجية إلى دعم الموظفين وتحديد الفرص المتاحة للمؤسسات لتبني الذكاء الاصطناعي والابتكار الذي يدفع أهداف العمل إلى الأمام. وينبغي لها أيضًا أن تساعد الموظفين بالتعليم للمساعدة في الحماية من تأثيرات الذكاء الاصطناعي الضارة، ومعالجة المعلومات الخاطئة والتحيز وتعزيز الذكاء الاصطناعي المسؤول، داخليًا وداخل المجتمع.

أهم 3 اعتبارات لاعتماد الذكاء الاصطناعي المسؤول

أهم ثلاثة اعتبارات يجب أن يأخذها قادة الأعمال والموارد البشرية في الاعتبار أثناء تطوير استراتيجية مسؤولة للذكاء الاصطناعي هي:

اجعل الأشخاص محوريين في استراتيجيتك

وبعبارة أخرى، قم بإعطاء الأولوية لموظفيك أثناء رسم استراتيجية التكنولوجيا المتقدمة الخاصة بك. وهذا يعني تحديد كيفية عمل الذكاء الاصطناعي مع موظفيك، والتواصل على وجه التحديد مع هؤلاء الموظفين حول كيفية مساعدة الذكاء الاصطناعي لهم على التفوق في أدوارهم وإعادة تعريف طرق العمل. وبدون التعليم، يمكن أن يشعر الموظفون بالقلق المفرط بشأن نشر الذكاء الاصطناعي ليحل محلهم أو للقضاء على القوى العاملة. تواصل مباشرة مع الموظفين بأمانة حول كيفية بناء هذه النماذج. يجب على قادة الموارد البشرية معالجة التغييرات الوظيفية المحتملة، بالإضافة إلى واقع الفئات والوظائف الجديدة التي يخلقها الذكاء الاصطناعي والتقنيات الأخرى.

تمكين الحوكمة التي تراعي كلاً من التقنيات المعتمدة والمؤسسة

الذكاء الاصطناعي ليس كتلة متراصة. يمكن للمؤسسات نشره بعدة طرق، لذا يجب عليهم أن يحددوا بوضوح ما يعنيه الذكاء الاصطناعي المسؤول بالنسبة لهم، وكيف يخططون لاستخدامه وكيف سيمتنعون عن استخدامه. ينبغي النظر في مبادئ مثل الشفافية والثقة والإنصاف والعدالة والقوة واستخدام فرق متنوعة، بما يتماشى مع إرشادات منظمة التعاون الاقتصادي والتنمية أو RAII، وتصميمها في كل حالة استخدام للذكاء الاصطناعي، سواء كانت تتضمن ذكاءً اصطناعيًا توليديًا أم لا. بالإضافة إلى ذلك، ينبغي إجراء مراجعات روتينية لتدابير الانحراف النموذجي والخصوصية لكل نموذج ومقاييس محددة للتنوع والإنصاف والشمول لتخفيف التحيز.

تحديد ومواءمة المهارات والأدوات المناسبة اللازمة للعمل

والحقيقة هي أن بعض الموظفين يقومون بالفعل بتجربة أدوات الذكاء الاصطناعي التوليدية لمساعدتهم على أداء مهام مثل الإجابة على الأسئلة وصياغة رسائل البريد الإلكتروني وتنفيذ المهام الروتينية الأخرى. لذلك، يجب على المؤسسات التصرف فورًا لتوصيل خططها لاستخدام هذه الأدوات، وتحديد التوقعات للموظفين الذين يستخدمونها، والمساعدة في ضمان أن استخدام هذه الأدوات يتوافق مع قيم المنظمة وأخلاقياتها. كما يجب على المؤسسات توفير فرص تنمية المهارات لمساعدة الموظفين على تحسين مهاراتهم في الذكاء الاصطناعي وفهم المسارات الوظيفية المحتملة.

قم بتنزيل ورقة "إطلاق القيمة من الذكاء الاصطناعي التوليدي" للحصول على مزيد من الإرشادات حول كيفية اعتماد مؤسستك للذكاء الاصطناعي بشكل مسؤول

تعد ممارسة الذكاء الاصطناعي المسؤول ودمجه في مؤسستك أمرًا ضروريًا لاعتماده بنجاح. لقد جعلت شركة IBM الذكاء الاصطناعي المسؤول محوريًا في نهج الذكاء الاصطناعي الخاص بها مع العملاء والشركاء. في عام 2018، قامت شركة IBM بتأسيس مجلس أخلاقيات الذكاء الاصطناعي كهيئة مركزية متعددة التخصصات لدعم ثقافة الذكاء الاصطناعي الأخلاقية والمسؤولة والجديرة بالثقة. وهي تتألف من كبار القادة من مختلف الإدارات مثل الأبحاث ووحدات الأعمال والموارد البشرية والتنوع والشمول والشؤون القانونية والحكومية والتنظيمية والمشتريات والاتصالات. يقوم مجلس الإدارة بتوجيه وتنفيذ المبادرات والقرارات المتعلقة بالذكاء الاصطناعي. تأخذ شركة IBM فوائد وتحديات الذكاء الاصطناعي على محمل الجد، وتقوم بدمج المسؤولية في كل ما نقوم به.

سأسمح لوالدي بهذه القاعدة النحوية المكسورة. يمكن للذكاء الاصطناعي أن "يفعل الخير" عندما تتم إدارته بشكل صحيح، بمشاركة العديد من البشر، وحواجز الحماية، والرقابة، والحوكمة، وإطار أخلاقيات الذكاء الاصطناعي. 

شاهد الندوة عبر الإنترنت حول كيفية إعداد عملك لاعتماد الذكاء الاصطناعي بشكل مسؤول

اكتشف كيف تساعد شركة IBM العملاء في رحلة تحويل المواهب الخاصة بهم

هل كان المقال مساعدا؟!

نعملا


المزيد من الذكاء الاصطناعي




إن أهمية التنوع في الذكاء الاصطناعي لا تتعلق بالرأي، بل بالرياضيات

5 دقيقة قراءة - نريد جميعًا أن نرى قيمنا الإنسانية المثالية تنعكس في تقنياتنا. نتوقع ألا تكذب علينا تقنيات مثل الذكاء الاصطناعي، وألا تمارس التمييز، وأن تكون آمنة لاستخدامها لنا ولأطفالنا. ومع ذلك، يواجه العديد من منشئي الذكاء الاصطناعي حاليًا ردود فعل عنيفة بسبب التحيزات وعدم الدقة وممارسات البيانات الإشكالية التي يتم الكشف عنها في نماذجهم. تتطلب هذه المشكلات أكثر من مجرد حل تقني أو خوارزمي أو قائم على الذكاء الاصطناعي. في الواقع، هناك حاجة إلى نهج اجتماعي وتقني شامل.




كيف تعمل شركات التأمين مع IBM لتنفيذ الحلول المستندة إلى الذكاء الاصطناعي

7 دقيقة قراءة - تعمل شركة IBM مع عملاء التأمين لدينا من خلال جبهات مختلفة، وحددت البيانات الصادرة عن معهد IBM لقيمة الأعمال (IBV) ثلاث ضرورات رئيسية توجه قرارات إدارة شركات التأمين: اعتماد التحول الرقمي لتمكين شركات التأمين من تقديم منتجات جديدة، لدفع نمو الإيرادات وتحسين العملاء. خبرة. تحسين الإنتاجية الأساسية (الأعمال وتكنولوجيا المعلومات) مع تقليل التكلفة. احتضان التطبيق المتزايد وتحديث البيانات باستخدام السحابة الهجينة الآمنة والذكاء الاصطناعي. يجب على شركات التأمين تلبية الضرورات الرئيسية التالية لتسهيل تحويل ...




إطلاق العنان لقوة برامج الدردشة الآلية: الفوائد الأساسية للشركات والعملاء

6 دقيقة قراءة - يمكن لروبوتات الدردشة مساعدة عملائك والعملاء المحتملين في العثور على المعلومات أو إدخالها بسرعة من خلال الاستجابة الفورية للطلبات التي تستخدم الإدخال الصوتي أو إدخال النص أو مزيج من الاثنين معًا، مما يلغي الحاجة إلى التدخل البشري أو البحث اليدوي. إن Chatbots موجودة في كل مكان، وتوفر دعمًا لخدمة العملاء ومساعدة الموظفين الذين يستخدمون مكبرات الصوت الذكية في المنزل، والرسائل النصية القصيرة، وWhatsApp، وFacebook Messenger، وSlack، والعديد من التطبيقات الأخرى. أحدث روبوتات الدردشة للذكاء الاصطناعي (AI)، والمعروفة أيضًا بالمساعدين الظاهريين الأذكياء أو الوكلاء الافتراضيين، ليست فقط...




انضم إلينا في طليعة الذكاء الاصطناعي للأعمال: فكر في 2024

<1 دقيقة قراءة - تريد استخدام الذكاء الاصطناعي لتسريع الإنتاجية والابتكار في عملك. أنت بحاجة إلى تجاوز التجريب إلى نطاق واسع. عليك أن تتحرك بسرعة. انضم إلينا في بوسطن للمشاركة في Think 2024، وهي تجربة فريدة وجذابة سترشدك في رحلة العمل الخاصة بالذكاء الاصطناعي، بغض النظر عن مكان وجودك على الطريق. بدءًا من بناء جاهزية الذكاء الاصطناعي باستخدام نهج سحابي هجين مدروس، وحتى توسيع نطاق الذكاء الاصطناعي عبر وظائف الأعمال الأساسية واحتياجات الصناعة، وحتى دمج الذكاء الاصطناعي في...

نشرات آي بي إم الإخبارية

احصل على رسائلنا الإخبارية وتحديثات المواضيع التي تقدم أحدث القيادة الفكرية والرؤى حول الاتجاهات الناشئة.

اشترك الآن

المزيد من الرسائل الإخبارية

الطابع الزمني:

اكثر من آي بي إم إنترنت الأشياء