خلاصه
در این الگوی کد، با یادگیری نحوه استفاده از جعبهابزار توضیحپذیری AI 360 برای ابهامزدایی از تصمیمهایی که توسط یک مدل یادگیری ماشین گرفته میشود، بینش و توضیح بهتری به دست آورید. این نه تنها به سیاست گذاران و دانشمندان داده کمک می کند تا برنامه های کاربردی قابل اعتماد هوش مصنوعی را توسعه دهند، بلکه به شفافیت برای همه کمک می کند. برای نشان دادن استفاده از AI Explainability 360 Toolkit، از ابزار موجود استفاده می کنیم الگوی کد تشخیص تقلب توضیح الگوریتم های AIX360
توضیحات:
سناریویی را تصور کنید که در آن به بانکی مراجعه میکنید که میخواهید وام یک میلیون دلاری بگیرید. افسر وام از یک سیستم مبتنی بر هوش مصنوعی استفاده میکند که پیشبینی میکند یا توصیه میکند که آیا شما واجد شرایط وام هستید یا خیر و این وام چقدر میتواند باشد. در این مثال، سیستم هوش مصنوعی توصیه می کند که شما واجد شرایط دریافت وام نیستید. بنابراین، ممکن است چند سوال داشته باشید که باید در مورد آنها فکر کنید:
- آیا شما به عنوان مشتری از خدمات راضی خواهید بود؟
- آیا می خواهید برای تصمیم سیستم هوش مصنوعی توجیهی داشته باشید؟
- آیا افسر وام باید تصمیم گرفته شده توسط سیستم هوش مصنوعی را دوباره بررسی کند، و آیا می خواهید آنها مکانیسم اساسی مدل هوش مصنوعی را بدانند؟
- آیا بانک باید کاملاً به سیستم مجهز به هوش مصنوعی اعتماد کند و به آن تکیه کند؟
ممکن است موافق باشید که فقط پیشبینی کافی نیست. گاهی اوقات، شما باید درک عمیقی از چرایی تصمیم گیری داشته باشید. دلایل زیادی وجود دارد که چرا باید مکانیسم اساسی مدل های یادگیری ماشین را درک کنید. این شامل:
- خوانایی انسان
- کاهش تعصب
- توجیه پذیری
- تفسیر
- تقویت اعتماد و اطمینان در سیستم های هوش مصنوعی
در این الگوی کد، نحوه عملکرد سه الگوریتم توضیح پذیر را نشان می دهیم:
- الگوریتم Contrastive Explanations Method (CEM) که در AI Explainability 360 Toolkit موجود است.
- AI Explainability 360—ProtoDash با یک مدل پیشبینی موجود کار میکند تا نشان دهد مشتری چگونه با دیگرانی که پروفایلهای مشابهی دارند و سوابق بازپرداخت مشابهی با پیشبینی مدل برای مشتری فعلی دارند، مقایسه میکند. این به ارزیابی و پیش بینی ریسک متقاضی کمک می کند. بر اساس پیش بینی مدل و توضیح چگونگی رسیدن به آن توصیه، افسر وام می تواند تصمیم آگاهانه تری بگیرد.
- الگوریتم مدل قانون خطی تعمیم یافته (GLRM) در جعبه ابزار AI Explainability 360 سطح بالایی از توضیح پذیری را برای دانشمند داده فراهم می کند که آیا مدل می تواند مستقر شود.
جریان
- به استودیوی IBM Watson® مجهز به Spark وارد شوید، IBM Cloud Object Storage را راه اندازی کنید و یک پروژه ایجاد کنید.
- فایل داده csv. را در IBM Cloud Object Storage آپلود کنید.
- فایل داده را در نوت بوک Watson Studio بارگیری کنید.
- جعبه ابزار AI Explainability 360 و Adversarial Robustness Toolbox را در نوت بوک Watson Studio نصب کنید.
- تجسم برای توضیح و تفسیرپذیری مدل هوش مصنوعی برای سه نوع مختلف کاربر دریافت کنید.
دستورالعمل ها
مراحل دقیق را در README فایل. این مراحل توضیح می دهند که چگونه:
- یک حساب کاربری با IBM Cloud ایجاد کنید.
- یک پروژه جدید واتسون استودیو ایجاد کنید.
- داده ها را اضافه کنید.
- نوت بوک را ایجاد کنید.
- داده ها را به عنوان DataFrame وارد کنید.
- نوت بوک را اجرا کنید.
- نتایج را تجزیه و تحلیل کنید.
این الگوی کد بخشی از جعبه ابزار AI 360: مدل های هوش مصنوعی توضیح داده شده است از سری موارد استفاده کنید، که به ذینفعان و توسعه دهندگان کمک می کند تا چرخه عمر مدل هوش مصنوعی را به طور کامل درک کنند و به آنها در تصمیم گیری آگاهانه کمک کند.
منبع: https://developer.ibm.com/patterns/analyzing-fraud-prediction-ai-models/- حساب
- AI
- الگوریتم
- الگوریتم
- برنامه های کاربردی
- معماری
- بانک
- بدن
- ابر
- رمز
- اعتماد به نفس
- محتوا
- جاری
- داده ها
- دانشمند داده
- کشف
- توسعه
- توسعه دهندگان
- قابل توضیح
- AI قابل توضیح
- جریان
- تقلب
- چگونه
- چگونه
- HTTPS
- آی بی ام
- IBM Cloud
- بینش
- IT
- یادگیری
- سطح
- وام
- فراگیری ماشین
- مدل
- ذخیره سازی شی
- افسر
- دیگران
- الگو
- پیش گویی
- پیش بینی
- پروفایل
- پروژه
- دلایل
- سوابق
- نتایج
- خطر
- دانشمندان
- سلسله
- So
- ذخیره سازی
- سیستم
- شفافیت
- اعتماد
- کاربران
- تجسم
- واتسون
- استودیو واتسون
- WHO
- مهاجرت کاری
- با این نسخهها کار