สรุป
ในรูปแบบโค้ดนี้ รับข้อมูลเชิงลึกและความสามารถในการอธิบายที่ดีขึ้นโดยการเรียนรู้วิธีใช้ชุดเครื่องมืออธิบายความสามารถ AI 360 เพื่อทำให้กระจ่างในการตัดสินใจที่เกิดจากโมเดลการเรียนรู้ของเครื่อง สิ่งนี้ไม่เพียงแต่ช่วยผู้กำหนดนโยบายและนักวิทยาศาสตร์ข้อมูลในการพัฒนาแอปพลิเคชัน AI ที่อธิบายได้และเชื่อถือได้ แต่ยังช่วยให้ทุกคนมีความโปร่งใส เพื่อสาธิตการใช้ AI Description 360 Toolkit เราใช้ที่มีอยู่ รูปแบบรหัสตรวจจับการฉ้อโกง อธิบายอัลกอริทึม AIX360
รายละเอียด
ลองนึกภาพสถานการณ์ที่คุณไปที่ธนาคารที่คุณต้องการกู้เงิน 1 ล้านเหรียญ เจ้าหน้าที่สินเชื่อใช้ระบบที่ขับเคลื่อนด้วย AI ที่คาดการณ์หรือแนะนำว่าคุณมีสิทธิ์ได้รับเงินกู้หรือไม่และเงินกู้นั้นสามารถเป็นได้เท่าใด ในตัวอย่างนี้ ระบบ AI แนะนำว่าคุณไม่มีสิทธิ์ได้รับเงินกู้ ดังนั้น คุณอาจมีคำถามสองสามข้อที่คุณต้องคิดเกี่ยวกับ:
- คุณจะเป็นลูกค้าที่พึงพอใจกับบริการหรือไม่?
- คุณต้องการเหตุผลสำหรับการตัดสินใจของระบบ AI หรือไม่?
- เจ้าหน้าที่สินเชื่อควรตรวจสอบการตัดสินใจอีกครั้งของระบบ AI หรือไม่ และคุณต้องการให้พวกเขารู้กลไกพื้นฐานของแบบจำลอง AI หรือไม่
- ธนาคารควรไว้วางใจและพึ่งพาระบบที่ขับเคลื่อนด้วย AI หรือไม่?
คุณอาจเห็นด้วยว่าการทำนายอย่างเดียวไม่เพียงพอ บางครั้งคุณต้องมีความเข้าใจอย่างลึกซึ้งว่าเหตุใดจึงตัดสินใจ มีเหตุผลหลายประการที่คุณต้องเข้าใจกลไกพื้นฐานของโมเดลการเรียนรู้ของเครื่อง ซึ่งรวมถึง:
- ความสามารถในการอ่านของมนุษย์
- การบรรเทาอคติ
- ความสมเหตุสมผล
- การตีความ
- ส่งเสริมความไว้วางใจและความเชื่อมั่นในระบบ AI
ในรูปแบบโค้ดนี้ เราสาธิตวิธีการทำงานของอัลกอริธึมที่อธิบายได้สามแบบ:
- อัลกอริทึม Contrastive Explanations Method (CEM) ที่มีอยู่ใน AI Description 360 Toolkit
- AI Description 360—ProtoDash ทำงานร่วมกับแบบจำลองการคาดการณ์ที่มีอยู่เพื่อแสดงว่าลูกค้าเปรียบเทียบกับลูกค้ารายอื่นๆ ที่มีโปรไฟล์คล้ายกันและมีบันทึกการชำระคืนที่คล้ายกับการคาดการณ์ของแบบจำลองสำหรับลูกค้าปัจจุบัน ซึ่งจะช่วยในการประเมินและทำนายความเสี่ยงของผู้สมัคร ตามการคาดการณ์ของแบบจำลองและคำอธิบายที่มาของคำแนะนำนั้น เจ้าหน้าที่สินเชื่อสามารถตัดสินใจอย่างมีข้อมูลมากขึ้น
- อัลกอริธึม Generalized Linear Rule Model (GLRM) ในชุดเครื่องมือ 360 อธิบาย AI ช่วยเพิ่มระดับความสามารถในการอธิบายแก่นักวิทยาศาสตร์ด้านข้อมูลว่าโมเดลสามารถปรับใช้ได้หรือไม่
ไหล
- ล็อกอินเข้าสู่ IBM Watson Studio ที่สนับสนุนโดย Spark เริ่มต้น IBM Cloud Object Storage และสร้างโปรเจ็กต์
- อัปโหลดไฟล์ข้อมูล .csv ไปยัง IBM Cloud Object Storage
- โหลดไฟล์ข้อมูลในโน้ตบุ๊ก Watson Studio
- ติดตั้ง AI Description 360 Toolkit และ Adversarial Robustness Toolbox ในโน้ตบุ๊ก Watson Studio
- รับการแสดงภาพเพื่ออธิบายและตีความได้ของโมเดล AI สำหรับผู้ใช้สามประเภทที่แตกต่างกัน
คำแนะนำ
ค้นหาขั้นตอนโดยละเอียดใน README ไฟล์. ขั้นตอนเหล่านี้อธิบายวิธี:
- สร้างบัญชีด้วย IBM Cloud
- สร้างโครงการ Watson Studio ใหม่
- เพิ่มข้อมูล
- สร้างสมุดบันทึก
- แทรกข้อมูลเป็น DataFrame
- เรียกใช้โน้ตบุ๊ก
- วิเคราะห์ผลลัพธ์
รูปแบบรหัสนี้เป็นส่วนหนึ่งของ ชุดเครื่องมือ AI 360: อธิบายแบบจำลอง AI ใช้ชุดกรณีศึกษา ซึ่งช่วยให้ผู้มีส่วนได้ส่วนเสียและนักพัฒนาเข้าใจวงจรชีวิตของแบบจำลอง AI อย่างสมบูรณ์ และช่วยให้พวกเขาตัดสินใจอย่างมีข้อมูล
ที่มา: https://developer.ibm.com/patterns/analyzing-fraud-prediction-ai-models/- ลงชื่อเข้าใช้
- AI
- ขั้นตอนวิธี
- อัลกอริทึม
- การใช้งาน
- สถาปัตยกรรม
- ธนาคาร
- ร่างกาย
- เมฆ
- รหัส
- ความมั่นใจ
- เนื้อหา
- ปัจจุบัน
- ข้อมูล
- นักวิทยาศาสตร์ข้อมูล
- การตรวจพบ
- พัฒนา
- นักพัฒนา
- คำอธิบาย
- AI ที่อธิบายได้
- ไหล
- การหลอกลวง
- สรุป ความน่าเชื่อถือของ Olymp Trade?
- ทำอย่างไร
- HTTPS
- ไอบีเอ็ม
- IBM Cloud
- ข้อมูลเชิงลึก
- IT
- การเรียนรู้
- ชั้น
- เงินกู้
- เรียนรู้เครื่อง
- แบบ
- การจัดเก็บวัตถุ
- เจ้าหน้าที่
- ผลิตภัณฑ์อื่นๆ
- แบบแผน
- คำทำนาย
- การคาดการณ์
- ดูรายละเอียด
- โครงการ
- เหตุผล
- บันทึก
- ผลสอบ
- ความเสี่ยง
- นักวิทยาศาสตร์
- ชุด
- So
- การเก็บรักษา
- ระบบ
- ความโปร่งใส
- วางใจ
- ผู้ใช้
- การสร้างภาพ
- วัตสัน
- วัตสัน สตูดิโอ
- WHO
- งาน
- โรงงาน