ডেটা ব্যাখ্যাযোগ্যতা: মডেল ব্যাখ্যাযোগ্যতার কাউন্টারপার্ট - ডেটাভারসিটি

ডেটা ব্যাখ্যাযোগ্যতা: মডেল ব্যাখ্যাযোগ্যতার কাউন্টারপার্ট - ডেটাভারসিটি

উত্স নোড: 2658143

আজ, এআই এবং এমএল সর্বত্র রয়েছে। 

এটা নিয়ে সবাই খেলছে কিনা চ্যাটজিপিটি (দ্রুততর ইতিহাসে গৃহীত অ্যাপ) বা একটি সাম্প্রতিক প্রস্তাব যোগ করার জন্য ট্র্যাফিক লাইটের চতুর্থ রঙ স্ব-চালিত গাড়িতে রূপান্তরকে নিরাপদ করতে, AI আমাদের জীবনকে সম্পূর্ণরূপে পরিপূর্ণ করেছে। যদিও AI আগের চেয়ে বেশি অ্যাক্সেসযোগ্য বলে মনে হতে পারে, AI মডেলগুলির জটিলতা দ্রুত বৃদ্ধি পেয়েছে। 

AI মডেলগুলি ব্ল্যাক বক্স এবং হোয়াইট বক্স মডেলগুলির প্রধান বিভাগগুলির মধ্যে পড়ে৷ ব্ল্যাক বক্স মডেলগুলি ব্যাখ্যা ছাড়াই একটি সিদ্ধান্তে পৌঁছায়, যখন সাদা বক্সের মডেলগুলি সেই ফলাফলটি তৈরি করা নিয়মগুলির উপর ভিত্তি করে একটি ফলাফল প্রদান করে। 

যেহেতু আমরা সম্পূর্ণ গভীর শিক্ষার পদ্ধতির জগতের দিকে অগ্রসর হতে থাকি, বেশিরভাগই মূলত ব্ল্যাক বক্স মডেলের দিকে অভিকর্ষজ করছে। 

যে পদ্ধতির সঙ্গে সমস্যা? ব্ল্যাক বক্স মডেল (যেমন কম্পিউটার ভিশনে তৈরি) সরাসরি খাওয়া যাবে না। এটি প্রায়শই ব্ল্যাক বক্স সমস্যা হিসাবে উল্লেখ করা হয়। যদিও ব্ল্যাক বক্স মডেলগুলিকে পুনরায় প্রশিক্ষণ দেওয়া ব্যবহারকারীদের একটি জাম্প স্টার্ট দিতে পারে, মডেলটির ব্যাখ্যা করা এবং ব্ল্যাক বক্স মডেলের ফলাফলগুলি বোঝা কঠিন হয়ে ওঠে কারণ মডেলগুলির জটিলতা বৃদ্ধি পায়৷

ব্ল্যাক বক্সের সমস্যা সমাধানের একটি কৌশল হ'ল একটি খুব স্বাভাবিক এবং ব্যাখ্যাযোগ্য মডেল তৈরি করা। 

কিন্তু, বিশ্ব যে দিকে যাচ্ছে তা নয়। 

যেখানে মডেল ব্যাখ্যাযোগ্যতা শেষ হয়, ডেটা ব্যাখ্যাযোগ্যতা শুরু হয়

ব্যাখ্যাযোগ্যতা গুরুত্বপূর্ণ কারণ এটি মডেলের স্বচ্ছতা, নির্ভুলতা এবং ন্যায্যতা উন্নত করে এবং AI-তে আত্মবিশ্বাসও উন্নত করতে পারে। যদিও মডেল ব্যাখ্যাযোগ্যতা একটি প্রচলিত পদ্ধতি, সেখানে এখন একটি নতুন ধরণের প্রয়োজন দেখা দিয়েছে: ডেটা ব্যাখ্যাযোগ্যতা।

মডেল ব্যাখ্যাযোগ্যতা মানে অ্যালগরিদম বোঝা, শেষ ফলাফল বোঝার জন্য। উদাহরণস্বরূপ, যদি একটি অনকোলজি ইউনিটে ব্যবহৃত একটি মডেলটি পরীক্ষা করার জন্য ডিজাইন করা হয় যে একটি বৃদ্ধি ক্যান্সারজনিত কিনা, একজন স্বাস্থ্যসেবা প্রদানকারীকে ভেরিয়েবলগুলি বোঝা উচিত যা শেষ ফলাফল তৈরি করে। যদিও এটি তত্ত্বে দুর্দান্ত শোনায়, মডেল ব্যাখ্যাযোগ্যতা ব্ল্যাক বক্স সমস্যাটিকে পুরোপুরি সমাধান করে না। 

যেহেতু মডেলগুলি আরও জটিল হয়ে উঠছে, বেশিরভাগ অনুশীলনকারীরা রূপান্তরগুলি চিহ্নিত করতে এবং মডেলের অভ্যন্তরীণ স্তরগুলিতে গণনাগুলি ব্যাখ্যা করতে অক্ষম হবে। তারা মূলত কী নিয়ন্ত্রণ করতে পারে তার উপর নির্ভর করে, যেমন, প্রশিক্ষণের ডেটাসেট এবং তারা কী পর্যবেক্ষণ করে, ফলাফল এবং ভবিষ্যদ্বাণীর পরিমাপ।  

হাজার হাজার ফটোগ্রাফ থেকে কফি মগের ফটো শনাক্ত করার জন্য একজন ডেটা সায়েন্টিস্টের উদাহরণ ব্যবহার করা যাক - কিন্তু মডেলটি পানীয়ের গ্লাস এবং বিয়ার মগের ছবিও সনাক্ত করতে শুরু করে, উদাহরণস্বরূপ। যদিও গ্লাস এবং বিয়ার মগের সাথে কফি মগের কিছু সাদৃশ্য থাকতে পারে, সেখানে স্বতন্ত্র পার্থক্য রয়েছে, যেমন সাধারণ উপকরণ, রঙ, অস্বচ্ছতা এবং কাঠামোগত অনুপাত।

মডেলটিকে উচ্চতর নির্ভরযোগ্যতার সাথে কফি মগ সনাক্ত করার জন্য, ডেটা বিজ্ঞানীর কাছে প্রশ্নগুলির উত্তর থাকতে হবে:

  • কফি মগের পরিবর্তে মডেলটি কী ছবি তুলেছিল? 
  • মডেলটি কি ব্যর্থ হয়েছে কারণ আমি এটিকে যথেষ্ট বা কফি মগের সঠিক উদাহরণ প্রদান করিনি?
  • আমি যা করার চেষ্টা করছিলাম তার জন্য কি সেই মডেলটিও যথেষ্ট ভাল?
  • আমার কি মডেল সম্পর্কে আমার দৃষ্টিভঙ্গি চ্যালেঞ্জ করা দরকার?
  • মডেলটি ব্যর্থ হওয়ার কারণ কি আমি চূড়ান্তভাবে নির্ধারণ করতে পারি? 
  • আমার কি মডেলের নতুন অনুমান তৈরি করা উচিত?
  • আমি কি শুধু কাজটি শুরু করার জন্য ভুল মডেলটি বেছে নিয়েছি?

আপনি দেখতে পাচ্ছেন, এই ধরনের অন্তর্দৃষ্টি, বোধগম্যতা এবং মডেল ব্যাখ্যাযোগ্যতা প্রতিবারই যখন কোনও সমস্যা দেখা দেয় তখন তা অত্যন্ত অসম্ভাব্য।

তথ্য ব্যাখ্যাযোগ্যতা বোঝা হচ্ছে উপাত্ত একটি মডেলের চূড়ান্ত ফলাফল কীভাবে পৌঁছেছে তা বোঝার জন্য একটি মডেলে প্রশিক্ষণ এবং ইনপুট করার জন্য ব্যবহৃত হয়। যেহেতু ML অ্যালগরিদমগুলি আরও জটিল হয়ে উঠেছে কিন্তু পেশা এবং শিল্প জুড়ে আরও ব্যাপকভাবে ব্যবহৃত হচ্ছে, ডেটা ব্যাখ্যাযোগ্যতা আমাদের কফি মগের উদাহরণের মতো সাধারণ সমস্যাগুলি দ্রুত আনলক এবং সমাধানের চাবিকাঠি হিসাবে কাজ করবে।

ডেটা ব্যাখ্যাযোগ্যতার সাথে ML-এ ন্যায্যতা এবং স্বচ্ছতা বৃদ্ধি করা

এমএল মডেলের মধ্যে ন্যায্যতা একটি আলোচিত বিষয়, যা ডেটা ব্যাখ্যাযোগ্যতা প্রয়োগ করে আরও গরম করা যেতে পারে।

গুঞ্জন কেন? AI-তে পক্ষপাতিত্ব একটি গ্রুপের জন্য কুসংস্কারপূর্ণ ফলাফল তৈরি করতে পারে। জাতিগত ব্যবহারের ক্ষেত্রে পক্ষপাতিত্বের বিষয়টি সবচেয়ে ভালোভাবে নথিভুক্ত করা হয়েছে। এর একটি উদাহরণ তাকান. 

বলুন একটি বড়, সুপরিচিত ভোক্তা প্ল্যাটফর্ম একটি নতুন বিপণন পরিচালক পদের জন্য নিয়োগ করছে৷ দৈনিক প্রাপ্ত জীবনবৃত্তান্তের ভরের সাথে মোকাবিলা করার জন্য, HR বিভাগ একটি AI/ML মডেল মোতায়েন করে যাতে মূল বৈশিষ্ট্য বা যোগ্য আবেদনকারীদের বাছাই করে আবেদন এবং নিয়োগ প্রক্রিয়া সহজতর করা যায়। 

এই কাজটি সম্পাদন করার জন্য, এবং প্রতিটি জীবনবৃত্তান্তকে বুঝতে এবং বাকেটাইজ করতে, মডেলটি মূল প্রভাবশালী বৈশিষ্ট্যগুলি বোঝার মাধ্যমে তা করবে৷ দুর্ভাগ্যবশত, এই এছাড়াও মানে মডেলটি প্রার্থীদের মধ্যেও সাধারণ জাতিগত পক্ষপাতিত্বের উপর অন্তর্নিহিতভাবে নিতে পারে। এটা ঠিক কিভাবে ঘটবে? যদি একটি আবেদনকারী পুলে একটি জাতির একটি ছোট শতাংশ অন্তর্ভুক্ত থাকে, তবে মেশিনটি মনে করবে যে সংস্থাটি ভিন্ন জাতি বা প্রভাবশালী ডেটাসেটের সদস্যদের পছন্দ করে।

যদি একটি মডেল ব্যর্থ হয়, এমনকি যদি এটি অনিচ্ছাকৃত হয়, ব্যর্থতা কোম্পানির দ্বারা সম্বোধন করা আবশ্যক। মূলত, যে কেউ মডেলটি স্থাপন করেছে তাকে অবশ্যই মডেলটির ব্যবহার রক্ষা করতে সক্ষম হতে হবে।

নিয়োগ এবং জাতিগত পক্ষপাতের ক্ষেত্রে, ডিফেন্ডারকে একজন ক্ষুব্ধ জনসাধারণকে এবং/অথবা অ্যাপ্লিকেশন পুলকে মডেল প্রশিক্ষণের জন্য ডেটাসেটের ব্যবহার, সেই প্রশিক্ষণের উপর ভিত্তি করে মডেলের প্রাথমিক সফল ফলাফল, এর ব্যর্থতা ব্যাখ্যা করতে সক্ষম হতে হবে একটি কর্নার কেস বাছাই করার জন্য মডেল, এবং এটি কীভাবে একটি অনিচ্ছাকৃত ডেটা ভারসাম্যহীনতার দিকে পরিচালিত করে যা অবশেষে একটি জাতিগতভাবে পক্ষপাতদুষ্ট ফিল্টারিং প্রক্রিয়া তৈরি করে।

বেশিরভাগের জন্য, এআই, ভারসাম্যহীন ডেটাসেট, মডেল প্রশিক্ষণ, এবং ডেটা তদারকির মাধ্যমে চূড়ান্ত ব্যর্থতার মধ্যে এই ধরণের নিটি-কঠোর বিশদ ভালভাবে গৃহীত হবে না বা বোঝা যাবে না। কিন্তু এই গল্প থেকে কি বোঝা যাবে এবং চারপাশে লেগে থাকবে? কোম্পানি XYZ নিয়োগের ক্ষেত্রে জাতিগত পক্ষপাতিত্ব অনুশীলন করে। 

এই অতি-সাধারণ উদাহরণের নৈতিকতা হল যে একটি খুব স্মার্ট মডেল থেকে অনিচ্ছাকৃত ভুলগুলি ঘটে এবং মানুষের উপর নেতিবাচক প্রভাব ফেলতে পারে এবং এর মারাত্মক পরিণতি হতে পারে। 

যেখানে ডেটা ব্যাখ্যাযোগ্যতা আমাদের নিয়ে যায়

একটি জটিল মেশিন লার্নিং মডেল বোঝার মাধ্যমে ফলাফল অনুবাদ করার পরিবর্তে, ডেটা ব্যাখ্যাযোগ্যতা ভবিষ্যদ্বাণী এবং ব্যর্থতা ব্যাখ্যা করতে ডেটা ব্যবহার করছে।

ডেটা ব্যাখ্যাযোগ্যতা তখন পরীক্ষার ডেটা দেখার সমন্বয় এবং একটি মডেল সেই ডেটা থেকে কী গ্রহণ করবে তা বোঝা। ভবিষ্যদ্বাণী এবং ভুল পূর্বাভাসগুলি সঠিকভাবে বোঝার জন্য এর মধ্যে অন্তর্নিহিত ডেটা নমুনা বোঝা, অতিরিক্তভাবে উপস্থাপন করা নমুনা (যেমন নিয়োগের উদাহরণে) এবং একটি মডেলের সনাক্তকরণের স্বচ্ছতা অন্তর্ভুক্ত।

ডেটা ব্যাখ্যাযোগ্যতার এই বোধগম্যতা শুধুমাত্র মডেলের নির্ভুলতা এবং ন্যায্যতাকে উন্নত করবে না, তবে এটি মডেলগুলিকে দ্রুত গতিতে সাহায্য করবে।

যেহেতু আমরা আমাদের দৈনন্দিন জীবনে জটিল AI এবং ML প্রোগ্রামগুলির উপর নির্ভর করতে এবং অন্তর্ভুক্ত করি, ব্ল্যাক বক্স সমস্যা সমাধান করা গুরুত্বপূর্ণ হয়ে ওঠে, বিশেষ করে ব্যর্থতা এবং ভুল ধারণার জন্য। 

মডেল ব্যাখ্যাযোগ্যতা সর্বদা তার স্থান থাকবে, এটি অন্য স্তর প্রয়োজন. আমাদের ডেটা ব্যাখ্যাযোগ্যতা প্রয়োজন, কারণ একটি মডেল কী দেখছে এবং পড়া হচ্ছে তা কখনই ক্লাসিক্যাল মডেল ব্যাখ্যাযোগ্যতার দ্বারা আচ্ছাদিত হবে না।

সময় স্ট্যাম্প:

থেকে আরো ডেটাভার্সিটি