Veri Açıklanabilirliği: Model Açıklanabilirliğinin Eşdeğeri - DATAVERSITY

Veri Açıklanabilirliği: Model Açıklanabilirliğinin Eşdeğeri – DATAVERSITY

Kaynak Düğüm: 2658143

Bugün, AI ve ML her yerde. 

Herkesin oynadığı olsun ChatGPT (en hızlı tarihte benimsenen uygulama) veya eklemek için yeni bir teklif trafik ışıklarına dördüncü renk sürücüsüz arabalara geçişi daha güvenli hale getirmek için yapay zeka hayatımızı tamamen doyurdu. Yapay zeka her zamankinden daha erişilebilir görünse de, yapay zeka modellerinin karmaşıklığı katlanarak arttı. 

AI modelleri, kara kutu ve beyaz kutu modellerinin ana kategorilerine ayrılır. Kara kutu modelleri açıklama yapmadan bir karara varırken, beyaz kutu modelleri o sonucu üreten kurallara dayalı bir sonuç sunar. 

Tamamen derin öğrenme yöntemleri dünyasına doğru ilerlemeye devam ederken, çoğu büyük ölçüde kara kutu modellerine yöneliyor. 

Bu yaklaşımla ilgili sorun? Kara kutu modelleri (bilgisayar görüşünde yerleşik olanlar gibi) doğrudan tüketilemez. Bu genellikle kara kutu sorunu olarak adlandırılır. Kara kutu modellerini yeniden eğitmek, kullanıcılara hızlı bir başlangıç ​​sağlayabilirken, modellerin karmaşıklığı arttıkça modeli yorumlamak ve kara kutu modelinin sonuçlarını anlamak zorlaşır.

Kara kutu bilmecesini çözmenin bir yolu, çok ısmarlama ve açıklanabilir bir model oluşturmaktır. 

Ancak dünyanın gittiği yön bu değil. 

Model Açıklanabilirliğinin Bittiği Yerde Veri Açıklanabilirliği Başlar

Açıklanabilirlik, model şeffaflığını, doğruluğunu ve adilliğini geliştirdiği ve ayrıca yapay zekaya olan güveni artırabileceği için kritik öneme sahiptir. Model açıklanabilirliği geleneksel bir yaklaşım olsa da, artık yeni bir türe ihtiyaç duyulmaktadır: veri açıklanabilirliği.

Model açıklanabilirliği, nihai sonucu anlamak için algoritmayı anlamak anlamına gelir. Örneğin, bir onkoloji ünitesinde kullanılan bir model, bir büyümenin kanserli olup olmadığını test etmek için tasarlanmışsa, bir sağlık hizmeti sunucusu nihai sonuçları oluşturan değişkenleri anlamalıdır. Bu teoride kulağa harika gelse de, model açıklanabilirliği kara kutu sorununu tam olarak ele almıyor. 

Modeller giderek daha karmaşık hale geldikçe, çoğu uygulayıcı modelin iç katmanlarındaki dönüşümleri tam olarak belirleyemeyecek ve hesaplamaları yorumlayamayacak. Büyük ölçüde kontrol edebileceklerine, yani eğitim veri setlerine ve gözlemlediklerine, sonuçlara ve tahmin ölçümlerine güvenirler.  

Binlerce fotoğraftan kahve fincanı fotoğraflarını saptamak için bir model oluşturan bir veri bilimcisi örneğini ele alalım; ancak model, örneğin bardak ve bira bardağı görüntülerini de algılamaya başlar. Bardak ve bira kupaları kahve kupalarına biraz benzese de, tipik malzemeler, renk, opaklık ve yapısal oranlar gibi belirgin farklılıklar vardır.

Modelin kahve kupalarını daha yüksek güvenilirlikle algılaması için veri bilimcinin aşağıdaki gibi soruların yanıtlarını bilmesi gerekir:

  • Model kahve kupaları yerine hangi görüntüleri aldı? 
  • Model, ona yeterince veya doğru kahve fincanı örneği vermediğim için mi başarısız oldu?
  • Bu model, başarmaya çalıştığım şey için yeterince iyi mi?
  • Model hakkındaki görüşüme meydan okumam gerekiyor mu?
  • Modelin başarısız olmasına neyin neden olduğunu kesin olarak belirleyebilirim? 
  • Modelin yeni varsayımlarını oluşturmalı mıyım?
  • Başlamak için iş için yanlış modeli mi seçtim?

Gördüğünüz gibi, her sorun olduğunda bu tür bir içgörü, anlayış ve model açıklanabilirliği sağlamak pek olası değildir.

Veri açıklanabilirliği anlamaktır veri bir modelin nihai sonucuna nasıl ulaşıldığını anlamak için bir modele eğitim ve girdi sağlamak için kullanılır. Makine öğrenimi algoritmaları her zamankinden daha karmaşık hale geldikçe, ancak meslekler ve endüstriler arasında daha yaygın bir şekilde kullanıldıkça, kahve kupası örneğimiz gibi yaygın sorunları hızla çözmenin ve çözmenin anahtarı olarak verilerin açıklanabilirliği hizmet edecektir.

Veri Açıklanabilirliği ile Makine Öğreniminde Adaleti ve Şeffaflığı Arttırma

Makine öğrenimi modellerinde adalet, veri açıklanabilirliği uygulanarak daha da sıcak hale getirilebilecek olan sıcak bir konudur.

Neden vızıltı? AI'daki önyargı, bir grup için önyargılı sonuçlar yaratabilir. Bunun en iyi belgelenmiş vakalarından biri, ırksal kullanım vakalarındaki önyargılardır. Bir örneğe bakalım. 

Diyelim ki büyük, iyi bilinen bir tüketici platformu yeni bir pazarlama direktörü pozisyonu için işe alıyor. İK departmanı, günlük olarak alınan çok sayıda özgeçmişle başa çıkmak için, temel özellikleri veya nitelikli başvuru sahiplerini seçerek başvuru ve işe alma sürecini kolaylaştırmak için bir AI/ML modeli kullanır. 

Bu görevi gerçekleştirmek ve her bir özgeçmişi ayırt etmek ve kovalamak için, model bunu temel baskın özellikleri anlamlandırarak yapacaktır. maalesef bu Ayrıca modelin dolaylı olarak adaylardaki genel ırksal önyargıları da yakalayabileceği anlamına gelir. Bu tam olarak nasıl olur? Bir başvuru havuzu bir yarışın daha küçük bir yüzdesini içeriyorsa, makine kuruluşun farklı bir ırkın veya baskın veri kümesinin üyelerini tercih ettiğini düşünecektir.

Bir model, kasıtsız da olsa başarısız olursa, hatanın şirket tarafından ele alınması gerekir. Temel olarak, modeli uygulayan kişi, modelin kullanımını savunabilmelidir.

İşe alma ve ırksal önyargı davasında, savunucunun öfkeli bir halka ve/veya uygulama havuzuna modeli eğitmek için veri kümelerinin kullanımını, bu eğitime dayalı modelin ilk başarılı sonuçlarını, başarısızlığını açıklayabilmesi gerekir. modelin bir köşe vakasını ele alması ve bunun, sonunda ırksal olarak önyargılı bir filtreleme süreci yaratan kasıtsız bir veri dengesizliğine nasıl yol açtığı.

Çoğu için, yapay zeka, dengesizlik veri kümeleri, model eğitimi ve veri gözetimi yoluyla nihai başarısızlıkla ilgili bu tür ince ayrıntılar iyi karşılanmayacak ve hatta anlaşılmayacak. Ama bu hikayeden ne anlaşılacak ve ne kalacak? XYZ şirketi, işe alımlarda ırksal önyargı uyguluyor. 

Bu çok yaygın örnekten alınacak ders, çok akıllı bir modelden kaynaklanan istenmeyen hataların meydana gelebileceği ve insanları olumsuz yönde etkileyebileceği ve korkunç sonuçlara yol açabileceğidir. 

Veri Açıklanabilirliği Bizi Nereye Götürür?

Veri açıklanabilirliği, sonuçları karmaşık bir makine öğrenimi modelinin anlaşılmasıyla çevirmek yerine tahminleri ve başarısızlıkları açıklamak için verileri kullanmaktır.

Veri açıklanabilirliği, test verilerini görmenin bir kombinasyonudur. ve bir modelin bu verilerden ne alacağını anlamak. Bu, tahminleri ve yanlış tahminleri doğru bir şekilde anlamak için yetersiz temsil edilen veri örneklerini, fazla temsil edilen örnekleri (işe alma örneğinde olduğu gibi) ve bir modelin tespitinin şeffaflığını anlamayı içerir.

Verilerin açıklanabilirliğinin bu şekilde kavranması, yalnızca model doğruluğunu ve adilliğini iyileştirmekle kalmayacak, aynı zamanda modellerin daha hızlı hızlanmasına da yardımcı olacaktır.

Karmaşık yapay zeka ve makine öğrenimi programlarına güvenmeye ve bunları günlük hayatımıza dahil etmeye devam ettikçe, kara kutu sorununu çözmek, özellikle başarısızlıklar ve yanlış tahminler için kritik hale geliyor. 

Model açıklanabilirliği her zaman yerini alacak olsa da, başka bir katman gerektirir. Bir modelin ne gördüğünü anlamak ve okumak asla klasik model açıklanabilirliği kapsamında olmayacağından, veri açıklanabilirliğine ihtiyacımız var.

Zaman Damgası:

Den fazla VERİLER