Özet
Bu kod modelinde, bir makine öğrenimi modeli tarafından alınan kararların gizemini çözmek için AI 360 Açıklanabilirlik Araç Takımlarının nasıl kullanılacağını öğrenerek daha iyi içgörüler ve açıklanabilirlik kazanın. Bu, yalnızca politika yapıcıların ve veri bilimcilerin güvenilir açıklanabilir AI uygulamaları geliştirmelerine yardımcı olmakla kalmaz, aynı zamanda herkes için şeffaflık sağlanmasına da yardımcı olur. AI Explainability 360 Toolkit'in kullanımını göstermek için mevcut dolandırıcılık tespit kodu kalıbı AIX360 algoritmalarını açıklamak.
Açıklama
1 milyon dolarlık kredi almak istediğiniz bir bankayı ziyaret ettiğiniz bir senaryo hayal edin. Kredi memuru, bir krediye uygun olup olmadığınızı ve bu kredinin ne kadar olabileceğini tahmin eden veya öneren yapay zeka destekli bir sistem kullanır. Bu örnekte, AI sistemi kredi almaya uygun olmadığınızı önermektedir. Dolayısıyla, düşünmeniz gereken birkaç sorunuz olabilir:
- Müşteri olarak hizmetten memnun kalacak mısınız?
- AI sistemi tarafından verilen kararın gerekçelendirilmesini ister misiniz?
- Kredi memuru, AI sistemi tarafından verilen kararı iki kez kontrol etmeli mi ve AI modelinin altında yatan mekanizmayı bilmelerini ister miydiniz?
- Banka yapay zeka destekli sisteme tamamen güvenmeli ve güvenmeli mi?
Sadece tahminlerde bulunmanın yeterli olmadığı konusunda hemfikir olabilirsiniz. Bazen kararın neden verildiğine dair derin bir anlayışa sahip olmalısınız. Makine öğrenimi modellerinin altında yatan mekanizmayı anlamanız için birçok neden var. Bunlar şunları içerir:
- İnsanın okunabilirliği
- Önyargı azaltma
- Haklılık
- yorumlanabilir
- Yapay zeka sistemlerinde güven ve güveni teşvik etmek
Bu kod modelinde, üç açıklanabilirlik algoritmasının nasıl çalıştığını gösteriyoruz:
- AI Explainability 360 Toolkit'te bulunan Kontrastlı Açıklama Yöntemi (CEM) algoritması.
- AI Explainability 360 — ProtoDash, müşterinin benzer profillere sahip olan ve benzer geri ödeme kayıtlarına sahip olan diğerleriyle nasıl karşılaştırdığını göstermek için mevcut bir tahmin modeliyle çalışır ve modelin mevcut müşteri için tahminine benzer. Bu, başvuru sahibinin riskini değerlendirmeye ve tahmin etmeye yardımcı olur. Modelin tahminine ve bu tavsiyeye nasıl geldiğine dair açıklamaya dayanarak, kredi görevlisi daha bilinçli bir karar verebilir.
- AI Explainability 360 Toolkit'teki Genelleştirilmiş Doğrusal Kural Modeli (GLRM) algoritması, modelin konuşlandırılıp dağıtılamayacağı konusunda bir veri bilimcisine gelişmiş bir açıklanabilirlik düzeyi sağlar.
akış
- Spark tarafından desteklenen IBM Watson® Studio'da oturum açın, IBM Cloud Object Storage'ı başlatın ve bir proje oluşturun.
- .Csv veri dosyasını IBM Cloud Object Storage'a yükleyin.
- Veri dosyasını Watson Studio not defterine yükleyin.
- AI Explainability 360 Toolkit ve Adversarial Robustness Toolbox'ı Watson Studio not defterine kurun.
- Üç farklı kullanıcı türü için AI modelinin açıklanabilirliği ve yorumlanabilirliği için görselleştirme edinin.
talimatlar
Ayrıntılı adımları şurada bulun: README dosya. Bu adımlar aşağıdakilerin nasıl yapılacağını açıklar:
- IBM Cloud ile bir hesap oluşturun.
- Yeni bir Watson Studio projesi oluşturun.
- Veri ekle.
- Defteri oluşturun.
- Verileri DataFrame olarak ekleyin.
- Dizüstü bilgisayarı çalıştırın.
- Sonuçları analiz edin.
Bu kod deseni, AI 360 Araç Seti: AI modellerinin açıklaması Paydaşların ve geliştiricilerin yapay zeka modeli yaşam döngüsünü tamamen anlamalarına ve bilinçli kararlar almalarına yardımcı olan vaka serisini kullanın.
Kaynak: https://developer.ibm.com/patterns/analyzing-fraud-prediction-ai-models/
- Hesap
- AI
- algoritma
- algoritmalar
- uygulamaları
- mimari
- Banka
- vücut
- bulut
- kod
- güven
- içerik
- akım
- veri
- veri bilimcisi
- Bulma
- geliştirmek
- geliştiriciler
- Açıklanabilirlik
- Açıklanabilir AI
- akış
- dolandırıcılık
- Ne kadar
- Nasıl Yapılır
- HTTPS
- IBM
- IBM Cloud
- anlayışlar
- IT
- öğrenme
- seviye
- borç
- makine öğrenme
- model
- Nesne Depolama
- Subay
- Diğer
- model
- tahmin
- Tahminler
- Profiller
- proje
- nedenleri
- kayıtlar
- Sonuçlar
- Risk
- bilim adamları
- Dizi
- So
- hafızası
- sistem
- Şeffaflık
- Güven
- kullanıcılar
- görüntüleme
- Watson
- Watson Stüdyosu
- DSÖ
- İş
- çalışır