Saya membaca tentang dua teknik interpretabilitas model post hoc yang populer: LIME dan SHAP
Saya mengalami kesulitan memahami perbedaan utama dalam kedua teknik ini.
Untuk mengutip Scott Lundberg , otak di balik SHAP:
Nilai SHAP datang dengan keunggulan estimasi kotak hitam lokal LIME, tetapi juga dilengkapi dengan jaminan teoretis tentang konsistensi dan akurasi lokal dari teori permainan (atribut dari metode lain yang kami satukan)
Saya mengalami kesulitan memahami apa ' jaminan teoritis tentang konsistensi dan akurasi lokal dari teori permainan ' ini. Karena SHAP dikembangkan setelah LIME, saya menganggapnya mengisi beberapa celah yang gagal ditangani oleh LIME. Apa itu?
Buku Christoph Molnar dalam bab tentang Estimasi Shapley menyatakan:
Perbedaan antara prediksi dan prediksi rata-rata terdistribusi secara adil di antara nilai-nilai fitur dari instance - properti efisiensi shapley. Properti ini menetapkan nilai Shapley terpisah dari metode lain seperti LIME. LIME tidak menjamin untuk mendistribusikan efek dengan sempurna. Mungkin menjadikan nilai Shapley satu-satunya metode untuk memberikan penjelasan lengkap
Membaca ini, saya mendapatkan pengertian bahwa SHAP bukan lokal tetapi penjelasan glocal dari titik data. Saya bisa saja salah di sini dan perlu beberapa pengertian tentang apa arti kutipan di atas. Untuk meringkas pertanyaan saya: LIME menghasilkan penjelasan lokal. Apa perbedaan penjelasan SHAP dengan LIME?
sumber
Jawaban:
LIME membuat model pengganti secara lokal di sekitar unit yang prediksi yang ingin Anda pahami. Karena itu sifatnya lokal. Nilai-nilai cantik 'mendekomposisi' prediksi akhir ke dalam kontribusi setiap atribut - inilah yang oleh beberapa orang diartikan sebagai 'konsisten' (nilai-nilai tersebut ditambah dengan prediksi aktual dari model yang sebenarnya, ini bukan sesuatu yang Anda dapatkan dengan LIME). Tetapi untuk benar-benar mendapatkan nilai-nilai bentuk ada beberapa keputusan yang harus dibuat tentang apa yang harus dilakukan / bagaimana menangani nilai-nilai atribut 'ditinggalkan', ini adalah bagaimana nilai-nilai itu sampai pada. Dalam keputusan ini ada beberapa pilihan yang bisa mengubah interpretasi. Jika saya 'meninggalkan' atribut, apakah saya memberi rata-rata semua kemungkinan? Apakah memilih 'garis dasar'?
Jadi Shapely benar-benar memberi tahu Anda, dengan cara tambahan, bagaimana Anda mendapatkan skor Anda, tetapi ada beberapa pilihan tentang 'titik awal' (yaitu keputusan tentang atribut yang dihilangkan).
LIME hanya memberi tahu Anda, dalam arti lokal, apa atribut paling penting di sekitar titik data yang menarik.
sumber