Google最新的模型可解釋性研究,發展出一種稱為StylEx的視覺化分類器解釋方法,StylEx能夠自動探索和視覺化個別特徵對分類器的影響,用戶可以透過單獨操作屬性,在不影響其他特徵的情況,探索個別特徵的影響。

StylEx適用的領域廣泛,包括動物、樹葉、臉部,甚至是視網膜圖像,根據Google的研究表示,StylEx所找到的屬性和語義屬性吻合,能夠生成有意義的特定圖像解釋,在研究中被人們解釋。

研究人員提到,神經網路可以良好地執行特定任務,但是要了解神經網路做出決定的方法,卻通常是個謎,難以知道像是模型使用哪些訊號來辨識圖像分類。但是解釋神經模型的決策過程,在部分領域是重要的,像是醫療用的圖像分析,或是自動駕駛等,攸關性命的領域,特徵分析有助於指引醫療提供者、揭露模型偏差,並對下游決策者提供支援,甚至有助於科學發現。

過去對分類器進行視覺解釋的方法,有像是Grad-CAM,能夠突出顯示圖像中影響分類器的區域,但是沒辦法解釋這些區域中,決定分類結果的屬性有哪些,另一個研究GANalyze,則可以在分類之間平滑切換,藉由轉換圖像來提供解釋,但研究人員表示,這些方法往往會同時改變所有屬性,難以隔離個別屬性的影響。

而StylEx可以自動檢測分離的屬性,並視覺化操作每個屬性影響分類器的機率,用戶可以查看這些屬性,並且對這些內容進行語意上的解釋,像是辨識貓和狗的分類器(下圖),StylEx能夠得出多種屬性,像是屬性4狗比貓容易張嘴,屬性5貓的瞳孔更像狹縫,屬性1貓的耳朵傾向不折疊等。

StylEx適用領域廣泛,包括二元和多元分類的分類器,在所有測試領域中,StylEx偵測到的前幾個屬性,與人類所解釋的語意概念一致。研究人員特別強調,StylEx方法解釋的對象是分類器,而非真實的情況,也就是說,該方法揭露分類器從資料中學到的圖像屬性,而這些屬性未必代表在現實中的類別標籤。

這些StylEx偵測到的屬性,可能會揭露分類器訓練或是資料集中的偏差,研究人員表示,這是StylEx的重要優點,因為可以用來進一步提高神經網路的公平性,像是增加訓練資料集的範例,來補償StylEx所揭露的偏差。StylEx的貢獻在於提供一種新技術,在分類器上給定圖像或類別,可獲得有意義的解釋,研究人員認為,這個技術有助於緩解分類器和資料集中存在的偏差。


熱門新聞

Advertisement