雲端資料倉儲BigQuery正式向用戶提供可解釋人工智慧(Explainable AI,XAI)功能,使得用戶能夠更了解機器學習模型做出決策的方法。官方提到,BigQuery針對不同的模型類型,提供各種XAI方法,全面地支援可以解釋性人工智慧,供用戶使用單一SQL查詢,並能在數秒內獲得數百萬個解釋。

不少企業在內部導入機器學習技術,但是要使得人工智慧的決策更為可信,人工智慧必需要具有可解釋性,Google提到,在訓練機器學習模型時,與特徵相關有兩類可解釋性,分別是全域可解釋性,以及區域可解釋性。

全域可解釋描述了特徵對模型的整體影響,能夠讓用戶了解特定特徵,是否比其他特徵對模型的預測,存在更大的影響力,當模型具有數百或是數千個特徵,用戶想要知道哪些特徵,是模型的主要貢獻者,則全域可解釋就會特別有用,用戶能夠以此來修剪不太重要的特徵,來提高模型的通用性。

而區域可解釋性則描述每個特徵對特定預測做出的貢獻,以房價為例,房屋不同的特徵可能會在房價上做出貢獻,像是具有3間臥室的房屋,在房價可能額外貢獻5萬美元,靠近市中心價值增加10萬美元,建造的年份為2010年,可能房價又會上升3萬美元等。Google表示,區域可解釋性的目的,是要用來了解模型每個特徵,之於預測的切確貢獻。

BigQuery Explainable AI透過定義資料列中,每個特徵對預測結果的貢獻,使得用戶能夠深入了解機器學習模型,在分類和迴歸任務所生成的結果,Google提到,這被稱作特徵歸因,這項訊息可用來驗證模型的行為是否符合預期,並辨識模型中的偏差,還能獲得改進模型和訓練資料的方法。

BigQuery Explainable AI適用於多種模型,包括獨立同分布資料(IID Data)的監督式學習模型,和時間序列模型,針對每種模型,BigQuery Explainable AI都具有不同的可解釋性方法,而每種可解釋性方法都有各自的運算方式。


熱門新聞

Advertisement