立即加入會員
取得專屬服務

可解釋人工智慧 XAI 把黑箱模型變透明|投書

可解釋人工智慧 XAI 把黑箱模型變透明|投書
「可解釋人工智慧」(簡稱XAI)讓使用者了解哪些因素可能影響模型決策,提高人們對人工智慧的信任度。圖片來源:Shutterstock
2021-03-09
文・林守德(Appier首席機器學習科學家)
7675
對許多人而言,人工智慧的運作宛如「黑箱作業」:輸入數百萬筆、甚至數10億筆資料後,經由一連串不透明的演算法推導出結果,或提出行動建議。當模型產出的結果,乍看似乎違背直覺甚至有誤時,便可能導致不信任。

正因為決策過程摻雜的變數具有廣泛影響力,也使應用開始朝「可解釋人工智慧」(簡稱XAI)方向發展。

人工智慧模型,可透過訓練資料及演算法推導出結論;並在輸入新資料時,運用該資料制定決策並採取行動。例如,當顧客造訪線上商店時,人工智慧模型會根據他的相關資料(如過去的購買記錄、瀏覽歷史、年齡、所在地和其他特徵),提出相應的產品推薦。

Appier首席機器學習科學家林守德解釋,如果行銷人員想針對不同客群,提供不同的優惠訊息,人工智慧將是可以利用的工具;「一旦掌握了人工智慧模型區分顧客的方式和原因,便可針對各客群設計、並執行更有效的行銷策略。」

舉例來說,行銷人員可用人工智慧將顧客分為三種:果斷型、猶豫型和純瀏覽型,並根據不同客群的特性,採取相應行動。

例如,對果斷型顧客追加銷售、寄送折扣碼或優惠券給猶豫型顧客,以提高購買的可能。至於純瀏覽型顧客,因為他們大多數時候是只看不買,行銷人員無須對其採取任何行動。

換言之,藉由了解人工智慧的分眾方式,行銷人員便能為各個客群,量身打造專屬的行銷策略。

AI-人工智慧-行銷-機器學習-大數據-AI模型透過分析顧客資料,人工智慧能擬定更合適的行銷策略。圖片來源:Shutterstock

XAI 可解釋的人工智慧對行銷人員的重要性

人工智慧模型的可解釋程度,須視行銷人員想了解的內容而定。行銷人員可能不太關注演算法的運作機制,他們希望了解的,是哪些功能或系統輸入實例,會影響模型產出的建議,好妥善規劃後續行動。

舉例而言,人工智慧模型會基於不同信號,而將顧客判定為猶豫型顧客。也許是因為顧客曾多次將游標移動到同一商品上,或是因為他將某件商品放入購物車很長一段時間,卻遲遲未結帳。

針對上述兩種情況,行銷人員所採取的行動可能不同。對於前者,只需推薦數種與該顧客關注商品相似的品項;對於後者,則可考慮提供限時免運優惠,以觸發最終的購買行為。

林守德認為,「行銷人員必須明白,哪些關鍵因素會影響模型的決策。」儘管對行銷人員而言,了解模型背後的演算法非常有挑戰性,但若能明白哪些因素在人工智慧的決策過程中發揮了作用,將有助於提高模型的可解釋性。

在討論XAI時,未必要了解整個模型的運作機制,只需明白哪些因素會影響其產出即可。換言之,理解模型的運作原理是一回事,明白其為何產出特定結果則是另一回事,兩者不可混為一談。

XAI能讓系統所有者或使用者解釋模型背後的決策過程,藉此了解其優缺點,進而推測系統未來的運作方式。

例如,在進行影像辨識時,讓人工智慧模型聚焦於照片的特定區域,可能會導至不同結果。一旦了解影像的哪些部分,最可能促使模型產出特定結果或決策,使用者便能更有效地掌握並解釋模型的行為模式。

AI-人工智慧-行銷-機器學習-大數據-AI模型了解AI形成結果的原因,能有效地解釋模型的行為模式。圖片來源:Shutterstock

除了協助制定策略,XAI也使用者能向管理階層及其他利害關係人解釋產出結果。這對於闡述模型的輸出及採用特定策略的理由,十分管用。

然而,並非所有人工智慧模型都容易解讀。

部分研究人員指出,與影像辨識、自然語言處理等深度學習模型相比,決策樹和貝氏分類器等演算法更具可解釋性。不過,這個論點是基於精確性和可解釋性之間的權衡。隨著模型結構漸趨複雜,非專業人士往往難解釋清楚背後的運作原理,但複雜的模型表現通常更出色。

可解釋的人工智慧與人工智慧模型偏見

由於用來訓練模型的資料可能自帶偏見,而且演算法設計也可能在無意間摻入偏見。因此,林守德表示,「偏見無可避免地存在於所有人工智慧模型中。只是,並非所有人工智慧偏見都是壞事。」

事實上,偏見也能準確預測;但用於種族和性別等敏感領域時,態度務必謹慎。

林守德進一步說明,「XAI能協助人們區分,模型決策時,用的是有益或有害的偏見;還可告訴我們,模型決策時,哪些因素比較重要。」

雖然XAI無法檢測出偏見,但仍有助人類理解模型決策時是否有偏見;XAI甚至能幫人們理解偏見的來源,究竟是源自用以訓練模型的資料,還是模型對不同標籤的權重等。(延伸閱讀|醫學院用AI面試,竟刷掉數百位優秀女性與少數族裔⋯⋯科技為什麼也會偏心?

XAI 的關鍵在於「信任」

林守德解釋,XAI使模型看起來更合理,也使人們更容易理解;而且每個人都能研究模型產出的結果,以決定是否採納其建議。換句話說,「XAI不僅將人類納入決策過程,更讓人們成為做出最終決定前的最後一道防線,使流程的可信度更高。」

他也補充,未來的人工智慧模型,將有能力向人們解釋其制定決策的方式,並將決策攤在眾人面前以供檢視;而這意味著,模型開發人員的責任也將加重。相信在不久的將來,會出現能自行解釋運作原理的人工智慧系統。(延伸閱讀|投書|用AI做精準行銷,銷售卻愈來愈差?你可能少做了這件事

開發更多可解釋的人工智慧模型

學術界至今已提出許多研究報告,希望促進人工智慧或其他演算法的自我解釋能力。

「有些模型要比其他模型更容易解釋,」林守德舉例,深度學習模型就是難以解讀的模型之一。為解讀深度學習模型的運作機制,某些研究會建議用代理模型模仿深度學習模型的行為,因為代理模型往往更容易解釋。

他還補充,另一種方法,則是從模型的設計著手,建構更容易解釋的模型。例如,在神經網路中使用較少參數,將有望降低複雜度、並實現相似的準確性,從而使模型更具可解釋性。

隨著越來越多企業部署人工智慧,能否了解模型背後的運作機制,儼然已成為企業致勝的關鍵。唯有掌握人工智慧模型的運作方式,才能深入了解其決策背後的成因、識別必須排除的偏見,從而增進人們對該系統的信任。

XAI不僅打開了人工智慧和機器學習的黑箱,更讓人們瞭解模型運作模式,把黑箱變透明!(延伸閱讀|薄酒萊如何新鮮準時送到你手中?酒莊用AI預測供需 退貨減80%|SAS專欄

(欲了解更多人工智慧的技術文章與相關應用,歡迎參閱Appier部落格成功案例

參考資料

1. Explainable AI: from black box to glass box
2. 為什麼人工智慧偏見在行銷領域並非總是壞事

其他人也在看

你可能有興趣

影音推薦

【2022.SDGs國際論壇 #2】中央、地方、產業 永續利害關係人如何協作?|永續議題分析與利害關係人協作

已成功複製連結