可解釋性的人工智慧(Explainable AI, XAI) 技術
=================================
XAI技術是什麼?誰需要XAI?
常聽到大家抱怨深度學習技術是個「黑盒子」。當然,參賽量高達幾千萬到幾十億個的深度學習技術,要清楚瞭解每個參數是怎麼運作的是有困難。但是現在也有非常多的工具(研究)試著解釋網路做了什麼。另外,對於黑盒子的抱怨絕不會停下深度學習技術落地成為其他產品的智能核心。
XAI解釋每個決策背後的思考邏輯。
誰需要XAI?現階段而言,我們認為最重要的是開發深度學習的技術團隊們!
過去三年我們協助幾家軟硬體公司開發人臉辨識產品。深度模型設計過程中會遇見人臉辨識結果跟直覺無法吻合的案例,不曉得判斷的依據為何。為解決這樣的問題,我們花了一年多的時間開發了一個可以嵌合在各個人臉辨識模型的模組,發現可以成功解釋為何兩張人臉會辨識為同一人(或另一人)的原因。XAI模組可以加速人臉辨識網路的開發,我們相信類似的概念可以拓展到其他深度學習應用,加速技術落地。
我們最近會對於人臉XAI的模組進行一系列的展示,適當的實際也會公布這些模組,讓深度學習開發者一起使用。
#XAI #ExplainableAI #xCos DIGITIMES 科技網 DIGITIMES 名家專欄
Search