
可解釋的金融AI 建立高信任及可信度
金融服務需要更先進的人工智能(AI)解決方案,將AI應用在需要高可信度之多種情況,例如銷售預測、投資風險管理,及洗錢與非法交易之偵測。公司需要確知能信任AI產生之結果,需要透明度及可信度,也需要了解如何有效利用AI產生之結果來訂定決策。
富士通公司正在開發的「可解釋的AI(explainable
AI)」回應了這些問題。「可解釋AI」讓使用者理解預測背後的標準、哪些因素增加風險,以及可採取之行動。最終,這將建立更多信任及可信度。公司因為透明度提高,而能迅速掌握重點,進而減少其時間成本,亦可善用「可解釋AI」提供修正行為及結果的能力,實施更有效的策略及資源分配。
歐洲富士通實驗室AI首席工程師兼XBRL專家MariaMora指出,AI解決方案需要極大量的高品質資料。Mora注意到,目前開發AI的大部分工作係作必要資料之存取-此可利用XBRL大幅加快速度。隨著高品質結構化資料的增加,此類創新的AI解決方案將能夠發揮其潛能。總而言之,金融服務需要高可信度的AI解決方案。為此,「可解釋AI」藉由呈現結果背後的原因來提高透明度以建立信任。結構化資料是此作法成功之關鍵。