您的位置: 首頁 >互聯(lián)網 >

人工智能的可解釋性仍然是一個重要的課題

2022-07-16 10:48:41 編輯:謝和素 來源:
導讀 為了使AI發(fā)揮其潛能并在許多領域(尤其是影響人們的領域)中廣泛部署,它需要克服黑匣子問題。如今,一個熱門研究領域被稱為可擴展AI(XAI...

為了使AI發(fā)揮其潛能并在許多領域(尤其是影響人們的領域)中廣泛部署,它需要克服黑匣子問題。如今,一個熱門研究領域被稱為可擴展AI(XAI),以通過可解釋性,公平性和透明性增強AI學習模型。

前提是,一旦AI完全具備了功能,它將導致業(yè)界所設想的“負責任的AI”。

大多數(shù)機器學習模型不是很聰明。他們經過“訓練”以識別模式和關系,但有時結果卻很奇怪。在進行迭代時,他們嘗試將各種參數(shù)與目標函數(shù)相關聯(lián)(“是貓還是狗?”)。

XAI(可替代AI)的新興研究

是的,數(shù)據(jù)的復雜性和對抗性擾動也會導致基于規(guī)則的系統(tǒng)中的錯誤預測或決策。但是在這種情況下,可以跟蹤規(guī)則的執(zhí)行方式。太多的計算無法在機器引導中實現(xiàn)。XAI的目標是提供對決策的后驗分析,并提供消除數(shù)據(jù)和其他任務偏差的方法。

在AI的可解釋性和可解釋性的確切含義中,Meet Ghandi很好地總結了一下:

XAI有助于確保在進行決策時,訓練數(shù)據(jù)集以及訓練后的模型沒有任何偏差。此外,XAI有助于調試學習模型,并引起人們對各種對抗性干擾的注意,這些干擾會導致錯誤的預測或決策。更重要的是,XAI將深入了解由學習模型建立的因果關系以及該模型的推理。應該注意的一件事是,通過使學習模型更加復雜,其可解釋性降低,性能提高;因此,學習模型的性能和可解釋性之間存在反比關系。

在提出XAI技術時,應將重點放在學習系統(tǒng)的目標用戶上,以使學習系統(tǒng)對其用戶值得信賴。另外,應考慮用戶的隱私。因此,要在現(xiàn)實生活中使用AI,首先,我們需要通過解釋AI的決策來使其負責,并使其透明化,從而構成負責任或道德AI的基礎。

甘地提出了一些基本問題:

在AI開發(fā)中有一個激烈的爭論,即XAI將降低系統(tǒng)的性能。

因果關系不是我在其他XAI解釋中看到的標準,因此我認為這是個人觀點。

值得信賴,具有私密性并且對負責/道德的AI負責,但目前,XAI專注于系統(tǒng)的開發(fā)人員和所有者。


免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

2016-2022 All Rights Reserved.平安財經網.復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網 版權歸原作者所有。