2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權歸原作者所有。
為了使AI發(fā)揮其潛能并在許多領域(尤其是影響人們的領域)中廣泛部署,它需要克服黑匣子問題。如今,一個熱門研究領域被稱為可擴展AI(XAI),以通過可解釋性,公平性和透明性增強AI學習模型。
前提是,一旦AI完全具備了功能,它將導致業(yè)界所設想的“負責任的AI”。
大多數(shù)機器學習模型不是很聰明。他們經(jīng)過“訓練”以識別模式和關系,但有時結(jié)果卻很奇怪。在進行迭代時,他們嘗試將各種參數(shù)與目標函數(shù)相關聯(lián)(“是貓還是狗?”)。
XAI(可替代AI)的新興研究
是的,數(shù)據(jù)的復雜性和對抗性擾動也會導致基于規(guī)則的系統(tǒng)中的錯誤預測或決策。但是在這種情況下,可以跟蹤規(guī)則的執(zhí)行方式。太多的計算無法在機器引導中實現(xiàn)。XAI的目標是提供對決策的后驗分析,并提供消除數(shù)據(jù)和其他任務偏差的方法。
在AI的可解釋性和可解釋性的確切含義中,Meet Ghandi很好地總結(jié)了一下:
XAI有助于確保在進行決策時,訓練數(shù)據(jù)集以及訓練后的模型沒有任何偏差。此外,XAI有助于調(diào)試學習模型,并引起人們對各種對抗性干擾的注意,這些干擾會導致錯誤的預測或決策。更重要的是,XAI將深入了解由學習模型建立的因果關系以及該模型的推理。應該注意的一件事是,通過使學習模型更加復雜,其可解釋性降低,性能提高;因此,學習模型的性能和可解釋性之間存在反比關系。
在提出XAI技術時,應將重點放在學習系統(tǒng)的目標用戶上,以使學習系統(tǒng)對其用戶值得信賴。另外,應考慮用戶的隱私。因此,要在現(xiàn)實生活中使用AI,首先,我們需要通過解釋AI的決策來使其負責,并使其透明化,從而構(gòu)成負責任或道德AI的基礎。
甘地提出了一些基本問題:
在AI開發(fā)中有一個激烈的爭論,即XAI將降低系統(tǒng)的性能。
因果關系不是我在其他XAI解釋中看到的標準,因此我認為這是個人觀點。
值得信賴,具有私密性并且對負責/道德的AI負責,但目前,XAI專注于系統(tǒng)的開發(fā)人員和所有者。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權歸原作者所有。