您的位置: 首頁 >科技 >

放射AI的可解釋性被認(rèn)為對(duì)于臨床采用至關(guān)重要

2022-08-30 14:44:31 編輯:云宇誠(chéng) 來源:
導(dǎo)讀 如果醫(yī)學(xué)AI算法表現(xiàn)良好,為什么要讓眾所周知的黑匣子破壞人們對(duì)它的信心?或者,如5月27日發(fā)表在《放射學(xué):人工智能》上的一篇觀點(diǎn)文章中所...

如果醫(yī)學(xué)AI算法表現(xiàn)良好,為什么要讓眾所周知的黑匣子破壞人們對(duì)它的信心?

或者,如5月27日發(fā)表在《放射學(xué):人工智能》上的一篇觀點(diǎn)文章中所問的那樣:“為什么我們不應(yīng)該簡(jiǎn)單地信任該模型而忽略為什么做出特定決定?”

當(dāng)前的問題是可解釋性,即人的大腦可以理解AI算法結(jié)論背后的邏輯的程度。

賓夕法尼亞大學(xué)放射學(xué)系的Despina Kontos博士和Aimilia Gastounioti博士都是針對(duì)同一天在同一期刊上發(fā)表的發(fā)現(xiàn)而寫的,他們都認(rèn)為這種可解釋性可能不是必不可少的,但無疑可以加快AI的發(fā)展。納入常規(guī)臨床實(shí)踐。

作者指出,對(duì)錯(cuò)誤的決策或預(yù)測(cè)的一種可理解的解釋“可以幫助人們理解錯(cuò)誤的原因,并為如何解決該錯(cuò)誤提供指導(dǎo)。”

同時(shí),對(duì)正確決策或預(yù)測(cè)的解釋“有助于驗(yàn)證特定結(jié)論的邏輯,確保因果關(guān)系得到理解,并減輕了對(duì)混淆或偏見的潛在懷疑。”

無論哪種情況,“與“黑匣子”相比,放射科醫(yī)生和患者都更容易相信一個(gè)能夠解釋其決策(包括其失敗)的模型。”

Kontos和Gastounioti對(duì)同一天在同一期刊上發(fā)表的評(píng)論結(jié)果進(jìn)行了評(píng)論。

由瑞士伯爾尼大學(xué)的毛里西奧·雷耶斯(Mauricio Reyes)和同事們提出的研究結(jié)果是從放射科醫(yī)生對(duì)當(dāng)前主題的觀點(diǎn)中得出的,并包括以下三個(gè)基本要點(diǎn):

放射人工智能(AI)系統(tǒng)通常具有許多計(jì)算層,這可能使人類難以解釋系統(tǒng)的輸出。

正在開發(fā)可解釋性方法,以便可以通過使用可視化,反例或語義來解釋AI系統(tǒng)。

通過增強(qiáng)其可解釋性,可以更好地驗(yàn)證,信任并在放射醫(yī)學(xué)實(shí)踐中采用AI系統(tǒng)。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號(hào):閩ICP備19027007號(hào)-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。