您的位置: 首頁 >互聯(lián)網(wǎng) >

Argonne研究人員將啟用AI的超級計算用于藥物發(fā)現(xiàn)

2022-07-18 19:45:20 編輯:軒轅育進(jìn) 來源:
導(dǎo)讀 世界上的超級計算機(jī)正進(jìn)行緊急的尋寶游戲,研究盡可能多的分子,以期找到能與有效結(jié)合并可用作藥物的分子。但是,有大量需要測試的分子...

世界上的超級計算機(jī)正進(jìn)行緊急的尋寶游戲,研究盡可能多的分子,以期找到能與有效結(jié)合并可用作藥物的分子。但是,有大量需要測試的分子積壓下來,數(shù)量達(dá)到數(shù)十億?,F(xiàn)在,阿貢實驗室(Argonne National Laboratory)的研究人員正在利用超級計算支持的AI快速識別最有希望的分子。

“我們正在嘗試構(gòu)建基礎(chǔ)設(shè)施,以將AI和機(jī)器學(xué)習(xí)工具與基于物理的工具集成在一起,” Argonne實驗室數(shù)據(jù)科學(xué)與學(xué)習(xí)部門的計算生物學(xué)家Arvind Ramanathan在接受TACC的Aaron Dubrow采訪時解釋說。“我們將這兩種方法結(jié)合起來,以期獲得更大的收益。”

該研究小組使用了DeepDriveMD(蛋白質(zhì)折疊的深度學(xué)習(xí)驅(qū)動的自適應(yīng)分子模擬的縮寫),該工具最初是為Exascale計算項目開發(fā)的。大流行發(fā)生時,DeepDriveMD被用于癌癥藥物分析,此后研究人員轉(zhuǎn)向分析。DeepDriveMD從簡單的蛋白質(zhì)分子模型開始,逐漸將模型與新因素和更復(fù)雜的分析復(fù)雜化,使研究人員能夠利用深度學(xué)習(xí)發(fā)現(xiàn)蛋白質(zhì)的各個方面,這些方面使其成為更強(qiáng)的結(jié)合候選者。

Ramanathan說:“我們構(gòu)建了用于在線進(jìn)行深度學(xué)習(xí)的工具包,使我們可以隨時隨地進(jìn)行采樣。”“我們首先用一些數(shù)據(jù)訓(xùn)練它,然后允許它非??焖俚赝茢鄠魅氲哪M數(shù)據(jù)。然后,根據(jù)其標(biāo)識的新快照,該方法會自動決定是否需要修改培訓(xùn)。”

為了訓(xùn)練和運(yùn)行這些重型模型,研究人員轉(zhuǎn)向了一個而不是兩個,而是四個超級計算機(jī):圣地亞哥超級計算機(jī)中心(SDSC)的2.8峰petaflop Comet系統(tǒng);德州高級計算中心(TACC)的2.3 Linpack petaflop Longhorn系統(tǒng);TACC的23.5 Linpack petaflop Frontera系統(tǒng);最后,是橡樹嶺實驗室(ORNL)的148.6 Linpack petaflop Summit系統(tǒng),該系統(tǒng)在最新的Top500列表中被評為全球最強(qiáng)大的公開排名超級計算機(jī)。

Ramanathan說:“ TACC對我們的工作至關(guān)重要,尤其是Frontera機(jī)器。”“我們已經(jīng)花了一段時間了,使用Frontera的CPU來最大程度地進(jìn)行快速篩選:將虛擬分子放在蛋白質(zhì)旁邊,以查看其是否結(jié)合,然后從中推斷出其他分子是否也會起作用相同。”(目前,該團(tuán)隊每小時在Frontera上模擬300,000個配體。)

使用DeepDriveMD,研究人員從十億個分子向下鉆取到25億個分子,再向下延伸到六百萬個到幾千個,最終找到了具有最大結(jié)合能力的30個分子。這些結(jié)果將與研究合作者共享,并將很快在開放獲取報告中發(fā)布?,F(xiàn)在,研究人員正在著手分析主要蛋白酶和更大,更復(fù)雜的蛋白質(zhì)。

TACC執(zhí)行董事Dan Stanzione表示:“在這樣的全球需求時代,重要的是不僅要利用我們所有的資源,而且要以盡可能創(chuàng)新的方式做到這一點。”“我們已經(jīng)將許多資源用于抗擊的關(guān)鍵研究,但是在該項目中支持新的AI方法將使我們有機(jī)會更有效地利用這些資源。”


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。