2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ 備案號(hào):
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
近日日本的一家人工智能研究團(tuán)隊(duì)在新的研究項(xiàng)目中表示,可以通過AI去讀取人類大腦的一些圖像,完成夢(mèng)境景象的刻錄,幫助人類去重現(xiàn)大腦中所見到的各種場(chǎng)景,根據(jù)該研究所的工作人員表示,這一項(xiàng)技術(shù)的發(fā)展,是能夠在各種場(chǎng)景下去運(yùn)用,比如去記錄下人類的夢(mèng)境,或者是幫助癱瘓的人做到正常的與人交流。
據(jù)悉該項(xiàng)研究項(xiàng)目已經(jīng)在去年進(jìn)行發(fā)表,并且決定在近期的計(jì)算機(jī)視覺國(guó)際大會(huì)上進(jìn)行正式公布,事實(shí)層次上,很多實(shí)驗(yàn)室都在嘗試?yán)萌斯ぶ悄芗夹g(shù)去讀取人類的大腦圖像掃描,試圖去重建被實(shí)驗(yàn)者近期看到的人臉數(shù)據(jù)和風(fēng)景圖像,不過日本該研究所的這項(xiàng)實(shí)驗(yàn),是首次將穩(wěn)定擴(kuò)散,這樣的模型運(yùn)用在圖像建設(shè)的過程中。
穩(wěn)定擴(kuò)散的這項(xiàng)數(shù)據(jù)是由德國(guó)的相關(guān)項(xiàng)目研究人員開發(fā)的,在2022年就正式公布開發(fā),主要是從文本圖像到人工智能的生成模型來進(jìn)行編輯,人工智能會(huì)在接受文本描述的相關(guān)數(shù)十億張圖像訓(xùn)練后,根據(jù)這些文本的提示去生成一些全新的圖像,在這種研究項(xiàng)目中,會(huì)將大腦的掃描和實(shí)驗(yàn)參與者所聯(lián)觀察的這些圖片進(jìn)行系,通過在訓(xùn)練中獲得這些有用的信息。
根據(jù)未參加此項(xiàng)研究的美國(guó)一位神經(jīng)科學(xué)家表示,這個(gè)項(xiàng)目的實(shí)際原理就是去結(jié)合文本和視覺上的信息來破譯人類大腦的一種方式,研究人員使用明尼蘇達(dá)大學(xué)提供的數(shù)據(jù)收集模式,對(duì)穩(wěn)定擴(kuò)散這個(gè)項(xiàng)目進(jìn)行了額外的訓(xùn)練,在這項(xiàng)訓(xùn)練中采用的數(shù)據(jù)包括了四個(gè)參與者所觀看的上萬張照片,后續(xù)對(duì)受訓(xùn)者的腦部進(jìn)行了掃描,其中有一部分的掃描結(jié)果是用于模型外的額外訓(xùn)練,還有一部分是用于后續(xù)的測(cè)試階段。
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ 備案號(hào):
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。