2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
這是由上周發(fā)布的一份長達(dá)100頁的報(bào)告提出的問題,該報(bào)告由來自14個(gè)機(jī)構(gòu)的26位作者撰寫。該報(bào)告是在英國牛津舉辦的為期兩天的研討會(huì)的結(jié)果,經(jīng)過數(shù)月的研究,提供了人工智能對(duì)安全影響的全面景觀。
作者包括來自人類未來研究所,存在風(fēng)險(xiǎn)研究中心,OpenAI和新安全中心的代表,他們認(rèn)為人工智能不僅改變了現(xiàn)有威脅的性質(zhì)和范圍,而且擴(kuò)大我們將面臨的威脅范圍。他們對(duì)AI的許多有益應(yīng)用感到興奮,包括它將如何協(xié)助防御能力。但該報(bào)告的目的是調(diào)查有意惡意使用AI的安全威脅的情況。
“我們的報(bào)告?zhèn)戎赜谌藗內(nèi)绾螌?duì)人工智能進(jìn)行故意傷害,”劍橋存在風(fēng)險(xiǎn)研究中心執(zhí)行主任SeánÓhÉigeartaigh說。“人工智能可能會(huì)在網(wǎng)絡(luò),物理和政治安全方面構(gòu)成新威脅,或改變現(xiàn)有威脅的性質(zhì)。”
重要的是,這不是關(guān)于遙遠(yuǎn)未來的報(bào)道。所考慮的唯一技術(shù)是那些已經(jīng)可用或可能在未來五年內(nèi)的技術(shù)。因此,這一信息是緊迫的。我們需要承認(rèn)風(fēng)險(xiǎn)并采取措施來管理它們,因?yàn)榧夹g(shù)呈指數(shù)級(jí)增長。正如記者Dave Gershgorn所說的那樣,“善人的每一次人工智能推進(jìn)都是對(duì)壞人的推進(jìn)。”
人工智能系統(tǒng)往往比傳統(tǒng)工具更高效,更具可擴(kuò)展性。此外,人工智能的使用可以增加人們對(duì)所采取行動(dòng)的匿名性和心理距離,從而可能降低和暴力行為的障礙。此外,人工智能系統(tǒng)有其獨(dú)特的漏洞,包括數(shù)據(jù)中毒的風(fēng)險(xiǎn),對(duì)抗性的例子,以及在設(shè)計(jì)中利用漏洞。支持AI的攻擊將超過傳統(tǒng)的網(wǎng)絡(luò)攻擊,因?yàn)樗鼈兺ǔ?huì)更有效,更有針對(duì)性,更難以歸因。
我們需要準(zhǔn)備的攻擊類型不僅限于復(fù)雜的計(jì)算機(jī)黑客攻擊。作者提出,有三個(gè)主要的安全域:數(shù)字安全,主要涉及網(wǎng)絡(luò)攻擊;物理安全,指用無人機(jī)和其他物理系統(tǒng)進(jìn)行攻擊;和政治安全,其中包括監(jiān)視,通過有針對(duì)性的宣傳說服和通過操縱視頻欺騙等實(shí)例。這些域具有顯著的重疊,但該框架可用于識(shí)別不同類型的攻擊,其背后的基本原理以及可用于保護(hù)自己的選項(xiàng)范圍。
可以采取哪些措施來準(zhǔn)備在這些域中惡意使用AI?作者提供了很多很好的例子。報(bào)告中描述的情景可能是研究人員和政策制定者探索可能的未來和集體討論管理最關(guān)鍵威脅的方法的好方法。例如,想象一個(gè)商業(yè)清潔機(jī)器人被重新用作不可追蹤的爆炸裝置可能會(huì)嚇到我們,但它也暗示了為什么像機(jī)器人注冊(cè)要求這樣的政策可能是一個(gè)有用的選擇。
每個(gè)領(lǐng)域也有自己可能的控制點(diǎn)和對(duì)策。例如,為了提高數(shù)字安全性,公司可以提高消費(fèi)者意識(shí)并激勵(lì)白帽黑客發(fā)現(xiàn)代碼中的漏洞。我們也可以向網(wǎng)絡(luò)安全社區(qū)學(xué)習(xí),并采取措施,如人工智能開發(fā)的紅色團(tuán)隊(duì),人工智能系統(tǒng)的形式驗(yàn)證,以及負(fù)責(zé)任的AI漏洞披露。為了提高人身安全,政策制定者可能希望規(guī)范硬件開發(fā)并禁止銷售致命的自主武器。同時(shí),媒體平臺(tái)可以通過提供圖像和視頻真實(shí)性認(rèn)證,虛假新聞檢測和加密來最小化對(duì)政治安全的威脅。
該報(bào)告還提供了四項(xiàng)高級(jí)別建議,這些建議并非旨在提供具體的技術(shù)或政策建議,而是提請(qǐng)注意值得進(jìn)一步調(diào)查的領(lǐng)域。建議如下:
建議1:政策制定者應(yīng)與技術(shù)研究人員密切合作,調(diào)查,預(yù)防和減輕對(duì)AI的潛在惡意使用。
建議2:人工智能研究人員和工程師應(yīng)認(rèn)真對(duì)待其工作的雙重性質(zhì),允許濫用相關(guān)的考慮因素影響研究重點(diǎn)和規(guī)范,并在有害的應(yīng)用可預(yù)見時(shí)主動(dòng)聯(lián)系相關(guān)行為者。
建議3:應(yīng)在研究領(lǐng)域確定最佳實(shí)踐,采用更成熟的方法解決計(jì)算機(jī)安全等雙重用途問題,并在適用于AI情況下導(dǎo)入。
建議4:積極尋求擴(kuò)大參與討論這些挑戰(zhàn)的利益相關(guān)者和領(lǐng)域?qū)<业姆秶?/p>
最后,該報(bào)告確定了進(jìn)一步研究的幾個(gè)領(lǐng)域。其中第一個(gè)是向網(wǎng)絡(luò)安全社區(qū)學(xué)習(xí),因?yàn)殡S著基于AI的系統(tǒng)變得更加廣泛和有能力,網(wǎng)絡(luò)安全事件的影響將會(huì)增加。其他研究領(lǐng)域包括探索不同的開放性模型,促進(jìn)AI研究人員的責(zé)任文化,以及開發(fā)技術(shù)和政策解決方案。
正如作者所述,“惡意使用人工智能將影響我們構(gòu)建和管理數(shù)字基礎(chǔ)設(shè)施的方式,以及我們?nèi)绾卧O(shè)計(jì)和分配人工智能系統(tǒng),并可能需要政策和其他機(jī)構(gòu)響應(yīng)。”
雖然這只是人工智能將如何影響全球安全所需的理解的開始,但本報(bào)告推動(dòng)了討論的進(jìn)展。它不僅描述了許多與人工智能相關(guān)的緊急安全問題,而且還提出了我們今天可以開始為這些威脅做準(zhǔn)備的方法
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。