2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
今天的人工智能系統(tǒng)可能看起來像是能夠在各種任務(wù)中擊敗人類同行的智力強(qiáng)者。然而,事實(shí)上,當(dāng)今最先進(jìn)的AI代理商的智力能力是狹隘和有限的。以AlphaGo為例。雖然它可能是棋盤游戲Go的世界冠軍,但這基本上是系統(tǒng)擅長的唯一任務(wù)。
當(dāng)然,還有AlphaZero。該算法掌握了許多不同的游戲,從和國際象棋到Go。因此,它比許多當(dāng)代AI代理商更有能力和動(dòng)態(tài);但是,AlphaZero無法輕松將其智能應(yīng)用于任何問題。它不能像人類一樣從一個(gè)任務(wù)移動(dòng)到另一個(gè)任務(wù)。
所有其他當(dāng)前的人工智能系統(tǒng)都可以說同樣的事情 - 他們的認(rèn)知能力是有限的,并沒有超出他們創(chuàng)建的具體任務(wù)。這就是為什么人工智能(AGI)是許多研究人員的長期目標(biāo)的原因。
AGI系統(tǒng)被廣泛認(rèn)為是人工智能研究的“圣杯”,是具有廣泛解決問題能力的人工智能代理,使他們能夠應(yīng)對(duì)在設(shè)計(jì)階段未考慮的挑戰(zhàn)。與專注于一項(xiàng)特定技能的傳統(tǒng)AI系統(tǒng)不同,AGI系統(tǒng)能夠有效地解決他們遇到的任何問題,完成各種任務(wù)。
如果技術(shù)得以實(shí)現(xiàn),它將以無數(shù)種方式使人類受益。斯坦福大學(xué)(Stanford University)經(jīng)濟(jì)學(xué)家馬歇爾•伯克(Marshall Burke)預(yù)測(cè),AGI系統(tǒng)最終將能夠建立大規(guī)模的協(xié)調(diào)機(jī)制,以幫助緩解(甚至消除)我們最緊迫的一些問題,如饑餓和貧困。然而,在社會(huì)能夠從這些AGI系統(tǒng)中獲益之前,DeepMind的AGI安全研究員Ramana Kumar指出,AI設(shè)計(jì)師最終需要解決自我改善問題。
自我改善符合AGI
在當(dāng)前的AI系統(tǒng)中已經(jīng)存在早期的自我改進(jìn)形式。“在正常的機(jī)器學(xué)習(xí)過程中會(huì)發(fā)生一種自我改善,”庫馬爾解釋說。“即,該系統(tǒng)在其培訓(xùn)過程中能夠很好地執(zhí)行任務(wù)或一系列任務(wù)。”
然而,Kumar斷言他會(huì)將這種形式的機(jī)器學(xué)習(xí)與真正的自我改進(jìn)區(qū)分開來,因?yàn)橄到y(tǒng)無法從根本上改變自己的設(shè)計(jì),成為新的東西。為了實(shí)現(xiàn)顯著改進(jìn) - 包含新技能,工具或創(chuàng)建更高級(jí)AI代理的改進(jìn) - 當(dāng)前的AI系統(tǒng)需要人為他們提供新代碼和新的訓(xùn)練算法等。
然而,理論上可以創(chuàng)建一個(gè)能夠真正自我改進(jìn)的AI系統(tǒng),Kumar說這種自我改進(jìn)的機(jī)器是AGI更合理的途徑之一。
研究人員認(rèn)為,自我改進(jìn)的機(jī)器最終可能導(dǎo)致AGI,因?yàn)檫@個(gè)過程被稱為“遞歸自我改進(jìn)”?;舅枷胧?,隨著人工智能系統(tǒng)繼續(xù)使用遞歸自我改進(jìn)使自己變得更聰明,它會(huì)越來越好地使自己變得更聰明。這將迅速導(dǎo)致其智力的指數(shù)增長,并因此最終可能導(dǎo)致AGI。
庫馬爾說,這種情況完全合理,并解釋說,“為了實(shí)現(xiàn)這一目標(biāo),我們需要一些幾乎沒有爭議的假設(shè):理論上存在這種高度稱職的代理人,并且可以通過一系列局部改進(jìn)找到它們。”在這種程度上,遞歸自我提升是一個(gè)概念,它是我們?nèi)绾螐慕裉斓闹械戎悄軝C(jī)器到超智能AGI的一些理論的核心。然而,庫馬爾澄清說,這不是AI超級(jí)智能的唯一潛在途徑。
人類可以通過各種方法發(fā)現(xiàn)如何建立高度勝任的AGI系統(tǒng)。這可能是“通過擴(kuò)展現(xiàn)有的機(jī)器學(xué)習(xí)方法,例如,使用更快的硬件?;蛘呖梢酝ㄟ^在表征學(xué)習(xí),轉(zhuǎn)移學(xué)習(xí),基于模型的強(qiáng)化學(xué)習(xí)或其他方向上進(jìn)行漸進(jìn)的研究進(jìn)展來實(shí)現(xiàn)。例如,我們可能在腦部掃描和仿真方面取得足夠的進(jìn)展,以復(fù)制和加速特定人類的智能,“Kumar解釋道。
然而,他也很快澄清遞歸自我改善是AGI的先天特征。“即使重復(fù)自我提高是沒有必要制定游刃有余的人工坐席放在首位,明確自我完善將仍然有可能對(duì)那些代理商,”庫馬爾說。
因此,雖然研究人員可能會(huì)發(fā)現(xiàn)AGI的途徑不涉及遞歸的自我改善,但它仍然是需要認(rèn)真研究的人工智能的屬性。
自我改善AI的安全性
當(dāng)系統(tǒng)開始自我修改時(shí),我們必須能夠相信所有修改都是安全的。這意味著我們需要了解所有可能的修改。但是,如果沒有人能夠提前預(yù)測(cè)修改是什么,我們?cè)鯓硬拍艽_保修改是安全的?
庫馬爾指出,這個(gè)問題有兩個(gè)明顯的解決方案。第一種選擇是限制系統(tǒng)生產(chǎn)其他AI代理的能力。然而,正如庫馬爾簡潔地總結(jié)的那樣,“我們不想通過禁止自我改善來解決安全的自我改善問題!”
因此,第二種選擇是僅允許被認(rèn)為足夠安全的有限形式的自我改進(jìn),例如軟件更新或處理器和內(nèi)存升級(jí)。然而,庫馬爾解釋說,審查這些形式的自我改善是安全和不安全的仍然非常復(fù)雜。事實(shí)上,他說,防止一種特定類型的修改的構(gòu)建是如此復(fù)雜,以至于“需要深入了解自我改進(jìn)所涉及的內(nèi)容,這可能足以解決完全安全的自我改善問題”。
值得注意的是,即使新的進(jìn)步只允許有限形式的自我改善,庫馬爾也表示這不是一條可以采取的道路,因?yàn)樗乇芰宋覀兿胍鉀Q的自我改善的核心問題。“我們希望建立一個(gè)可以建立另一個(gè)AI代理的代理,其代理能力如此之大,以至于我們無法提前直接推斷其安全性......我們希望委托一些關(guān)于安全的理由,并且能夠相信父母這種推理是否正確,“他斷言。
最終,這是一個(gè)極其復(fù)雜的問題,仍處于最新生階段。因此,目前的大部分工作都集中在測(cè)試各種技術(shù)解決方案,并看到可以取得進(jìn)展的地方。“對(duì)于這些問題,仍然存在很多概念上的混淆,因此一些最有用的工作涉及在各種環(huán)境中嘗試不同的概念,并觀察結(jié)果是否連貫,”Kumar解釋說。
無論最終解決方案是什么,Kumar斷言成功克服自我改善的問題取決于AI研究人員密切合作。“[測(cè)試這個(gè)問題的解決方案]的關(guān)鍵是明確假設(shè),并且為了向其他人解釋,明確與我們最終關(guān)心的現(xiàn)實(shí)世界安全AI問題的聯(lián)系。”
在涉及人工智能時(shí),經(jīng)常會(huì)出現(xiàn)關(guān)于什么構(gòu)成“安全”和“不安全”行為的爭論。作為拉瑪納庫馬爾,在AGI安全研究員DeepMind,筆記,術(shù)語是主觀的,“只能相對(duì)于AI系統(tǒng)的使用者和受益者的值來定義。”
幸運(yùn)的是,在面對(duì)與創(chuàng)建安全AI代理相關(guān)的技術(shù)問題時(shí),這些問題大多可以回避,因?yàn)檫@些問題與識(shí)別正確或道德適當(dāng)?shù)膯栴}無關(guān)。相反,從技術(shù)角度來看,術(shù)語“安全”最好定義為一種AI代理,它始終采取導(dǎo)致預(yù)期結(jié)果的行動(dòng),而不管這些預(yù)期結(jié)果如何。
在這方面,Kumar解釋說,在創(chuàng)建一個(gè)負(fù)責(zé)改進(jìn)自身的AI代理時(shí),“構(gòu)建安全代理的技術(shù)問題在很大程度上獨(dú)立于'安全'意味著什么,因?yàn)閱栴}的很大一部分是如何建立一個(gè)能夠可靠地做某事的代理人,無論那是什么東西,以這種方式繼續(xù)工作,即使所考慮的代理人越來越有能力。“
簡而言之,制作一個(gè)“安全”的AI代理商不應(yīng)該與制定“道德”AI代理商混為一談。各自的條款都在討論不同的事情。
一般而言,回避道德的安全定義使得AI技術(shù)工作變得更加容易它允許研究在道德問題的辯論演變的同時(shí)推進(jìn)。例如,優(yōu)步的自動(dòng)駕駛汽車已經(jīng)上街,盡管我們尚未就是否應(yīng)該保護(hù)駕駛員或行人的框架達(dá)成一致。
然而,當(dāng)涉及到創(chuàng)建一個(gè)能夠自我改進(jìn)的強(qiáng)大而安全的AI系統(tǒng)時(shí),技術(shù)工作變得更加困難,并且該領(lǐng)域的研究仍處于最新生階段。這主要是因?yàn)槲覀儾恢惶幚硪粋€(gè)AI代理;我們正在處理幾代未來的自我改善代理人。
庫馬爾澄清說,“當(dāng)一個(gè)AI代理人自我提升時(shí),可以將情況視為涉及兩個(gè)代理人:'種子'或'父母'代理人和父母自我修改的'子代理人'......及其總數(shù)對(duì)世界的影響將包括其后代所采取的行動(dòng)的影響。“因此,為了知道我們已經(jīng)建立了一個(gè)安全的AI代理人,我們需要了解可能來自第一個(gè)代理人的所有可能的子代理人。
并且驗(yàn)證所有未來AI代理商的安全性歸結(jié)為解決稱為“自我引用推理”的問題。
理解自我指涉問題
通過根據(jù)其兩個(gè)主要組成部分定義術(shù)語,最容易理解自引用推理的問題:自引用和推理。
自我引用:指某人(或某些東西,如計(jì)算機(jī)程序或書籍)引用自身的實(shí)例。任何提到自己的人或事物都被稱為“自我指涉”。
推理:在人工智能系統(tǒng)中,推理是一個(gè)過程,通過這個(gè)過程,代理人建立關(guān)于世界的“信念”,例如特定行為是否安全或特定推理系統(tǒng)是否合理。“良好的信念”是基于現(xiàn)有證據(jù)的合理或可信的信念。使用術(shù)語“信念”而不是“知識(shí)”,因?yàn)榇砣苏J(rèn)為的事物可能不是事實(shí)真實(shí)的并且可能隨著時(shí)間而改變。
因此,與AI相關(guān),術(shù)語“自引用推理”指的是使用推理過程來建立關(guān)于同一推理過程的信念的代理。因此,當(dāng)涉及到自我改進(jìn)時(shí),“自引用問題”如下:代理人正在使用自己的推理系統(tǒng)來確定其推理系統(tǒng)的未來版本是否安全。
為了以另一種方式解釋問題,Kumar指出,如果AI代理人創(chuàng)建了一個(gè)兒童代理來幫助它實(shí)現(xiàn)目標(biāo),那么在使用它之前,它會(huì)想要建立一些關(guān)于孩子安全的信念。這必然涉及通過辯論孩子的推理過程是好的來證明對(duì)孩子的信念。然而,孩子的推理過程可能與原始代理人的推理過程相似甚至延伸。最終,AI系統(tǒng)無法使用自己的推理來確定其推理是否良好。
從技術(shù)角度來看,問題歸結(jié)為Godel的第二個(gè)不完備性定理,Kumar解釋說,“這表明沒有足夠強(qiáng)大的證明系統(tǒng)可以證明其自身的一致性,因此代理人很難證明他們的繼承者已被證明是安全的行為是事實(shí)上,安全。“
調(diào)查解決方案
迄今為止,已經(jīng)提出了針對(duì)該問題的若干部分解決方案;但是,我們目前的軟件沒有足夠的自我參照推理支持,使解決方案易于實(shí)施和研究。因此,為了提高我們對(duì)實(shí)施自我推理推理的挑戰(zhàn)的理解,Kumar和他的團(tuán)隊(duì)旨在使用已經(jīng)提出的一些部分解決方案來實(shí)現(xiàn)AI代理的玩具模型。
具體而言,他們研究了在具體環(huán)境(特別是Botworld)中實(shí)施自我參考問題的一種特定方法的可行性,其中可以檢查所有細(xì)節(jié)。選擇的方法是模型多態(tài)性。模型多態(tài)性不需要證明操作對(duì)所有未來用例都是安全的,而是僅需要對(duì)從證明系統(tǒng)中抽象出來的任意數(shù)量的步驟(或后續(xù)操作)證明是安全的。
Kumar指出,總體目標(biāo)最終是“了解理論與工作實(shí)現(xiàn)之間的差距,并加深對(duì)模型多態(tài)性方法的理解。”這可以通過在HOL中創(chuàng)建一個(gè)證明定理來實(shí)現(xiàn)(更高階描述情況的邏輯)定理證明者。
為了簡化這一點(diǎn),實(shí)質(zhì)上,定理證明是計(jì)算機(jī)程序,它們有助于數(shù)學(xué)正確性證明的發(fā)展。這些數(shù)學(xué)正確性證明是該領(lǐng)域中最高的安全標(biāo)準(zhǔn),表明計(jì)算機(jī)系統(tǒng)總是為任何給定的輸入產(chǎn)生正確的輸出(或響應(yīng))。定理證明通過使用形式化的數(shù)學(xué)方法來證明或反駁系統(tǒng)底層控制算法的“正確性”,從而創(chuàng)建了這樣的證明。特別是HOL定理證明是一系列交互式定理證明系統(tǒng),有助于高階邏輯理論的構(gòu)建。高階邏輯支持對(duì)函數(shù),集合,集合等的量化,比其他邏輯更具表現(xiàn)力,允許用戶以高抽象級(jí)別編寫正式語句。
回想起來,庫馬爾說,試圖在HOL定理證明器中證明關(guān)于自我反思的多個(gè)步驟的定理是一項(xiàng)艱巨的任務(wù)。盡管如此,他斷言,在解決自我指涉問題時(shí),團(tuán)隊(duì)向前邁進(jìn)了幾步,并指出他們建立了“許多必要的基礎(chǔ)設(shè)施,并更好地了解了如何證明它以及它需要什么。將基于模型多態(tài)性構(gòu)建原型代理。“
Kumar補(bǔ)充說,MIRI(機(jī)器智能研究所)的邏輯電感器也可以提供令人滿意的正式自引用推理版本,從而為自引用問題提供解決方案。
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。