您的位置: 首頁 >科技 >

為防止AI“失控” OpenAI宣布重大措施

2023-07-07 14:27:01 編輯:成春健 來源:
導讀 在美國當?shù)貢r間2023年的7月5日chat GPT人工智能語言大模型的開發(fā)商open AI公司正式宣布公司將要投入部分的資源,用來組建一支新的研發(fā)團...

在美國當?shù)貢r間2023年的7月5日chat GPT人工智能語言大模型的開發(fā)商open AI公司正式宣布公司將要投入部分的資源,用來組建一支新的研發(fā)團隊,為了防止人工智能失去控制,確保人工智能對于人類社會沒有任何威脅,讓人工智能技術(shù)可以隨時受到監(jiān)督。

OpenAI聯(lián)合創(chuàng)始人伊利亞·蘇斯克維爾在當?shù)貢r間7月5日發(fā)表的文章中主要是超級人工智能在未來的發(fā)展前景,已經(jīng)遠遠超乎了目前的預料,如果沒有受到一定管制的話,那么很有可能會對人類社會造成一定的威脅,嚴重的情況下人類都可能因此滅絕,截止到目前為止,公司還沒有一套完善的措施來徹底解決人工智能技術(shù)。另外他預計比人類智商更高的人工智能在2030年之前就有可能被研發(fā)出來,現(xiàn)在社會各界的科技企業(yè)都應該共同合作,在此之前研發(fā)出更加嚴格的監(jiān)管措施,來控制這些超級人工智能。

Open AI公司表示在未來4年的時間內(nèi),公司所獲得的20%的算力都會用在解決人工智能失控的問題中,另外公司還會特別成立一支研發(fā)團隊專門負責監(jiān)管人工智能,公司將這支團隊稱之為超級一致性團隊,目的就是為了打造一個能夠隨時監(jiān)管人工智能技術(shù)的研究人員團隊,再加上公司強大的算力基礎(chǔ)進一步擴大監(jiān)管的范圍。

AI安全擁護者康納·萊希表示open AI公司所提出的監(jiān)管措施存在著一定的漏洞,因為現(xiàn)在已經(jīng)達到人類水平的人工智能技術(shù)很有可能在沒有研發(fā)出完善的監(jiān)管措施之前,就已經(jīng)對人類社會造成了一定的威脅和破壞,所以在打造人類水平的人工智能之前,就必須要解決一致性的問題,這樣才能夠徹底將人工智能控制。


免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ   備案號:

本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。

郵箱:toplearningteam#gmail.com (請將#換成@)