您的位置: 首頁 >滾動要聞 >

GPT-4發(fā)布前,OpenAI曾雇各行專家開展“對抗性測試”,為打消人們疑慮

2023-04-18 11:39:15 編輯:東方菡倩 來源:
導讀 北京時間4月17日最新消息報道,人工智能初創(chuàng)企業(yè)open AI在發(fā)布大型語言模型之前,曾雇傭各行業(yè)的專家組成團隊,進行對抗性測試,探究該模...

北京時間4月17日最新消息報道,人工智能初創(chuàng)企業(yè)open AI在發(fā)布大型語言模型之前,曾雇傭各行業(yè)的專家組成團隊,進行對抗性測試,探究該模型未來所出現(xiàn)的問題,并測試該人工智能會如何作出回應。

作為羅切斯特大學的化學工程教授,懷特是被聘用的學者和專家之一,在6個月的探索中,所有的成員對于該模型進行了對抗性測試,看是否能夠攻破GPT-4。

據(jù)他本人表示,他們所使用的GPS-4可以提出一種作為化學毒劑的化合物,還引入諸多科學論文和化學商品的名稱,結(jié)果人工智能聊天機器人甚至找到了這種化學藥劑的制作方法和來歷。

為了打消人們在社會上對于人工智能潛在以危險的擔心,這個團隊就是為了提出更多具備探索性的問題,解決更多的危險問題,測試人工智能在社會上會如何作出回應。

據(jù)爆料,該團隊來自于各行各業(yè),有學者老師,律師以及風險分析師和安全研究員,大部分員工的工作地點都在美國和歐洲。

在幾個月的時間中,該團隊中的每一個成員都會花費10~40個小時來重新測試新模型,有多位員工表示自己的時薪大概在100美元左右,因為大型語言模型的快速發(fā)展,很多成員都擔心該語言模型是否會在日后造成潛在影響,更擔心通過插件和外部感知連接所造成的未知風險。

Open AI公司也非常重視這個人工智能的安全性,在發(fā)布之前會對該插件做出各種測試,隨著越來越多人使用 GPT-4,在未來open AI會定期對于該人工智能模型進行更新,即便如此,GPT-4也有明顯的邊緣化刻板現(xiàn)象,需要完善的地方還有很多。


免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ   備案號:

本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。

郵箱:toplearningteam#gmail.com (請將#換成@)