您的位置: 首頁 >科技 >

區(qū)塊鏈協(xié)議,可實現(xiàn)更可靠的邊緣計算

2022-08-27 04:11:21 編輯:舒先婭 來源:
導讀 舊金山-Google首席執(zhí)行官Sundar Pichai在12月12日星期三發(fā)布的一次采訪中表示,對人工智能(AI)的擔憂是正確的,但科技行業(yè)已經(jīng)能夠應對自...

舊金山-Google首席執(zhí)行官Sundar Pichai在12月12日星期三發(fā)布的一次采訪中表示,對人工智能(AI)的擔憂是正確的,但科技行業(yè)已經(jīng)能夠應對自我監(jiān)管的挑戰(zhàn)。

Pichai在接受《華盛頓郵報》采訪時說,建立AI的科技公司應在流程的早期考慮道德,以使具有“自己的代理機構”的某些人工智能不會傷害人們。

Pichai說:“我認為技術必須意識到它無法構建,然后對其進行修復。”“我認為那是行不通的。”

這家總部位于加州的互聯(lián)網(wǎng)巨頭是AI開發(fā)的領導者,與亞馬遜,蘋果,微軟,IBM和Facebook等巨頭在智能軟件競賽中展開競爭。

Pichai說,對AI有害使用的擔憂“非常合法”,但應該信任該行業(yè)來規(guī)范AI的使用。

他說:“早期對技術進行監(jiān)管很困難,但我確實認為公司應該自我監(jiān)管。”

“這就是為什么我們努力闡明一套AI原則的原因。我們可能沒有正確地完成所有工作,但是我們認為開始對話很重要。”

谷歌在6月發(fā)布了一系列內(nèi)部AI原則,第一個是AI應該對社會有益。

皮查伊在發(fā)表了有關原理的備忘錄中說:“我們認識到,這種強大的技術對其使用提出了同樣強大的問題。”

“作為AI的領導者,我們深有責任做到這一點。”

谷歌發(fā)誓不會設計或部署用于武器,超出國際規(guī)范的監(jiān)視或旨在侵犯人權的技術的人工智能。

該公司指出,它將繼續(xù)與軍方或政府在網(wǎng)絡安全,培訓,征聘,醫(yī)療保健和搜索救援方面合作。

人工智能已經(jīng)用于識別照片中的人物,過濾來自在線平臺的有害內(nèi)容以及使汽車自駕游。

人工智能功能的不斷增強引發(fā)了人們的爭論,即像科幻小說中所描繪的那樣,能夠自己思考的計算機是否會幫助治愈世界上的疾病或改變?nèi)祟?/p>


免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權歸原作者所有。