您的位置: 首頁 >科技 >

人類能控制AI嗎?

2022-09-04 19:49:01 編輯:伊強文 來源:
導讀 人性化的人工智能通信:物聯(lián)網(wǎng)設備聽起來更好剛剛在紐約結束的奧萊利人工智能大會上,觀眾中有一種有趣的融合。除了通常的獨角獸(即數(shù)據(jù)科學...

人性化的人工智能通信:物聯(lián)網(wǎng)設備聽起來更好

剛剛在紐約結束的奧萊利人工智能大會上,觀眾中有一種有趣的融合。除了通常的“獨角獸”(即數(shù)據(jù)科學家)群體之外,還有一個規(guī)模足夠大的管理層群體,足以填滿高管會議的會場。隨著人工智能充斥著媒體和大眾,你必須生活在巖石下才能不熟悉人工智能的話題,即使這些定義和機器合成的邏輯一樣模糊。高管們想知道這個新的董事會流行語是關于什么的。

《麻省理工斯隆管理評論》(MIT Sloan Management Review)執(zhí)行主編戴維•克龍(David Kiron) 2017年對3000名高管進行了研究,結果顯示,高管們肯定聽說過人工智能,但他們的組織仍處于實施人工智能的早期階段。只有23%的公司真正部署了人工智能,而5%以上的公司已經(jīng)開始在他們的企業(yè)中嵌入人工智能。房間里有一些不同意見,認為調(diào)查可能抽樣不足,因為高管可能與人工智能領域的開創(chuàng)者沒有密切接觸。但麥肯錫(McKinsey)去年進行的一項規(guī)模類似的3000份樣本顯示,只有20%的公司使用人工智能相關技術,其中約12%的案例被商業(yè)采用。

成功并不難找。富國(Wells Fargo)超越了聊天機器人,利用人工智能來改善欺詐檢測,并為客戶體驗添加上下文。谷歌發(fā)現(xiàn),建立一個跟蹤G套件試用版使用情況的ML模型,可以使他們在最短兩天內(nèi)預測誰可能在45天的免費試用結束后成為付費用戶??悼ㄋ固厥褂蒙疃葘W習來提供更多的上下文服務,同時它還跟蹤客戶設備的工作狀態(tài)。

但是,當我們在成功的故事和方法論的深究中跋涉時,我們想知道人類如何才能掌握這種新發(fā)現(xiàn)的力量。雖然分析已經(jīng)擴展了我們獲取洞見的能力,但人類仍然在如何解釋數(shù)據(jù)上做出決定。有了人工智能,這一負擔得以分擔。我們注意到幾點:首先是對數(shù)據(jù)的基本信念——數(shù)據(jù)越多,機器學習或深度學習模型就越好。事實上,數(shù)據(jù)爆炸是人工智能從冬天走向春天的因素之一。下一個被問責。

對于人工智能來說,數(shù)據(jù)并不是季節(jié)從冬天變到春天的唯一原因。云計算降低了進入門檻(您不需要購買自己的HPC網(wǎng)格);優(yōu)化硬件(如gpu、TPUs);連通性;開源(你不必重新發(fā)明輪子來設計算法)當然也在發(fā)揮作用。我們看到人工智能被用來幫助從業(yè)者進行人工智能——見證了新一代的非專業(yè)友好服務,如亞馬遜SageMaker,或Oneclick等工具。人工智能,你可能不總是需要數(shù)據(jù)科學家來做人工智能火箭科學的工作。

但令人困擾的問題是,在什么情況下,不斷增長的數(shù)據(jù)量會給人工智能帶來越來越少的回報?在存儲方面,Hadoop社區(qū)已經(jīng)開始處理我們在審查Hadoop 3時提到的擦除編碼問題。正如互聯(lián)網(wǎng)和電子郵件最初并沒有考慮到安全性一樣,在Yahoo、Facebook和其他公司基于已發(fā)布的谷歌研究開發(fā)HDFS時,信息需要生命周期的意識并不是考慮因素之一。

在大會上,我們沒有發(fā)現(xiàn)任何演講者提出“何時數(shù)據(jù)足夠就足夠了”的問題,但斯坦福大學(Stanford University)放射學副教授格雷格•扎哈查克(Greg Zaharchuk)的一場演講暗示,成功的人工智能可能并不總是需要看似無窮無盡的數(shù)據(jù)洪流。在這種情況下,需要優(yōu)化醫(yī)療成像的使用,特別是CT或MRI掃描,保險公司和患者都喜歡盡量減少,因為治療是昂貴的和令人不愉快的。因此,你得到了流向大腦的模糊的CT圖像,這是數(shù)據(jù)缺乏的癥狀。理想情況下,最好是讓病人再做一次掃描,或者做一次更長時間的掃描,但這并不實際:對病人來說,這太不舒服了,保險公司也要花大價錢才能得到一張完美的照片。

扎哈切克的團隊正在研究深度學習的潛力,以減少病人暴露在昂貴或有害的放射成像過程中。他們從一個相當小的數(shù)據(jù)集(約100名患者)著手,進行了將“參考圖像”數(shù)據(jù)與來自MRI、CT和PET掃描的實際患者圖像相結合的測試,發(fā)現(xiàn)使用一組深度學習方法在填補空白方面提供了希望。最重要的是,它不需要在全國范圍內(nèi)收集樣本來獲得可行的結果。

此外,2018年人工智能對企業(yè)的價值將達到1.2萬億美元

至于問責制,期望我們能夠解釋模型的功能及其背后的原理是否現(xiàn)實?我們回顧了SAS的創(chuàng)始人Jim Goodnight博士,他在幾個月前的一次分析師會議上對ML和DL模型的責任表示了擔憂。特別是在使用神經(jīng)網(wǎng)絡的情況下,多個模型可能會協(xié)同工作,建立指揮鏈可能會很有挑戰(zhàn)性,比如確定負責批準或拒絕貸款申請的實際算法或數(shù)據(jù)集。這個問題正在得到更多的關注。如果你正在尋找Netflix推薦一部電影或亞馬遜推薦相關產(chǎn)品背后的邏輯,那么其中的利害關系可能并不重要,但如果涉及到像計劃腦外科手術這樣的重大問題,那就另當別論了。

這是一個社區(qū)仍在努力解決的問題。

劍橋大學(University of Cambridge)機器學習項目教授佐賓·加赫拉馬尼(Zoubin Ghahramani)認為,使用算法可能會涉及法律責任和隱私問題。Kathryn Hume,風險投資家,integration公司產(chǎn)品和戰(zhàn)略副總裁。人工智能是一家為b2c企業(yè)應用人工智能與客戶互動的初創(chuàng)公司,該公司認為,問責制的真正挑戰(zhàn)在于解釋向模型輸入的信息和它們產(chǎn)生的輸出。

“數(shù)據(jù)收集中的盲點可能會導致更大的問題,”她說,并補充說,關注結果(我們是否為正確的目標獲得了正確的結果)可能更貼切。Unity Technologies人工智能和機器學習副總裁丹尼•蘭格(Danny Lange)指出,即便是對于產(chǎn)品推薦等日常功能,解釋模型也很困難。如何解釋這些模型?“也許我們應該從人類心理學中借鑒一些想法,”他大膽地說。


免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網(wǎng) 版權歸原作者所有。