您的位置: 首頁 >科技 >

Regina Dugan使用人工智能的公司應該考慮最壞的情況

2022-09-01 07:05:21 編輯:魏德文 來源:
導讀 Face book和Google Regina Dugan的前DARPA董事兼秘密臭鼬部門負責人說,公司需要考慮如何使用人工智能技術會出錯,以試圖了解他們工作的...

Face book和Google Regina Dugan的前DARPA董事兼秘密臭鼬部門負責人說,公司需要考慮如何使用人工智能技術會出錯,以試圖了解他們工作的倫理、社會和法律影響。

更具體地說,她建議從事應急技術的技術人員和工程師練習紅色團隊和藍色團隊來想象最好和最壞的情況。 這樣做可以讓你考慮如何減輕負面后果。 這些術語的思考應該在最初的階段進行,以便變化產(chǎn)生長期影響。

杜根在接受三星電子(Samsung Electronics)總裁兼首席戰(zhàn)略官楊素恩(Young Sohn)的采訪時表示:“我認為在任何時候都不可能知道所有意想不到的后果。 “可能發(fā)生的壞事是什么? 然后,我們從總體上看待這些事情,并就如何前進作出決定,即使在某些情況下,我們有責任削減一些最積極的結果,以消除最消極的結果。 這就是平衡行動。

Dugan和Sohn上周在舊金山舉行的三星首席執(zhí)行官峰會上發(fā)表了講話,這次峰會為期一天,字幕為“擁有人工智能的更美好世界”。發(fā)言者還包括前谷歌和百度高管AndrewNg,以及像Insitro這樣發(fā)現(xiàn)的Insitro和使用神經(jīng)網(wǎng)絡進行網(wǎng)絡安全的Deep Instinct等公司。

她比較了人工智能將拯救我們的樂觀情緒,并擔心它將導致90年代人類基因組計劃的出現(xiàn)。 當時,國立衛(wèi)生研究院(National Institutes of Heal th)采取了措施,鼓勵從廣泛的學科中進行持續(xù)的對話和反饋,今天人工智能也應該如此。

她說,同樣重要的是,人們認為自己是正在發(fā)生的事情的積極參與者,而不是旁觀者。

她說:“我認為,有一種傾向是,當我們進入這樣的趨勢線時,未來將會展開,我們將會成為在我們面前展開的未來的被動觀察者,但我從未真正經(jīng)歷過這種情況。 “我們是塑造未來的積極工程師和建筑師,這意味著我們既有責任,也有作用,來弄清楚我們是否在提出正確的問題,以及我們是否在構建這些問題,以便這項技術能夠在我們想要生活的這種世界中傳播。


免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網(wǎng) 版權歸原作者所有。