您的位置: 首頁 >科技 >

專家表示沒有任何一項政策可以管理所有人工智能

2022-07-29 16:59:50 編輯:蒲爍辰 來源:
導讀 人工智能無處不在。移動地圖通過交通為我們提供路線,算法現(xiàn)在可以駕駛汽車,虛擬助手可以幫助我們在工作和生活之間平穩(wěn)切換,而智能代碼則...

人工智能無處不在。移動地圖通過交通為我們提供路線,算法現(xiàn)在可以駕駛汽車,虛擬助手可以幫助我們在工作和生活之間平穩(wěn)切換,而智能代碼則可以使我們的下一首新歌呈現(xiàn)。

但是,人工智能也可能被證明是危險的。特斯拉首席執(zhí)行官埃隆·馬斯克(Elon Musk)曾警告說,有偏見,不受監(jiān)督和不受監(jiān)管的AI可能是“我們作為文明面臨的最大風險”。相反,AI專家擔心自動化系統(tǒng)可能會吸收人類程序員的偏見。而且,當將偏見編碼到支持AI的算法中時,將幾乎無法消除。

AI偏見的例子是豐富的:在2015年7月的谷歌照片的AI系統(tǒng)標記黑人大猩猩 ; CNET在2018年3月報道說,亞馬遜和谷歌的智能設備似乎難以理解口音 ; 2018年10月,亞馬遜破壞了以人工智能為動力的工作招聘工具,該工具似乎歧視婦女; 2019年5月,聯(lián)合國教育,科學及文化組織(UNESCO)的一份報告發(fā)現(xiàn),人工智能個人助理可以強化有害的性別定型觀念。

為了更好地理解AI的治理方式,以及如何防止人類的偏見改變我們每天依賴的自動化系統(tǒng),CNET與位于舊金山的Salesforce AI專家Kathy Baxter和Richard Socher進行了交談。Baxter說,調(diào)節(jié)技術(shù)可能具有挑戰(zhàn)性,并且該過程將需要細微差別。

她說,該行業(yè)正在努力開發(fā)“負責任的,值得關(guān)注的,值得關(guān)注的,可以保護人權(quán)的人工智能”。“我們確保[該程序]不侵犯這些人權(quán)。它還必須透明。它必須能夠向最終用戶解釋它在做什么,并為他們提供機會做出明智的選擇。它。”

Baxter說,Salesforce和其他技術(shù)公司正在針對AI數(shù)據(jù)模型中使用的數(shù)據(jù)標準制定跨行業(yè)指南。“我們將顯示模型中使用的因素,例如年齡,種族,性別。如果您使用的是受保護的數(shù)據(jù)類別之一,我們將升旗。


免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。