您的位置: 首頁 >互聯(lián)網 >

調查發(fā)現您的AI很容易被黑客入侵

2022-07-16 23:29:21 編輯:濮陽弘 來源:
導讀 人工智能正逐漸成為主流,并嵌入到越來越多的日常生活應用中。從醫(yī)療保健,金融到交通運輸和能源,機遇無限。每個部門都充滿了節(jié)省時間...

人工智能正逐漸成為主流,并嵌入到越來越多的日常生活應用中。從醫(yī)療保健,金融到交通運輸和能源,機遇無限。每個部門都充滿了節(jié)省時間,金錢和其他資源的機會,而AI提供了許多解決方案。

然而,與AI安全相關的關鍵問題仍未得到解答。當AI安全擴展到企業(yè)時,IT組織如何管理AI安全,您是否具有審計功能來回答監(jiān)管機構的問題?

對于數據科學家,您如何確保自己的AI模型隨時間推移保持可靠?對于開發(fā)人員,您如何將常規(guī)DevOps流程擴展到支持AI的軟件開發(fā)?提出正確的安全問題必須是您擴展AI策略的基本組成部分。

組織剛剛投資于管理和監(jiān)視其AI的工具,以實現企業(yè)規(guī)模,從而導致了適合其現有技術堆棧的MLOps和ModelOps工具市場的增長。

但是,這反映了更廣泛的趨勢-他們沒有像系統(tǒng)或應用程序開發(fā)那樣對AI開發(fā)和部署過程應用相同的嚴格性。人工智能安全也是如此—因為許多組織仍處在解決其人工智能管理的困境中,他們將安全優(yōu)先事項推到了線下,這只會導致更大的問題。

在AI部署方面存在很多風險,安全性不是事后才想到的-在企業(yè)AI部署開始之初,解決安全性問題就顯得更為必要。

全方位攻擊

支持AI的系統(tǒng)的現實情況是,攻擊者的攻擊面越來越大,可供惡意行為者利用。幸運的是,MLOps工具可以幫助您解決組織內部正在使用的AI的訪問控制,并且其中許多工具還可以幫助提高API安全性和可追溯性。同時,還有其他類型的威脅需要解決,許多組織尚未考慮如何將這些威脅納入其整體安全狀況或響應中。

對抗性AI是指機器學習的一個特定分支,致力于通過創(chuàng)建錯誤信息或降低模型性能來對AI模型性能產生負面影響。如今,不良行為者可以將不良或“中毒”的數據饋送到模型中以影響輸出,或者通過反向工程模型的權重以影響其輸出。


免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經網.復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網 版權歸原作者所有。