2016-2022 All Rights Reserved.平安財經網.復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網 版權歸原作者所有。
小編發(fā)現(xiàn)不少朋友對于Siri與Alexa和Google Assistant語音技術的研究表明培訓數(shù)據存在偏見 這方面的信息都比較感興趣,小編就針對 Siri與Alexa和Google Assistant語音技術的研究表明培訓數(shù)據存在偏見整理了一些相關方面的信息在這里分享給大家。
一項新的研究發(fā)現(xiàn),來自大型科??技公司的語音識別系統(tǒng)很難理解黑人所說的單詞,而很難理解。
這些類型的系統(tǒng)通常用于數(shù)字助理(如Siri)以及諸如隱藏式字幕和免提控件之類的工具。但是,與任何機器學習系統(tǒng)一樣,其準確性僅與數(shù)據集一樣好。
斯坦福大學在《科學院院刊》上發(fā)表的一項研究顯示,由蘋果,谷歌和Facebook等公司開發(fā)的自動語音識別(ASR)系統(tǒng)在抄錄非裔人的語音時,出錯率往往高于。
研究人員進行了115次人工轉錄訪談,并將其與語音識別工具進行的訪談進行了比較。在這些對話中,有73次與黑人演講者進行對話,而42次與演講者進行對話。
研究小組發(fā)現(xiàn),ASR系統(tǒng)轉錄黑色語音時,“平均單詞錯誤率”幾乎翻了一番(35%),而轉錄白色語音時為19%。
為了排除詞匯和方言的差異,研究人員還按性別和年齡匹配了語音,并讓講者說出相同的單詞。即使這樣,他們發(fā)現(xiàn)黑色揚聲器的錯誤率幾乎是白色揚聲器的兩倍。
“鑒于短語本身具有相同的文本,這些結果表明,ASR表現(xiàn)中的種族差異與和黑人講話者的發(fā)音和韻律差異有關,包括節(jié)奏,音調,音節(jié)重音,元音持續(xù)時間和韻律差異。”研究讀。
盡管男性和女性之間存在相似的差異,但非裔人男性的錯誤率往往高于女性。對于大量使用非裔白話英語(AAVE)的演講者來說,準確性是最差的。
當然,機器學習系統(tǒng)不能像人們一樣受到偏見。但是,如果他們所訓練的數(shù)據缺乏多樣性,那么它們的準確性和性能將得到體現(xiàn)。該研究得出的結論是,主要問題似乎是在訓練機器學習模型時缺少來自黑揚聲器的音頻數(shù)據。
值得注意的是,研究人員使用了這是一款利用Apple免費語音識別技術定制設計的iOS應用,尚不清楚Siri是否使用該精確的機器學習模型。該測試也在去年春季進行,因此此后該模型可能已更改。
雖然研究專門針對黑白揚聲器,但數(shù)字助理也很難理解其他口音?!度A盛頓郵報》
(The Washington Post) 在 2018年發(fā)表的一篇報道發(fā)現(xiàn),像Alexa或Google Assistant這樣的數(shù)字助理很難理解具有各種口音的人。通常,對大多數(shù)科技巨頭所在的西海岸的演講者最了解。
而且在2019年,聯(lián)邦研究人員還發(fā)現(xiàn)了種族偏見的廣泛證據 在將近200種面部識別算法中,缺乏數(shù)據集的多樣性會在所有類型的機器學習平臺中引起類似的問題。
2016-2022 All Rights Reserved.平安財經網.復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網 版權歸原作者所有。