2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
但由于每天都有大量的帖子出現(xiàn)在這些網(wǎng)站上,即便是這種人與機(jī)器的結(jié)合也很難跟上。人工智能要真正檢測(cè)出網(wǎng)絡(luò)上的仇恨言論或暴力行為還有很長(zhǎng)的路要走。
機(jī)器學(xué)習(xí), 科技公司依靠人工智能技術(shù)發(fā)現(xiàn)令人討厭的內(nèi)容,找出如何在大量數(shù)據(jù)中發(fā)現(xiàn)模式;它可以識(shí)別特定語(yǔ)境中的攻擊性語(yǔ)言、視頻或圖片。這是因?yàn)檫@些帖子遵循人工智能可以訓(xùn)練的模式。例如,如果你給一個(gè)機(jī)器學(xué)習(xí)算法大量的槍支圖像或書(shū)面的宗教誹謗,它可以學(xué)會(huì)在其他圖像和文本中發(fā)現(xiàn)這些東西。
然而 在,人工智能并不擅長(zhǎng)理解一些事情,比如誰(shuí)在寫(xiě)作或上傳圖片,或者在周?chē)纳鐣?huì)或文化環(huán)境中什么可能是重要的。
俄勒岡大學(xué)(University of Oregon)研究人工智能和機(jī)器學(xué)習(xí)的副教授丹尼爾·洛德(Daniel Lowd)說(shuō),尤其是涉及到煽動(dòng)暴力的言論時(shí),語(yǔ)境“非常重要”。
評(píng)論可能表面上聽(tīng)起來(lái)很暴力,但實(shí)際上是對(duì)暴力的諷刺?;蛘撸鼈兟?tīng)起來(lái)可能無(wú)害,但對(duì)于了解最近的新聞或創(chuàng)建它們的當(dāng)?shù)匚幕娜藖?lái)說(shuō),它們是危險(xiǎn)的。
“幾個(gè)字的影響很大程度上取決于文化背景,”洛德說(shuō)。他指出,即使是人類(lèi)版主也很難在社交網(wǎng)絡(luò)上分析這一點(diǎn)。
識(shí)別暴力
即使暴力出現(xiàn)在視頻中,它也不總是那么簡(jiǎn)單,人類(lèi)——更不用說(shuō)訓(xùn)練有素的機(jī)器——能夠發(fā)現(xiàn)它或決定如何處理它。武器可能在視頻或照片中看不到,或者看起來(lái)暴力的東西實(shí)際上可能是模擬的。
此外,燈光或背景圖像等因素也會(huì)影響電腦。
加州大學(xué)洛杉磯分校(UCLA)研究?jī)?nèi)容適度和社交媒體的助理教授莎拉·t·羅伯茨(Sarah T. Roberts)說(shuō),尤其在計(jì)算上,人工智能很難發(fā)現(xiàn)視頻中的暴力行為。
她說(shuō):“這種媒體的復(fù)雜性,以及諸如每秒多少幀,以及如何將記錄的內(nèi)容賦予意義之類(lèi)的細(xì)節(jié),都是非常困難的?!?/p>
她說(shuō),使用人工智能從一個(gè)視頻中收集意義并不簡(jiǎn)單。它是通過(guò)社交網(wǎng)絡(luò)每天觀看的大量視頻來(lái)做到這一點(diǎn)的。例如,在YouTube上,用戶(hù)上傳 每分鐘超過(guò)400小時(shí)的視頻——每天超過(guò)576,000小時(shí)。
“這些公司交易的是數(shù)十萬(wàn)小時(shí)的視頻,”羅伯茨說(shuō)?!斑@實(shí)際上是他們懇求的,也是他們想要的?!?/p>
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。