您的位置: 首頁 >科技 >

我們的辯論教給我們關(guān)于AI和機器人的內(nèi)容

2019-05-16 17:26:25 編輯: 來源:
導(dǎo)讀 今年在SXSW,我們向節(jié)日觀眾展示了極端之戰(zhàn):人工智能主持人辯論。它背后的想法是探索使用AI機器人跟隨我們時代的一些最大問題的對話的可能

今年在SXSW,我們向節(jié)日觀眾展示了“極端之戰(zhàn):人工智能主持人辯論”。它背后的想法是探索使用AI機器人跟隨我們時代的一些最大問題的對話的可能性,并呼吁任何極端思考,絕對主義,高情緒和積極性與消極性。從數(shù)據(jù)保護和隱私到個性化和道德,元扭曲是這些是人工智能本身存在的一些核心爭論。

這個想法首先出現(xiàn)在機構(gòu)內(nèi)部不同的談話中。在Karmarama,我們的口頭禪是“好作品”,我們的客戶工作和文化遵循這一信條。對于這個想法,我們想用技術(shù)做一些有趣的事情并自信地問自己,它有用嗎?它能做的不僅僅是省錢和削減成本嗎?毫無疑問,這些是與新興技術(shù)合作的良好商業(yè)原因,但我們希望進一步發(fā)展。

在SXSW所代表的推動下,我們相當(dāng)容易地討論了辯論的形式:各種主題的融合以及討論它們的各種各樣的人。我們研究了人工智能,因為它是目前存在的最令人興奮和最有前景的技術(shù)之一,而且仍然處于相對的初級階段。

我們想探討是否有可能證明或反駁AI在社會中的用處。因此,我們著手進行一項實驗,探討它是否具有社會積極性。我們研究了人工智能如何在辯論中發(fā)揮作用; 我們與舞臺上的人類主持人合作,賦予其分析,可視化和調(diào)節(jié)辯論的作用。在我之后,團隊決定對機器人進行建模。他們告訴我,本著展示人與機器如何協(xié)同工作的精神,但在你自己接受采訪之前,不要告訴我這不是一點奇怪。

然而,格式并不完全正確。問題在于辯論的二元性質(zhì)。一方贏得了爭論,另一方輸了。我們想要實現(xiàn)的是建設(shè)性對話,所以要做到這一點,小組成員需要從他們不同的觀點出發(fā)。Jon-Bot的工作是幫助他們和觀眾看到不同的觀點,以及他們在觀點上分歧的地方。我們不想使用技術(shù)來強制達成共識,而是幫助雙方找到共同點。

我們自己建造了機器人。我們的出發(fā)點是搜索現(xiàn)有服務(wù)。亞馬遜,微軟和IBM都為不同的任務(wù)提供現(xiàn)成的語音到文本,自然語言處理,機器學(xué)習(xí)和情感分析功能,這適合我們構(gòu)建可以實時分析對話的AI的挑戰(zhàn)在談?wù)摰闹黝}和相關(guān)內(nèi)容,內(nèi)容的廣度,顯示的情感和內(nèi)容的準(zhǔn)確性。在分析辯論者如何相互作用時,我們需要看看他們是在融合還是分歧,以及他們找到共同點的主題。

我們與埃森哲在都柏林碼頭的團隊密切合作,專門研究應(yīng)用智能。他們開始創(chuàng)建一個定制的AI平臺來執(zhí)行所需的任務(wù),與我們的研究和見解團隊密切合作,他們收集了關(guān)于辯論主題的數(shù)據(jù)語料庫。

在我們的實驗開始時,在我們的腦海中,AI就像人一樣,具有廣泛的知識。我們的期望是它能夠理解正在發(fā)生的事情并做出回應(yīng)。這被稱為“一般情報”,但它在AI中并不存在。當(dāng)機器學(xué)習(xí)超越人類的理解時,發(fā)生這種情況的點就是所謂的“奇點”。對于未來學(xué)家來說,這是一個激動人心的幻想,但這就是現(xiàn)在的全部。

對于我們的機器人,我們不得不考慮大刀闊斧。如果我們訓(xùn)練AI來理解關(guān)于社會的辯論的主題,那么實現(xiàn)這一目標(biāo)的最簡單方法是通過模式識別。這導(dǎo)致了進一步的考慮。AI事實可以檢查嗎?它是如何知道什么是真的?它是如何與它認為真實的來源相匹配的事實?你如何識別這些主題?

有一種常見的誤解,你可以將機器學(xué)習(xí)設(shè)置為一項任務(wù),它可以將其排序 - 有點像使用谷歌搜索。例如,要求它在網(wǎng)上搜索關(guān)于數(shù)據(jù)和社會的辯論,并在這些主題中進行自我訓(xùn)練。對于我們使用該技術(shù)的地方來說,這根本不可能。只有當(dāng)人類識別并整理信息然后輸入算法時才有可能。這對許多人來說是一次大規(guī)模的學(xué)習(xí) - 項目花費的大部分時間都是訪問數(shù)據(jù)并組織它,因此機器學(xué)習(xí)可以用它來做些什么。

作為我們構(gòu)建過程的一部分,我們進行了大量的研究,以了解圍繞人工智能和社會的爭論,找到我們用來教育我們機器人的辯論。在眾多主題中,我們探討了一些主題:

人與機器 - 技術(shù)應(yīng)該增強人類。但是媒體和其他壓力團體并不缺乏隨意的恐慌。我們發(fā)現(xiàn)有許多相關(guān)的機構(gòu),政府和組織,并且正在為這個重要問題投入高質(zhì)量的研究工作

濫用商業(yè)機構(gòu)的權(quán)力 - 如果期望對AI的投資從長遠來看會產(chǎn)生商業(yè)利益,那對社會是好還是壞?那怎么控制呢?法規(guī)或法律在何處進入?另一方面,隨著人們對政府的信任度越來越低,大企業(yè)在事實上的作用就是善用他們的權(quán)力。這超越了“綠色環(huán)保” - 看看聯(lián)合利華的可持續(xù)生活品牌,這是一個通過做好事來看到增長的企業(yè)的一個很好的例子

對排斥和偏見的恐懼 - 誰在訓(xùn)練人工智能,他們是否有能力不偏不倚?你如何讓AI公平?亞馬遜不得不拔出插頭去年對有偏見的女性申請人招聘工具

失去隱私 - 要真正智能化,機器學(xué)習(xí)需要知道一切 - 那么你如何解決這個問題呢?是通過匿名數(shù)據(jù)嗎?

人力資源機構(gòu) - 機器學(xué)習(xí)越多,你就越能剝奪人類的權(quán)力,因為他們越來越依賴技術(shù)

我們還研究了解決方案領(lǐng)域 - 從人類合作到道德政策和民主保障。很明顯,教育將發(fā)揮核心作用。每個人都需要了解技術(shù)及其潛力,以便他們了解相關(guān)風(fēng)險。我們學(xué)到的最有前途的解決方案之一是開發(fā)機器學(xué)習(xí)的協(xié)作流程。以醫(yī)療保健為例,您可以通過社區(qū)優(yōu)化該領(lǐng)域的機器學(xué)習(xí):邀請社區(qū)成員幫助進行檢查和平衡以消除偏見。

到了表演的時候,我們從機器人那里學(xué)到了很多東西。在辯論之后,它聽取了這些主題的有趣工作。辯論者發(fā)現(xiàn)的是,當(dāng)你處于討論的核心時,你并不總是意識到你正在插入多個元主題。我們使用語音到文本功能實時轉(zhuǎn)錄辯論,AI從中分析了主題并突出了主題領(lǐng)域。我們還訓(xùn)練AI識別表達說話者情緒的短語和單詞 - 例如,他們是否感到高興,震驚或生氣。它還指出了任何可疑或不正確的事實; 這種效果令人尷尬,因為它對我們的辯手來說很有教育意義。

我們的研究向我們展示了圍繞這項技術(shù)的討論正朝著同一方向發(fā)展:走向合作 - 這是一種令人放心的想法。有很多倡議使用人工智能,例如Colorintech關(guān)注包含偏見和ProPublica 對 COMPAS 偏見的調(diào)查。但是我們通過像我們這樣的項目來理解的是,這些應(yīng)用需要展示更多的解決方案并提出難題,比如我們?nèi)绾螢樯鐣龀鲐暙I。只有這樣,我們才能加深知識,理解我們的極限。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。