亚洲一二三四五-亚洲色域网-国产在线麻豆-红桃视频成人-日韩美女久久-无码天堂亚洲国产av-免费看片在线观看-四虎成人影-国产精品视频99-亚洲欧美日韩系列-亚洲天堂伊人-婷婷综合色-欧美精品一区二区三区四区-婷婷综合在线视频-h文在线观看-爱爱视频网站免费-国产精品久久久久影院

你好,游客 登錄 注冊(cè) 搜索
背景:
閱讀新聞

什么是可解釋的人工智能?

[日期:2019-07-12] 來(lái)源: 企業(yè)網(wǎng)D1Net  作者: [字體: ]

可解釋的人工智能意味著人類(lèi)可以理解IT系統(tǒng)做出決定的路徑。人們可以通過(guò)分解這個(gè)概念來(lái)探究人工智能如此重要的原因。

 
雖然人工智能應(yīng)用越來(lái)越廣泛,但關(guān)于人工智能也有一些誤解。有些人采用“黑盒”這個(gè)術(shù)語(yǔ)描述人工智能,認(rèn)為其內(nèi)涵是神秘和不祥的部分,其“X檔案”的內(nèi)容比IT 日常業(yè)務(wù)還要多。
 
然而,像機(jī)器學(xué)習(xí)或深度學(xué)習(xí)這樣的人工智能系統(tǒng),確實(shí)需要人工輸入,然后在沒(méi)有可解釋的場(chǎng)景的情況下產(chǎn)生輸出(或做出決定)。人工智能系統(tǒng)做出決定或采取行動(dòng),人們不一定知道它為什么或如何達(dá)到這個(gè)結(jié)果。人工智能系統(tǒng)就是這么做的,而這就是人工智能的黑盒模型,它確實(shí)很神秘。在某些用例中應(yīng)用很好,而在其他情況下卻不一定。
 
PubNub公司首席技術(shù)官兼聯(lián)合創(chuàng)始人Stephen Blum表示:“對(duì)于像人工智能驅(qū)動(dòng)的聊天機(jī)器人或社交信息的情感分析這樣的小事情,而人工智能系統(tǒng)是否在黑盒中運(yùn)行并不重要。但是對(duì)于人類(lèi)具有巨大影響的用例(例如自動(dòng)駕駛車(chē)輛、飛行導(dǎo)航、無(wú)人機(jī)、軍事應(yīng)用)能夠理解決策過(guò)程是至關(guān)重要的任務(wù)。隨著人們?cè)谌粘I钪性絹?lái)越依賴(lài)人工智能,需要能夠理解其思維過(guò)程,并隨著時(shí)間的推移做出改變和改進(jìn)。”
 
輸入可解釋的人工智能——有時(shí)以縮寫(xiě)詞XAI或類(lèi)似術(shù)語(yǔ)(如可解釋的AI)來(lái)表示。顧名思義,它可以被人類(lèi)解釋和理解,雖然這是一種有點(diǎn)簡(jiǎn)化的方式,是一種可解釋的人工智能。
 
以下是最近的HBR公司分析服務(wù)研究報(bào)告《現(xiàn)實(shí)世界人工智能的執(zhí)行指南》中更明確的定義:“機(jī)器學(xué)習(xí)技術(shù)是一種使人類(lèi)用戶(hù)能夠理解、適當(dāng)信任和有效管理的人工智能。”
 
而包括美國(guó)國(guó)防部高級(jí)研究計(jì)劃署(DARPA)在內(nèi)的多個(gè)組織正在努力解決這個(gè)問(wèn)題。
 
“信任”這個(gè)詞很關(guān)鍵。為此,人工智能專(zhuān)家Blum和其他專(zhuān)家提出了可解釋的人工智能定義,并解釋這一概念對(duì)于從金融服務(wù)到醫(yī)學(xué)等領(lǐng)域的人工智能工作的組織至關(guān)重要的原因。這種背景可以加強(qiáng)組織成員和團(tuán)隊(duì)的理解,并幫助組織中的其他人員理解可解釋的人工智能及其重要性。以下先從定義開(kāi)始。
 
簡(jiǎn)單定義的可解釋人工智能
 
SAS公司執(zhí)行副總裁兼首席信息官Keith Collins說(shuō),“‘可解釋的人工智能’術(shù)語(yǔ)是指人類(lèi)能夠通過(guò)動(dòng)態(tài)生成的圖表或文本描述輕松理解人工智能技術(shù)做出決策的路徑。”
 
PubNub公司首席技術(shù)官和聯(lián)合創(chuàng)始人Stephen Blum說(shuō),“可解釋的人工智能可以等同于數(shù)學(xué)問(wèn)題中的‘展示工作’。所有的人工智能決策過(guò)程和機(jī)器學(xué)習(xí)都不是在黑盒中進(jìn)行的——它是一種透明的服務(wù),具有被人類(lèi)從業(yè)者解剖和理解的能力。”
 
Sutherland公司首席分析官Phani Nagarjuna說(shuō),“可解釋的人工智能是我們可以解釋人工智能的結(jié)果,同時(shí)在人工智能達(dá)到結(jié)果的路徑上能夠清楚地解釋從輸入到結(jié)果。”
 
SPR公司數(shù)據(jù)分析師Andrew Maturo說(shuō),“可解釋的人工智能是一種機(jī)器學(xué)習(xí)或人工智能應(yīng)用,伴隨著易于理解的推理,它如何得出一個(gè)給定的結(jié)論。無(wú)論是通過(guò)先發(fā)制人的設(shè)計(jì)還是回顧性的分析,都在采用新技術(shù)來(lái)降低人工智能的黑盒不透明性。”
 
CognitiveScale公司創(chuàng)始人和首席技術(shù)官M(fèi)att Sanchez說(shuō),“簡(jiǎn)單來(lái)說(shuō),可解釋的人工智能意味著人工智能在其操作中是透明的,這樣人類(lèi)就能夠理解和信任決策。組織必須問(wèn)這個(gè)問(wèn)題——那么能解釋其人工智能是如何產(chǎn)生這種特定的洞察力或決策的嗎?”
 
為什么可解釋的人工智能很重要
 
Sanchez的問(wèn)題引發(fā)了另一個(gè)問(wèn)題:為什么可解釋的人工智能很重要?其原因是多方面的,這可能對(duì)人們、企業(yè)、政府和社會(huì)產(chǎn)生巨大影響。在此考慮一下“信任”這個(gè)詞。
 
IBM Watson物聯(lián)網(wǎng)高級(jí)產(chǎn)品經(jīng)理Heena Purohit指出,人工智能(IBM稱(chēng)之為“增強(qiáng)型智能”)和機(jī)器學(xué)習(xí)已經(jīng)在以復(fù)雜的方式處理大量數(shù)據(jù)方面做得非常出色。但Purohit說(shuō),人工智能和機(jī)器學(xué)習(xí)的目標(biāo)是幫助人們提高工作效率,做出更明智、更快速的決策——如果人們不知道他們?yōu)槭裁匆龀鲞@些決策,這就更加困難了。
 
Purohit說(shuō):“由于人工智能的目的是幫助人們做出更高的決策,當(dāng)用戶(hù)改變行為或根據(jù)人工智能輸出(或)預(yù)測(cè)采取行動(dòng)時(shí),企業(yè)就實(shí)現(xiàn)了人工智能解決方案的真正價(jià)值。但是,為了讓用戶(hù)改變自己的行為,就必須相信系統(tǒng)的建議。當(dāng)用戶(hù)感覺(jué)到有能力并知道人工智能系統(tǒng)如何得出建議(或)輸出時(shí),就會(huì)建立這種信任。”
 
從組織領(lǐng)導(dǎo)的角度來(lái)看,可解釋的人工智能在某種意義上是讓人們信任并購(gòu)買(mǎi)這些新系統(tǒng),以及它們?nèi)绾胃淖內(nèi)藗兊墓ぷ鞣绞健?/div>
 
“看到‘人工智能黑盒’問(wèn)題仍然存在,我現(xiàn)在確保我們的人工智能解決方案是可以解釋的。”Purohit補(bǔ)充說(shuō),“在設(shè)計(jì)人工智能產(chǎn)品以確??梢越忉屓斯ぶ悄軙r(shí),我想問(wèn)的一個(gè)問(wèn)題是:人工智能是否使人類(lèi)容易理解、檢測(cè)和理解其決策過(guò)程?”
 
可解釋的人工智能有助于識(shí)別人工智能偏見(jiàn)和審計(jì)
 
可解釋的人工智能對(duì)于信任和透明度至關(guān)重要的其他領(lǐng)域?qū)⒃絹?lái)越重要,例如任何人工智能偏見(jiàn)可能對(duì)人們產(chǎn)生有害影響的場(chǎng)景。
 
SPR公司的Maturo說(shuō),“盡管這種解釋的任務(wù)很麻煩,但這是一項(xiàng)值得努力的嘗試,通??梢越沂灸P椭械钠?jiàn)。在許多行業(yè)中,這種透明度可能來(lái)自法律、財(cái)政、醫(yī)療或道德義務(wù)。在可能的情況下,模型看起來(lái)越不神奇,它的用戶(hù)就會(huì)越多。”
 
可解釋的人工智能對(duì)于問(wèn)責(zé)制和可審計(jì)性也很重要,它將(或者至少應(yīng)該)仍然存在于組織的人員中,而不是其技術(shù)中。
 
“企業(yè)和個(gè)人總是需要進(jìn)行決定。只是按照算法推薦的做法并不具有說(shuō)服力。”Ness公司數(shù)字工程首席技術(shù)官M(fèi)oshe Kranc說(shuō)。Kranc指出,可解釋的人工智能對(duì)于識(shí)別錯(cuò)誤的結(jié)果是至關(guān)重要的,這些錯(cuò)誤的結(jié)果來(lái)自于諸如有偏見(jiàn)或調(diào)整不當(dāng)?shù)呐嘤?xùn)數(shù)據(jù)和其他問(wèn)題。能夠跟蹤人工智能系統(tǒng)得出不良結(jié)果的路徑可以幫助人們解決潛在問(wèn)題,并防止它們?cè)俅伟l(fā)生。
 
“人工智能技術(shù)并不完美。盡管人工智能的預(yù)測(cè)可能非常準(zhǔn)確,但模型總是有可能出錯(cuò)。”Clara Analytics公司數(shù)據(jù)科學(xué)主管Ji Li說(shuō),“人工智能技術(shù)具有可解釋性,幫助人類(lèi)快速做出基于事實(shí)的決定,但允許人類(lèi)仍能使用他們的判斷力。有了可解釋的人工智能,人工智能將成為一種更有用的技術(shù),因?yàn)槿祟?lèi)并不總是相信或從不相信預(yù)測(cè),但卻不斷幫助改進(jìn)預(yù)測(cè)。”
 
事實(shí)上,可解釋的人工智能最終將使人工智能在商業(yè)環(huán)境和日常生活中變得更有價(jià)值,同時(shí)也防止了不良后果。
 
“可解釋的人工智能對(duì)業(yè)務(wù)很重要,因?yàn)樗鼮槲覀兲峁┝私鉀Q問(wèn)題的新方法,適當(dāng)?shù)財(cái)U(kuò)展流程,并最大限度地減少人為錯(cuò)誤的機(jī)會(huì)。提高的可視性有助于增強(qiáng)理解,并改善客戶(hù)體驗(yàn)。”SAS公司首席信息官Collins說(shuō)。
 
Collins指出,這在醫(yī)療和銀行等受到嚴(yán)格監(jiān)管的組織尤為重要,這些組織最終需要能夠展示人工智能系統(tǒng)是如何做出決定或結(jié)果。而即使在不需要審計(jì)其人工智能的行業(yè)中,可解釋人工智能的核心信任和透明度也是值得的,他們可以具有良好的商業(yè)意識(shí)。
 
“在采用可解釋的人工智能的情況下,人類(lèi)增強(qiáng)了技術(shù)的知識(shí)和經(jīng)驗(yàn),以調(diào)整和加強(qiáng)分析模型以供將來(lái)使用。”Collins說(shuō),。“人類(lèi)的知識(shí)和經(jīng)驗(yàn)有助于學(xué)習(xí)技術(shù),反之亦然。這是一個(gè)持續(xù)的反饋循環(huán),可以成為企業(yè)的一種動(dòng)態(tài)資產(chǎn)。”
收藏 推薦 打印 | 錄入:admin | 閱讀:
本文評(píng)論   查看全部評(píng)論 (0)
表情: 表情 姓名: 字?jǐn)?shù)
點(diǎn)評(píng):
       
評(píng)論聲明
  • 尊重網(wǎng)上道德,遵守中華人民共和國(guó)的各項(xiàng)有關(guān)法律法規(guī)
  • 承擔(dān)一切因您的行為而直接或間接導(dǎo)致的民事或刑事法律責(zé)任
  • 本站管理人員有權(quán)保留或刪除其管轄留言中的任意內(nèi)容
  • 本站有權(quán)在網(wǎng)站內(nèi)轉(zhuǎn)載或引用您的評(píng)論
  • 參與本評(píng)論即表明您已經(jīng)閱讀并接受上述條款
白银市| 峨边| 富锦市| 靖远县| 芜湖市| 万载县| 木里| 贵南县| 冷水江市| 庐江县| 承德市| 铅山县| 西青区| 柳州市| 华蓥市| 雷州市| 萨迦县| 杭锦旗| 安阳市| 类乌齐县| 大姚县| 临洮县| 新野县| 鸡东县| 兴仁县| 辽中县| 兴化市| 金阳县| 乌拉特前旗| 崇仁县| 安义县| 柞水县| 定西市| 西乌珠穆沁旗| 无棣县| 沁源县| 邛崃市| 博兴县| 日照市| 临夏县| 滨海县|