亚洲一二三四五-亚洲色域网-国产在线麻豆-红桃视频成人-日韩美女久久-无码天堂亚洲国产av-免费看片在线观看-四虎成人影-国产精品视频99-亚洲欧美日韩系列-亚洲天堂伊人-婷婷综合色-欧美精品一区二区三区四区-婷婷综合在线视频-h文在线观看-爱爱视频网站免费-国产精品久久久久影院

你好,游客 登錄 注冊 搜索
背景:
閱讀新聞

對于人工智能的恐懼及其5個解決方法

[日期:2019-10-14] 來源:企業(yè)網(wǎng)D1Net  作者:Kevin Casey [字體: ]

實施人工智能技術(shù)的IT領(lǐng)導人可能會感到一些恐懼,這有著充分的理由。

 
人工智能在擁有數(shù)十年發(fā)展和應用歷史的同時卻有著奇怪的定位,但對于許多人來說,人工智能仍然是一種未來主義的感覺。實際上人工智能并不是新事物,但它始終是一個永恒的“新”領(lǐng)域。沒有人可以確切地知道其發(fā)展到底會何去何從。
 
對于不了解的事物,一些人會感到害怕。而人工智能的未來發(fā)展也讓很多人徹夜難眠,這是有道理的,尤其是考慮到可能出現(xiàn)的不利后果時。人們可以合理地假設任何重大技術(shù)發(fā)展都是如此:它們將會產(chǎn)生變化,從而令人感到恐懼。但是,與人工智能相關(guān)的恐懼卻有不同的優(yōu)先級。例如,大多數(shù)人不知道什么是微服務架構(gòu),即使他們每天使用的一些應用程序是以分離的方式構(gòu)建的。但是像微服務這樣的技術(shù)進化并不會像人工智能那樣對潛在的社會和經(jīng)濟影響產(chǎn)生這樣的情感反應。微服務也不會在流行文化中一直存在。
 
這主要說明了人們對人工智能發(fā)展前途并不明朗的擔憂,當人們的想象力失控時,就會很難評估它們的有效性。這對于如今試圖構(gòu)建實用人工智能戰(zhàn)略的IT領(lǐng)導人和其他高管來說并不是特別有用。然而,很多人會對人工智能感到恐懼,并且有著充分的理由。對于人工智能的入門者來說,他們更容易失敗,因為他們通?;诋斍暗默F(xiàn)實,而不是未來的推測。
 
加州大學歐文分校神經(jīng)科學研究助理、ContinualAi公司聯(lián)合負責人Keiland Cooper表示,“人們對人工智能的恐懼類型取決于人們所談論的人工智能類型。與當今普遍使用的更現(xiàn)實的人工智能算法相比,理論性更強、更遙遠的‘通用人工智能’(一種能夠完成人類所能做的所有事情的計算機)將引發(fā)更多的恐懼。”
 
以下了解一下當今有關(guān)人工智能的五個問題,以及專家為解決這些問題而提供的建議,這樣就不會破壞企業(yè)實施人工智能的計劃。
 
1. 恐懼:人工智能會產(chǎn)生有偏見的結(jié)果
 
人們越來越關(guān)注人工智能系統(tǒng)中的偏見和其他問題及其導致的決策或結(jié)果的可能性。與好萊塢電影的一些更富想象力的人工智能故事不同,人們應該對于人工智能的偏見感到恐懼。
 
SkyMind公司聯(lián)合創(chuàng)始人兼首席執(zhí)行官Chris Nicholson說,“人工智能的算法只和訓練數(shù)據(jù)一樣好。因此,如果一個數(shù)據(jù)集包含了組織的歷史偏見,那么它所做的預測將反映這一歷史行為,例如,如果一家公司通常會將擁有常春藤名校學位的白人男性提升到權(quán)威職位,那么經(jīng)過培訓的人工智能算法可以識別出未來的領(lǐng)導才能,并將其重點放在同一類型的應聘者身上,并且忽略不屬于該類別的應聘者。”
 
解決方法:
 
人們應該接受這種恐懼并采取行動。無需擔心人工智能偏見會增加其不受控制地擴散的可能性。
 
人工智能算法不應免除個人和組織對結(jié)果的責任。人工監(jiān)督和管理是絕對必要的,并且有很好的例子說明了另一種恐懼(不再需要人類)可能有點言過其實。
 
Nicholson說,“人們不能相信人工智能能夠知道一切或做出完美的決定。人工智能算法是由人類創(chuàng)造的,但人類也會犯錯。所以每個公司都要做的是建立一個系統(tǒng)來檢查人工智能,或者定期抽取人工智能的決策樣本并展示給專家,并詢問他們:這看起來正確嗎?而其結(jié)果至少不會比專家差,這是企業(yè)最初所希望的結(jié)果。”
 
這在醫(yī)療、保險、銀行、政府等行業(yè)可能尤為重要。但事實上,在任何地方這都是一個重要的問題。
 
Tara-Ai公司聯(lián)合創(chuàng)始人兼首席執(zhí)行官Iba Masood表示,“人工智能從業(yè)者和機器學習工程師必須確保他們在一定程度上遵守算法責任制,IT主管應該有專門的數(shù)據(jù)團隊為他們現(xiàn)有的數(shù)據(jù)集構(gòu)建消除偏見的程序。這將有助于在利用系統(tǒng)進行決策過程中,特別是在涉及最終消費者的情況下,需要實現(xiàn)一定程度的公平和公正。”
 
這是一個道德和公平的問題。Masood認為,人工智能倫理也可能成為一種競爭性的區(qū)分標準。
 
Masood說,“我相信,未來五年將會有更多的具有公平意識的消費者,他們希望與那些在人工智能輔助下的決策過程中部署公平機制的公司進行交易。通過努力減輕用于基于決策的系統(tǒng)的數(shù)據(jù)集的偏差,IT團隊可以在這種消費者行為轉(zhuǎn)變中產(chǎn)生重大影響。”
 
2.恐懼:人們不知道人工智能為什么會這么做
 
這是對未知事物的另一種自然恐懼:許多人工智能的結(jié)果很難解釋。
 
Nicholson說,“人工智能最先進的形式能夠?qū)?shù)據(jù)做出最準確的預測,但也最難解釋為什么做出這種預測。”
 
這有時被稱為人工智能的“黑盒”,指的是缺乏對人工智能系統(tǒng)決策的可視性,這對許多組織來說可能是一個重要的問題。
 
Nicholson說,“在許多情況下,人們都需要知道為什么要做某事。在受到嚴格監(jiān)管的行業(yè)組織中尤其如此。例如醫(yī)療保健行業(yè)不希望人工智能算法在不知道為什么做出決定的情況下就患者的診斷或治療做出決定。”
 
Cooper提供了另一個場景,指出黑盒模型在出現(xiàn)問題時變得特別重要。
 
Cooper說,“假設訓練一種算法來挑選最佳股票,并且做得很好,可能賺取9%的利潤。如果在金融投資中獲得了足夠或更好的回報(如果Cooper的假設合理的情況下),那么可能就不太在乎其原因。畢竟已經(jīng)獲得。但是如果損失了9%的成本應該怎么辦?如果失去了一切那么該怎么辦?人們可能會更關(guān)心的是為什么。”
 
他說,“問題在于,在許多情況下,人們不知道為什么要選擇它所選擇的東西。這很可怕,因為它不僅使人們減少了與正在使用的人工智能系統(tǒng)的聯(lián)系,而且如果它做錯了什么,也不會帶來太多的洞察力。”
 
解決方法:
 
解決這種恐懼的最好方法之一是確保即使在人工智能技術(shù)得以改進的情況下,人類的智能和決策仍然是任何過程中至關(guān)重要的部分,在某些情況下還是最終的部分。換句話說,即使人工智能在這些流程和決策中的作用不斷擴展,也可以通過確保人們保留對流程和決策的適當控制來緩解這種恐懼。
 
Nicholson說:“在醫(yī)療保健案例中,最好采用人工智能作為人類專家的決策支持形式。也就是說,不能讓人工智能獨自運作并且不受監(jiān)督??梢詫⑷斯ぶ悄芗傻浆F(xiàn)有的決策過程中,在此過程中可以向人類專家提出建議,并且專家將是做出最終決策的人,他們將能夠解釋做出該決定的原因。”
 
3.恐懼:人工智能將會做出錯誤的決定
 
人工智能將會做出錯誤的決定,這是一個非常明確的問題。如何評估人工智能結(jié)果的準確性和有效性?如果它做出錯誤的選擇會怎么樣?(可以看到這些恐懼的某些組合是如何產(chǎn)生復合效應的:如果人工智能做出錯誤的決定而無法解釋原因,將會發(fā)生什么情況?)假設所有人工智能產(chǎn)生的結(jié)果都是“良好”的結(jié)果,那么即使是對于人工智能應用最樂觀的人士也會感到不舒服。
 
偏見會導致錯誤的決定。不過,這實際上是一種更為廣泛的恐懼,這種恐懼除了其他負面影響之外,還可能導致團隊不信任任何的人工智能得出的結(jié)果。當人工智能團隊之外的人(或者IT部門)分析結(jié)果時,這種可能性就更大。它還可能導致組織的業(yè)務發(fā)展停滯。
 
Very公司工程主管Jeff McGehee說,“許多人擔心人工智能會做出錯誤的決定。從技術(shù)角度來看,這種恐懼通常是非常廣泛的,但它總是歸結(jié)為人們認為“這個決定是不正確的。對于從業(yè)者來說,這一點很難確定,尤其是在無法給出‘良好’決策的量化定義的情況下。”
 
解決方法:
 
人為因素的重要性再次占據(jù)主導地位。如果人們無法量化什么是積極的結(jié)果,那么需要提出一個定性的框架,同時確保依靠正確的人員和信息組合來解決諸如偏見之類的實際問題。
 
McGehee說:“為了確定這樣一個定義,利益相關(guān)者必須認真考慮所有可能的關(guān)于好/壞決策的定義。正確性可能是理想的,但是某些類型的錯誤通常更容易接受,或者更像是人為的。此外,‘正確性’可能指的是人們是否滿足某些標準的預測列表,但如果此列表包含固有的人為因素偏見,這可能是一個不好的目標。當非技術(shù)利益相關(guān)者評估人工智能決策的質(zhì)量時,所有這些因素都可以發(fā)揮作用。”
 
4.恐懼:人工智能將導致匿名性的喪失
 
McGehee指出了一個鮮為人知的問題,它可能成為人工智能安全中一個更引人注目的領(lǐng)域:當匿名性假定為給定時,將會喪失匿名性或隱私性。
 
McGehee說,“在以前,人工智能從業(yè)者普遍認為,一旦機器學習模型得到訓練,其權(quán)重(使其能夠進行預測的參數(shù))就不包含任何可追蹤的訓練數(shù)據(jù)。”然而,最近出現(xiàn)了一些技術(shù),這些技術(shù)將使惡意行為者能夠檢查經(jīng)過訓練的機器學習模型,并對用于訓練的各個數(shù)據(jù)點進行有意義的推斷。這與個人數(shù)據(jù)點是否是希望保持匿名的人有關(guān)。”
 
解決方法:
 
同樣,通過認識到恐懼背后的合法問題,人們可以采取措施來解決它。在必要時保護數(shù)據(jù)的隱私或匿名性是一個組織可以采取主動措施作為其總體安全策略一部分的領(lǐng)域。這也是機器學習中正在進行的一個研究和開發(fā)領(lǐng)域。
 
McGehee說,“雖然這是一種有效的恐懼,但對模型權(quán)重進行適當?shù)谋Wo和加密可以減少它們落入壞人手中的可能性,而創(chuàng)造不易受這種威脅影響的新的機器學習技術(shù)將是一個活躍的研究領(lǐng)域。”
 
5.恐懼:人工智能會讓人們失業(yè)
 
人們可能面臨這個最大的恐懼,它彌合了當前現(xiàn)實和更多推測場景。大多數(shù)專家都認為,人工智能將會取代更多的工作崗位。在某些情況下,這將意味著失業(yè)。
 
在可預見的未來,越來越多的人工智能(以及更廣泛的自動化)的應用比電腦時代更為廣泛,當時電腦的興起也引發(fā)了人們類似的擔憂。研究發(fā)現(xiàn),電腦在影響工作崗位的同時創(chuàng)造了更多的工作崗位。
 
解決方法:
 
Nicholson說,“從歷史上看,新技術(shù)不僅使工作實現(xiàn)自動化,而且可能帶來新的工作崗位??紤]一下采用電腦完成的所有工作。新技術(shù)通常需要人們對其進行掌握、支持和維護,而人工智能也不例外。”
 
積極應對這種恐懼將是人工智能在商業(yè)領(lǐng)域成功的關(guān)鍵,否則人們將無法參與其中。人們將會注意到,以上這些不僅要求人類參與其中,還要積極管理組織中的人工智能。
 
Nicholson說,“需要理解的關(guān)鍵是,未來的工作將是人類與機器之間的協(xié)作。但是機器仍然需要人類來操作和維護。人工智能就是如此。”
收藏 推薦 打印 | 錄入:admin | 閱讀:
本文評論   查看全部評論 (0)
表情: 表情 姓名: 字數(shù)
點評:
       
評論聲明
  • 尊重網(wǎng)上道德,遵守中華人民共和國的各項有關(guān)法律法規(guī)
  • 承擔一切因您的行為而直接或間接導致的民事或刑事法律責任
  • 本站管理人員有權(quán)保留或刪除其管轄留言中的任意內(nèi)容
  • 本站有權(quán)在網(wǎng)站內(nèi)轉(zhuǎn)載或引用您的評論
  • 參與本評論即表明您已經(jīng)閱讀并接受上述條款
台前县| 赤水市| 大兴区| 威信县| 镶黄旗| 铁岭县| 长武县| 武鸣县| 天台县| 广宁县| 琼中| 新晃| 高邑县| 普安县| 云林县| 镶黄旗| 乌恰县| 平舆县| 晋江市| 纳雍县| 莱西市| 谷城县| 枝江市| 高青县| 元氏县| 永年县| 神农架林区| 泰来县| 昌都县| 新丰县| 塔河县| 富平县| 丹阳市| 本溪| 靖安县| 东乡族自治县| 九龙城区| 成武县| 吉安市| 阿巴嘎旗| 湟中县|