有許多工具可有助于進(jìn)行AI審核和解釋,未來幾年將有更多工具可供使用。
關(guān)于人工智能被認(rèn)為存在“黑匣子”的問題,全世界都在進(jìn)行激烈的辯論。最重要的是,如果可以教一臺(tái)機(jī)器進(jìn)行自學(xué),那么它如何解釋自己得出的結(jié)論?在如何解決可能存在的算法偏見的背景下,這個(gè)問題最常出現(xiàn)。解決這一問題的一種方法是根據(jù)《通用數(shù)據(jù)保護(hù)條例(GDPR)》第22條規(guī)定賦予人類作出決定的權(quán)利。在美國,參議員懷登(Wyden)和布克(Booker)在《算法問責(zé)法》中建議,企業(yè)必須進(jìn)行影響評(píng)估。
可審計(jì)性、可解釋性、透明度和可復(fù)制性(可重復(fù)性)通常被認(rèn)為是避免偏差的手段。在實(shí)際意義上,可審計(jì)性和可解釋性可能是最接近的,有時(shí)它們可能以有趣的方式重疊。
審計(jì)——至少目前而言——可能在許多情況下是一種可用的方式。這實(shí)際上意味著檢查是否遵守法律、法規(guī)和/或符合良好或最佳實(shí)踐所要求的原則/控制條件。因此,例如,如果目標(biāo)是避免偏差,那么這就需要進(jìn)行精確地定義。存在不同類型的偏差,例如確認(rèn)偏差、測(cè)量偏差以及影響從數(shù)據(jù)中得出結(jié)論的其他形式偏差。
可解釋性從本質(zhì)上是具有挑戰(zhàn)性的,因?yàn)榻忉屚ǔJ遣煌暾?,并且解釋?huì)省略掉一些無法解釋的事情。算法在本質(zhì)上難以解釋。例如,使用“整體”方法的算法。解釋一個(gè)模型如何工作是很困難的。解釋幾個(gè)模型如何單獨(dú)和共同工作,其難度成指數(shù)級(jí)增加。但市場上有一些有趣的新工具可以提供幫助。
透明度通常是一件好事。但是,如果它需要披露與AI應(yīng)用程序相關(guān)的源代碼或工程細(xì)節(jié),那么這可能會(huì)引起知識(shí)產(chǎn)權(quán)問題。同樣,對(duì)于外行人可能無法解釋的一些事情的透明度,其作用有限。
可復(fù)制性或可重復(fù)性涉及到AI決策過程可重復(fù)產(chǎn)生相同結(jié)果的程度。這種方法的一個(gè)問題是缺乏管理數(shù)據(jù)采集、監(jiān)管和處理技術(shù)的通用標(biāo)準(zhǔn),以允許這種可復(fù)制性。第二個(gè)問題是AI實(shí)驗(yàn)經(jīng)常涉及人工反復(fù)運(yùn)行AI模型,直到他們發(fā)現(xiàn)數(shù)據(jù)模式,而且難以區(qū)分相關(guān)性和因果關(guān)系。第三個(gè)問題是這種技術(shù)具有完全的動(dòng)態(tài)性——用如此多的變化來復(fù)制結(jié)果是很困難的。
審計(jì)領(lǐng)域的相關(guān)發(fā)展
關(guān)于審計(jì),杰西•亨佩爾(Jessi Hempel)在其“想要證明你的業(yè)務(wù)是公平的嗎?審核一下你的算法”一文中寫道一家名為Rentlogic的公司,該公司對(duì)一個(gè)算法進(jìn)行外部審計(jì),該算法用于評(píng)估紐約市房東如何維護(hù)其建筑物。奧尼爾風(fēng)險(xiǎn)咨詢和算法審計(jì)公司(ORCAA)設(shè)計(jì)了一個(gè)矩陣,該矩陣由一個(gè)垂直線和水平線組成,該垂直線列出利益相關(guān)者,而水平線包括表示準(zhǔn)確性、一致性、偏差、透明度、公平性和及時(shí)性的特征。該矩陣的目的是促進(jìn)公司內(nèi)部對(duì)算法進(jìn)行對(duì)話。因此,例如,一個(gè)建議是要格外仔細(xì)查看檢查員報(bào)告中的模式。
2018年,信息系統(tǒng)審計(jì)與控制協(xié)會(huì)(ISACA)發(fā)布了一份題為“審計(jì)人工智能”的白皮書,其提供了一些如何進(jìn)行審計(jì)的想法。一個(gè)重要方面是審核在本質(zhì)上并不一定具有特別的技術(shù)性。相反,審計(jì)人員應(yīng)“關(guān)注于現(xiàn)有的控制和治理結(jié)構(gòu),并確定它們是否有效運(yùn)行。審計(jì)人員可以通過關(guān)注業(yè)務(wù)和IT治理方面來提供一些保證。”
拋開IASCA白皮書,進(jìn)行外部審計(jì)的一種方式可能是驗(yàn)證企業(yè)是否實(shí)際建立了負(fù)責(zé)任進(jìn)行數(shù)據(jù)使用的框架,特別是在避免偏差的情況下。至少在美國,這種框架會(huì)是什么樣子呢?
• 找到一些得到肯定的方法來使用數(shù)據(jù),確保在歷史上遭受不當(dāng)對(duì)待的群體得到公平對(duì)待。
• 確保將現(xiàn)有的非歧視性法律/消費(fèi)者法律應(yīng)用到數(shù)據(jù)分析中。
• 提供決策算法中各種因素的表現(xiàn)。
• 利用不同的影響分析方法進(jìn)行內(nèi)部評(píng)估。
• 制定應(yīng)對(duì)內(nèi)部評(píng)估的公平標(biāo)準(zhǔn)。
檢查或(使用另一個(gè)詞)審核企業(yè)是否已實(shí)施這些流程,這將有助于確保以非歧視的方式使用AI。
解釋變得越來越容易,且更容易理解
關(guān)于可解釋性,也有許多有趣的工作。其中一些工作與治理工作的可審計(jì)性重疊。例如,康奈爾大學(xué)在題為“模型報(bào)告的模型卡(Model Cards for Model Reporting)”的論文中提出了為機(jī)器學(xué)習(xí)模型生成模型卡的想法。這個(gè)想法是讓機(jī)器學(xué)習(xí)模型擁有一個(gè)“模型卡”,其包含模型詳細(xì)信息(包括引文詳細(xì)信息和許可證,以及在何處發(fā)送有關(guān)模型的問題或評(píng)論);預(yù)期用途;在開發(fā)模型時(shí)人口統(tǒng)計(jì)等因素;衡量指標(biāo);評(píng)估數(shù)據(jù);訓(xùn)練數(shù)據(jù);定量分析;倫理方面的考慮因素,例如模型是否使用敏感數(shù)據(jù),即是否影響人們生活;緩解措施;潛在的風(fēng)險(xiǎn)和危害;以及有關(guān)特別存在風(fēng)險(xiǎn)的用例信息。這看起來像是一個(gè)簡明的影響評(píng)估——它肯定為企業(yè)提供了有關(guān)如何解決可解釋性問題的指南。
福布斯最近的一篇題為“可解釋性AI的未來”的文章也提供了一些關(guān)于可解釋性發(fā)展的有趣內(nèi)容。該文詳細(xì)介紹了谷歌的云端AI平臺(tái)模型的What-If-Tool。“我們將看到這個(gè)工具在實(shí)踐中如何得到應(yīng)用,而且聲稱它允許分析人員根據(jù)特征(比如年齡)對(duì)數(shù)據(jù)集進(jìn)行切片,然后比較這些切片的性能,這有助于機(jī)器學(xué)習(xí)公平性調(diào)查。
最重要的是,有許多工具可用于幫助進(jìn)行審計(jì)和解釋,并且未來幾年將有更多工具可供使用。很難說審計(jì)或解釋哪個(gè)相對(duì)更重要——兩者都將在增強(qiáng)公眾對(duì)AI的信任方面發(fā)揮作用。
