可解釋的人工智能在四個(gè)行業(yè)中的作用

作者: 2019年06月12日 來(lái)源:全球化工設(shè)備網(wǎng) 瀏覽量:
字號(hào):T | T
可解釋的人工智能可以讓人們理解人工智能系統(tǒng)是如何做出決定的,而這將成為醫(yī)療、制造、保險(xiǎn)、汽車(chē)領(lǐng)域的關(guān)鍵。那么這對(duì)于組織意味著什么?  例如,流媒體音樂(lè)服務(wù)平臺(tái)Spotify計(jì)劃向用戶(hù)推薦歌手JustinBieber的歌
可解釋的人工智能可以讓人們理解人工智能系統(tǒng)是如何做出決定的,而這將成為醫(yī)療、制造、保險(xiǎn)、汽車(chē)領(lǐng)域的關(guān)鍵。那么這對(duì)于組織意味著什么?

  例如,流媒體音樂(lè)服務(wù)平臺(tái)Spotify計(jì)劃向用戶(hù)推薦歌手Justin Bieber的歌曲,卻推薦了Belieber的歌,顯然這有些令人感到困擾。這并不一定意味著Spotify網(wǎng)站的程序員必須確保他們的算法透明且易于理解,但人們可能會(huì)發(fā)現(xiàn)這有些偏離目標(biāo),但其后果顯然是微不足道的。

  這是可解釋人工智能的一個(gè)試金石——即機(jī)器學(xué)習(xí)算法和其他人工智能系統(tǒng),它們可以產(chǎn)生人類(lèi)可以容易理解并追溯到起源的結(jié)果?;谌斯ぶ悄艿慕Y(jié)果越重要,對(duì)可解釋人工智能的需求就越大。相反,相對(duì)低風(fēng)險(xiǎn)的人工智能系統(tǒng)可能只適合黑盒模型,人們很難理解其結(jié)果。

  Jane.ai公司人工智能研發(fā)主管Dave Costenaro說(shuō):“如果人工智能算法的效果不夠好,比如音樂(lè)服務(wù)公司推薦的歌曲一樣,那么社會(huì)可能不需要監(jiān)管機(jī)構(gòu)對(duì)這些建議進(jìn)行監(jiān)管?!?

  人們可以忍受應(yīng)用程序?qū)ζ湟魳?lè)品味的誤解。但可能無(wú)法忍受人工智能系統(tǒng)帶來(lái)的更重要的決定,也許是在建議的醫(yī)療或拒絕申請(qǐng)抵押貸款的情況下。 

  這些都是高風(fēng)險(xiǎn)的情況,尤其是在出現(xiàn)負(fù)面結(jié)果的情況下,人們可能需要明確地解釋是如何得出特定結(jié)果的。在許多情況下,審計(jì)師、律師、政府機(jī)構(gòu)和其他潛在當(dāng)事人也會(huì)這樣做。

  Costenaro表示,由于特定決策或結(jié)果的責(zé)任從人類(lèi)轉(zhuǎn)移到機(jī)器,因此對(duì)可解釋性的需求也會(huì)增加。

  Costenaro說(shuō),“如果算法已經(jīng)讓人類(lèi)處于這個(gè)循環(huán)中,人類(lèi)決策者可以繼續(xù)承擔(dān)解釋結(jié)果的責(zé)任?!?

  他舉例說(shuō)明了一個(gè)為放射科醫(yī)生預(yù)先標(biāo)記X射線圖像的計(jì)算機(jī)視覺(jué)系統(tǒng)。他說(shuō),“這可以幫助放射科醫(yī)生更準(zhǔn)確、更有效地工作,但*終將提供診斷和解釋?!?

  IT的人工智能責(zé)任:解釋原因

  然而,隨著人工智能的成熟,人們可能會(huì)看到越來(lái)越多的新應(yīng)用程序逐漸依賴(lài)于人類(lèi)的決策和責(zé)任。音樂(lè)推薦引擎可能沒(méi)有特別重大的責(zé)任負(fù)擔(dān),但許多其他真實(shí)或潛在的用例將會(huì)面臨重大的責(zé)任。

  Costenaro說(shuō),“對(duì)于一類(lèi)新的人工智能決策來(lái)說(shuō),這些決策具有很高的影響力,而且由于所需處理的速度或數(shù)量,人類(lèi)不再能夠有效地參與其中,從業(yè)者們正在努力尋找解釋算法的方法。”

  IT領(lǐng)導(dǎo)者需要采取措施確保其組織的人工智能用例在必要時(shí)正確地包含可解釋性。 TigerGraph公司營(yíng)銷(xiāo)副總裁Gaurav Deshpande表示,許多企業(yè)首席信息官已經(jīng)關(guān)注這個(gè)問(wèn)題,即使他們了解到特定人工智能技術(shù)或用例的價(jià)值,他們通常還有一些猶豫。

  Deshpande說(shuō),“但是如果不能解釋是如何得出答案的,就不能使用它。這是因?yàn)椤诤小斯ぶ悄芟到y(tǒng)存在偏見(jiàn)的風(fēng)險(xiǎn),這可能導(dǎo)致訴訟、對(duì)企業(yè)品牌以及資產(chǎn)負(fù)債表的重大責(zé)任和風(fēng)險(xiǎn)?!?

  這是思考企業(yè)如何以及為何采用可解釋的人工智能系統(tǒng)而不是操作黑盒模型的另一種方式。他們的業(yè)務(wù)可能依賴(lài)于它。人們對(duì)人工智能偏見(jiàn)的主張可能會(huì)被誤導(dǎo)。在風(fēng)險(xiǎn)較高的情況下,類(lèi)似的要求可能相當(dāng)嚴(yán)重。而這就是可解釋的人工智能可能成為機(jī)器學(xué)習(xí)、深度學(xué)習(xí)和其他學(xué)科的商業(yè)應(yīng)用的焦點(diǎn)的原因。

  可解釋的人工智能在四個(gè)行業(yè)中的作用

  Ness數(shù)字工程公司首席技術(shù)官M(fèi)oshe Kranc對(duì)可解釋人工智能的潛在用例進(jìn)行了探討,他說(shuō),“任何影響人們生活的用例都可能受到偏見(jiàn)的影響。”其答案既簡(jiǎn)單又深遠(yuǎn)。

  他分享了一些越來(lái)越多地可能由人工智能做出決定的例子,但這從根本上需要信任、可審計(jì)性和其他可解釋人工智能的特征:

·參加培訓(xùn)計(jì)劃

·決定是否為某人投保以及投保多少費(fèi)用

·根據(jù)人口統(tǒng)計(jì)數(shù)據(jù)決定是否向某人發(fā)放信用卡或貸款

  考慮到這一點(diǎn),各種人工智能*和IT領(lǐng)導(dǎo)者為此確定可解釋人工智能必不可少的行業(yè)和用例。銀行業(yè)是一個(gè)很好的例子,可以這么說(shuō),可解釋的人工智能非常適合機(jī)器在貸款決策和其他金融服務(wù)中發(fā)揮關(guān)鍵作用。在許多情況下,這些用途可以擴(kuò)展到其他行業(yè),其細(xì)節(jié)可能會(huì)有所不同,但原則保持不變,因此這些示例可能有助于思考組織中可解釋的人工智能用例。

全球化工設(shè)備網(wǎng)(http://www.bhmbl.cn )友情提醒,轉(zhuǎn)載請(qǐng)務(wù)必注明來(lái)源:全球化工設(shè)備網(wǎng)!違者必究.
免責(zé)聲明:1、本文系本網(wǎng)編輯轉(zhuǎn)載或者作者自行發(fā)布,本網(wǎng)發(fā)布文章的目的在于傳遞更多信息給訪問(wèn)者,并不代表本網(wǎng)贊同其觀點(diǎn),同時(shí)本網(wǎng)亦不對(duì)文章內(nèi)容的真實(shí)性負(fù)責(zé)。
2、如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)?jiān)?0日內(nèi)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間作出適當(dāng)處理!有關(guān)作品版權(quán)事宜請(qǐng)聯(lián)系:+86-571-88970062