人們在生活中已經(jīng)開始習(xí)慣用語音控制電子設(shè)備、用圖像識別人臉、讓機(jī)器處理家務(wù),人工智能正在全方位滲透到我們生活的每一個角落。同時,據(jù)估計,人工智能的經(jīng)濟(jì)潛力高達(dá)15.7萬億美元。
然而,隨著落地場景的不斷增多,使用范圍的不斷擴(kuò)大,人工智能應(yīng)用也暴露出一些問題,尤其是其帶來的誠信問題、安全問題和社會問題引發(fā)了監(jiān)管機(jī)構(gòu)、業(yè)界和公眾的廣泛關(guān)注。根據(jù)普華永道的一項(xiàng)最新報告,只有當(dāng)各家企業(yè)采用負(fù)責(zé)任的人工智能項(xiàng)目,并在開展項(xiàng)目之前經(jīng)過深思熟慮時,其經(jīng)濟(jì)潛力才能成為現(xiàn)實(shí)。
人工智能正面臨五大風(fēng)險與挑戰(zhàn)
目前,用戶在應(yīng)用人工智能時,主要面臨來自五個方面的風(fēng)險和挑戰(zhàn)。
第一,合規(guī)。目前針對人工智能的監(jiān)管還處于探索階段,遠(yuǎn)遠(yuǎn)落后于應(yīng)用落地的速度。相關(guān)的法律法規(guī)較少,合規(guī)要求相對模糊,監(jiān)管的不確定性是企業(yè)面臨的重要風(fēng)險。
監(jiān)管要求的落地是企業(yè)面臨的另一項(xiàng)挑戰(zhàn)。數(shù)據(jù)是人工智能的基礎(chǔ),在應(yīng)用人工智能時,企業(yè)需要滿足包括數(shù)據(jù)收集、隱私保護(hù)等要求。2017年,谷歌旗下人工智能子公司DeepMind所開發(fā)的移動應(yīng)用Streems因收集患者醫(yī)療病歷被英國信息委員會裁定違背了英國數(shù)據(jù)保護(hù)法。2019年5月,出于對侵犯個人隱私的擔(dān)憂,美國舊金山通過一項(xiàng)法令禁止該城市的政府機(jī)構(gòu)使用人臉識別技術(shù)。
在特定的情形下,企業(yè)還需要向監(jiān)管機(jī)構(gòu)證明復(fù)雜的人工智能應(yīng)用程序是如何做出決策的,以判斷是否滿足監(jiān)管要求,這對企業(yè)和監(jiān)管機(jī)構(gòu)而言均有一定的難度。
第二,道德和倫理。決策偏見可能是人工智能應(yīng)用中最突出的道德風(fēng)險。亞馬遜公司在利用人工智能算法進(jìn)行求職簡歷審核時發(fā)現(xiàn),由于科技行業(yè)簡歷大多都是男性投遞的,其機(jī)器學(xué)習(xí)引擎在接受訓(xùn)練之后會優(yōu)先選取男性求職者,給女性簡歷以更低的評級。美國部分州的司法部門使用了一套人臉識別系統(tǒng)(COMPAS)來預(yù)測罪犯再次犯罪的概率,以決定是否批準(zhǔn)保釋或假釋,然而從預(yù)測結(jié)果來看,被錯誤標(biāo)記為高風(fēng)險再犯罪的黑人人數(shù)幾乎是白人的兩倍。而那些真正實(shí)施再犯罪的人群中,被錯誤標(biāo)記為低風(fēng)險的白人人數(shù)卻是黑人人數(shù)的兩倍。這些案例顯示出人工智能算法在決策時有可能產(chǎn)生偏見和歧視。
誠信問題是人工智能容易引發(fā)的另一個問題,從事直播工作的網(wǎng)絡(luò)紅人喬碧羅一直使用一種基于人工智能的換臉?biāo)惴ㄐ揎椖槻,給觀眾留下了人美聲甜的印象。但在幾個月前的一次直播中,其用來修飾臉部的濾鏡和圖片偶然被關(guān)閉,直播畫面中出現(xiàn)了“蘿莉”變“大媽”的一幕,引發(fā)人們對于應(yīng)用人工智能帶來欺詐問題的熱議。
第三,安全。人工智能應(yīng)用的功能雖然強(qiáng)大,但前提是確保安全,尤其是當(dāng)人工智能應(yīng)用于與人身安全直接相關(guān)的領(lǐng)域,如自動駕駛、醫(yī)療、工業(yè)控制等,安全應(yīng)當(dāng)被置于首要地位。2018年末和2019年初,波音公司兩駕737Max客機(jī)連續(xù)墜毀,失事原因很可能是由于飛機(jī)自動駕駛系統(tǒng)在錯誤的信號下判斷飛機(jī)有失速風(fēng)險,選擇降低機(jī)頭,使飛機(jī)俯沖。此過程中,駕駛員曾嘗試?yán)痫w機(jī),但自動駕駛系統(tǒng)沒有將操控權(quán)交還駕駛員,仍舊控制飛機(jī)使其繼續(xù)俯沖,最終釀成慘劇。這兩起重大的空難迫使我們?nèi)ニ伎既斯ぶ悄艿陌踩L(fēng)險。
第四,決策過程模糊。人工智能的決策過程通常較為復(fù)雜,對使用者來說,該決策過程就像黑盒,很難知曉其決策的邏輯和依據(jù)。這也使得人們對人工智能做出的決策是否可信產(chǎn)生擔(dān)憂。
第五,管控。管控能力不足是很多企業(yè)在應(yīng)用人工智能時都會遇到的問題。人工智能發(fā)展的過程具備動態(tài)和自適應(yīng)的特征,針對傳統(tǒng)靜態(tài)流程的管控方法可能并不適用。有銀行曾經(jīng)利用人工智能進(jìn)行小額貸款審批,結(jié)果發(fā)現(xiàn)其智能算法將部分小額貸款發(fā)放至不具備償付能力的用戶手中,給銀行帶來財務(wù)和聲譽(yù)的損失。全球尚未形成一套適用于人工智能領(lǐng)域的治理框架,相關(guān)的治理原則、方法和控制還在進(jìn)一步研究。
如何應(yīng)對人工智能帶來的風(fēng)險與挑戰(zhàn)
從網(wǎng)絡(luò)直播到求職招聘,從自動駕駛到智能安防,人類已開始大踏步邁入智能時代。盡管還面臨一些挑戰(zhàn),人工智能的大潮已經(jīng)勢不可擋。政府和企業(yè)是人工智能領(lǐng)域的主要推動力量,我們認(rèn)為政府應(yīng)當(dāng)主要從制度建設(shè),企業(yè)應(yīng)當(dāng)主要從治理和流程上來應(yīng)對當(dāng)下的風(fēng)險和挑戰(zhàn)。
對政府而言,在推動新一代人工智能發(fā)展的同時,需要進(jìn)一步加強(qiáng)監(jiān)管,使監(jiān)管能夠跟上技術(shù)的發(fā)展和應(yīng)用的落地。監(jiān)管要求通常并不會抑制新技術(shù)的發(fā)展,相反,穩(wěn)定的監(jiān)管環(huán)境是新興業(yè)務(wù)發(fā)展的良好土壤,法規(guī)越明確,監(jiān)管越明晰,企業(yè)面對的合規(guī)不確定性越小,越能夠明確業(yè)務(wù)發(fā)展的方向。政府可以通過頂層設(shè)計的方式,設(shè)立相關(guān)的監(jiān)管機(jī)構(gòu),出臺相應(yīng)的法律法規(guī),明確法律主體責(zé)任,明晰監(jiān)管要求等促進(jìn)行業(yè)自律,為行業(yè)發(fā)展提供良好的制度環(huán)境。
對企業(yè)而言,我們建議企業(yè)在應(yīng)用人工智能技術(shù)改善工藝和流程時,從合規(guī)性、公平性、安全性、可解釋性、可控性五個方面應(yīng)對人工智能帶來的風(fēng)險和挑戰(zhàn),構(gòu)建負(fù)責(zé)任和可信的人工智能應(yīng)用。我們的具體建議包括:
首先,建立人工智能合規(guī)庫,以檢驗(yàn)企業(yè)在部署人工智能應(yīng)用時是否充分查詢并滿足了相關(guān)適用的法律法規(guī)要求。
其次,人工智能產(chǎn)生偏見的原因可能不只來源于算法本身,也可能來自于人為因素,比如由于個體經(jīng)歷和認(rèn)知不同而造成訓(xùn)練樣本選取的偏向。企業(yè)可以選擇適當(dāng)?shù)某绦蚝头椒z驗(yàn)用于訓(xùn)練算法模型的樣本數(shù)據(jù),確保其遵守組織的道德準(zhǔn)則和反歧視原則;盡管不論通過何種方法,都很難做出對每一方都公平的決定,但企業(yè)可以基于某種客觀準(zhǔn)則調(diào)優(yōu)人工智能系統(tǒng),以降低偏見,使決策盡可能公平。
再次,由于人工智能數(shù)據(jù)和系統(tǒng)可能因錯誤、惡意攻擊等原因失效而產(chǎn)生嚴(yán)重后果,所以必須從一開始就將安全納入到人工智能開發(fā)過程中,確保安全覆蓋所有人工智能系統(tǒng)、數(shù)據(jù)和通信領(lǐng)域。
此外,要想讓人們信任人工智能系統(tǒng),就有必要及時向利益相關(guān)方提供必要的說明和解釋,使黑盒變透明。企業(yè)可以利用特定的方法和程序,使人工智能的機(jī)制和模型更好地被它的最終用戶所理解,從而降低運(yùn)營、聲譽(yù)和財務(wù)方面的風(fēng)險。
最后,為確保企業(yè)人工智能應(yīng)用得到合理的管控,需要建立起動態(tài)的人工智能治理機(jī)制,將人工智能與商業(yè)戰(zhàn)略相結(jié)合,設(shè)立相應(yīng)的崗位和流程,建立快速響應(yīng)的監(jiān)控和預(yù)警機(jī)制,確保組織能及時發(fā)現(xiàn)問題,并做出調(diào)整。
人工智能被眾多業(yè)界領(lǐng)袖視作“第四次工業(yè)革命”的驅(qū)動引擎,其顛覆性可比電力、計算機(jī)、互聯(lián)網(wǎng),然而,能力越大責(zé)任越大,如果人工智能不能“向善”,則勢必給人類帶來大災(zāi)難。越來越多的企業(yè)在應(yīng)用人工智能的過程中,開始關(guān)注到可信與負(fù)責(zé)任的問題。對于普華永道而言,“解決重要問題,營造社會誠信”也成為指導(dǎo)人工智能項(xiàng)目,應(yīng)對人工智能風(fēng)險與挑戰(zhàn)的原則。
(作者系普華永道中國網(wǎng)絡(luò)安全與隱私保護(hù)服務(wù)合伙人)