大模型在政府機(jī)構(gòu)的應(yīng)用,將對其服務(wù)體驗(yàn)、治理秩序與決策邏輯產(chǎn)生影響,全球政府部門相繼對大模型在政府部門的應(yīng)用發(fā)布了相應(yīng)的應(yīng)用指南,以指導(dǎo)政府部門合理使用大模型等人工智能的應(yīng)用。截至目前,全球已有10余個(gè)國家/州/城市,包括英國、加拿大、澳大利亞,美國的加州、圣何塞市、西雅圖等國家/州/城市發(fā)布了政府部門應(yīng)用生成式人工智能的政策指南或道德框架,并對公務(wù)人員應(yīng)用大模型開展工作提出了首要原則、潛在風(fēng)險(xiǎn)、應(yīng)用場景(建議用例與禁止用例)等。通過研究已發(fā)布的政策指南,對不同國家/州/城市應(yīng)用大模型的原則、思路以及指導(dǎo)內(nèi)容進(jìn)行分析研究,借此洞察政府生成式AI應(yīng)用的未來展望與思考。
首要原則:應(yīng)用生成式AI安全需求大于價(jià)值訴求
政府機(jī)構(gòu)均認(rèn)為生成式AI的使用需要謹(jǐn)小慎微。通過分析可以發(fā)現(xiàn),隱私性、準(zhǔn)確性、適當(dāng)性和安全性是政策指南中出現(xiàn)頻率最高的使用原則。其中,“隱私性”強(qiáng)調(diào)個(gè)人數(shù)據(jù)和敏感信息的保護(hù);“準(zhǔn)確性”強(qiáng)調(diào)數(shù)據(jù)來源的可靠性和內(nèi)容輸出的有效性;“適當(dāng)性”強(qiáng)調(diào)程序和實(shí)質(zhì)性的公平義務(wù),符合人權(quán),避免偏見和歧視等內(nèi)容;“安全性”則既包括數(shù)字安全也包括社會(huì)環(huán)境、基礎(chǔ)設(shè)施的安全。
此外,問責(zé)制、透明度和可審計(jì)性、可解釋和可判斷、公共目的和社會(huì)效益也被多個(gè)政府機(jī)構(gòu)提到,“問責(zé)制”強(qiáng)調(diào)在低風(fēng)險(xiǎn)情況下使用公開可用的生成式AI平臺(tái),保證人類是政府流程中的最終決策者;“透明度和可審計(jì)性”主張透明行事并創(chuàng)建人工智能過程記錄以建立信任并促進(jìn)集體學(xué)習(xí);“可解釋和可判斷”要求知曉系統(tǒng)如何做出決策,并在需要時(shí)能夠解釋決策的“原因”及其對用戶的意義或背景;“公共目的和社會(huì)效益”則強(qiáng)調(diào)使用人工智能的目的在于支持國家為居民提供更好、更公平的服務(wù)和成果。
關(guān)注風(fēng)險(xiǎn):潛在的信息安全及決策影響風(fēng)險(xiǎn)
通過研究分析可以發(fā)現(xiàn),生成式AI風(fēng)險(xiǎn)在政府部門中應(yīng)用的兩個(gè)最大的風(fēng)險(xiǎn)分別為信息安全風(fēng)險(xiǎn)和決策影響風(fēng)險(xiǎn),前者主要涉及隱私敏感數(shù)據(jù)的泄露,后者指生成式AI輸出結(jié)果的不確定性與可解釋性問題將為政府決策帶來干擾。
從研究的目標(biāo)政府部門發(fā)布的政策指南來看,其對“信息安全風(fēng)險(xiǎn)”的定義主要指的是個(gè)人身份信息、敏感記錄或商業(yè)機(jī)密信息等輸入到生成式AI工具后被釋放給其他無關(guān)受眾,成為公開信息;一些生成式AI工具提供商可能會(huì)檢查輸入數(shù)據(jù)或使用這些數(shù)據(jù)來進(jìn)一步訓(xùn)練他們的模型,這可能會(huì)導(dǎo)致隱私和安全漏洞。由此可見,生成式AI在政府部門內(nèi)部的信息安全風(fēng)險(xiǎn)將不再只是外部的挾持、竊取以及攻擊等風(fēng)險(xiǎn),還有來自內(nèi)部的“輸入”風(fēng)險(xiǎn),政府部門工作人員對如何辨別什么樣的信息可以輸入生成式AI工具顯得至關(guān)重要。
此外,各地政策指南對“決策影響風(fēng)險(xiǎn)”的定義包括輸出結(jié)果用于決策、任務(wù)或服務(wù)時(shí)產(chǎn)生的潛在危害,比如由于信息來源的不可信,生成式AI工具輸出的答案可能并不準(zhǔn)確,并作為虛假信息進(jìn)一步傳播;因?yàn)楣ぷ髟淼木窒蓿墒紸I工具在產(chǎn)出結(jié)果時(shí)可能存在偏見甚至放大偏見,其結(jié)果可能引起道德、倫理或法律風(fēng)險(xiǎn);鑒于生成式AI工具提供誤導(dǎo)信息或偏見的可能,這些工具的使用也極有可能影響決策者的判斷力和創(chuàng)造力,并產(chǎn)生額外的社會(huì)成本。此外,生成式AI還可能被惡意濫用,從而對政府機(jī)構(gòu)的完整性和安全性構(gòu)成風(fēng)險(xiǎn)。
應(yīng)用場景:在基本邏輯與底線上選擇性應(yīng)用
由于智能技術(shù)應(yīng)用的不斷發(fā)展,將衍生許多未知的風(fēng)險(xiǎn),特別是當(dāng)智能應(yīng)用由一種內(nèi)容與服務(wù)的“傳播媒介”進(jìn)化為“生產(chǎn)主體”的時(shí)候,此時(shí)使用則需要格外謹(jǐn)慎。因此,國外政府機(jī)構(gòu)針對生成式AI在行政系統(tǒng)內(nèi)部的用例場景做了詳細(xì)的指導(dǎo)與要求。從政策指南的研究情況來看,政府機(jī)構(gòu)使用生成式AI的基本邏輯與底線是“可以借助AI完成簡單的非官方文本輸出,但盡量避免產(chǎn)生公開性、決策性、唯一性、創(chuàng)造性的成果”。目前,在政府側(cè)具有普遍共識(shí)的用例場景包括查詢各類信息數(shù)據(jù),總結(jié)、壓縮、摘要信息或知識(shí)點(diǎn),起草文件或項(xiàng)目計(jì)劃,生成簡明語言的圖文內(nèi)容,輔助學(xué)習(xí)或研究,創(chuàng)建演示文稿等。
生成式AI作為一種新型智能應(yīng)用,各國政府機(jī)構(gòu)對其的認(rèn)知、理解以及需求存在一定差異,由此導(dǎo)致其對應(yīng)用場景的選擇也將存在偏差或分歧。比如英國和華盛頓將“開發(fā)代碼”納入生成式AI的建議用例場景,但圣何塞市將其列為禁止用例,這主要是考慮到開發(fā)代碼的時(shí)效性及版權(quán)問題,以規(guī)避由此帶來的運(yùn)行風(fēng)險(xiǎn)與法律風(fēng)險(xiǎn)。此外,華盛頓和圣何塞市將幫助生成圖像、音頻和視頻內(nèi)容納入生成式AI的建議用例場景,波士頓將音頻編碼/編程及圖像、音頻和視頻均納入建議用例場景,但不同的是,圣何塞市單獨(dú)將創(chuàng)造聲音或其他音頻列為禁止用例,認(rèn)為創(chuàng)造/復(fù)制人的聲音可能存在潛在的法律問題。
研究分析發(fā)現(xiàn),在各政府機(jī)構(gòu)的禁止用例清單上,英國著重提出“勿用于撰寫消息和向他人總結(jié)事實(shí)”及“未經(jīng)所有者同意勿輸入數(shù)據(jù)進(jìn)行分析”,十分重視生成式AI產(chǎn)出成果在公開性和創(chuàng)造性上可能存在的風(fēng)險(xiǎn)。此外,圣何塞市還將評估和決策及語言翻譯也列為禁止用例,避免AI產(chǎn)出可能產(chǎn)生的決策風(fēng)險(xiǎn)。
相對于其他國家/城市,圣何塞市在政策指南中還根據(jù)信息的敏感度、識(shí)別性、涉密性及產(chǎn)出內(nèi)容的實(shí)際效用和影響力,將不同用例場景的風(fēng)險(xiǎn)等級分為中等風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)及禁止提供的風(fēng)險(xiǎn),并對應(yīng)列舉了多個(gè)中等風(fēng)險(xiǎn)用例、高風(fēng)險(xiǎn)用例及禁止用例,這對指導(dǎo)政府機(jī)構(gòu)快速熟練運(yùn)用生成式AI開展工作,和快速提升公務(wù)人員的AI素養(yǎng)具有重要的積極效應(yīng)。
治理機(jī)制:集中在治理機(jī)構(gòu)設(shè)置、政策法規(guī)制定及版權(quán)保護(hù)
從全球城市政府機(jī)構(gòu)生成式AI應(yīng)用指南的調(diào)研情況來看,在治理機(jī)構(gòu)設(shè)置、政策法規(guī)制定以及版權(quán)保護(hù)三個(gè)方面均已初步成型或得到較為重要的關(guān)注。在治理機(jī)構(gòu)設(shè)置方面,賓夕法尼亞州、俄亥俄州、堪薩斯州、華盛頓、西雅圖、圣何塞等州/市均設(shè)立了生成式人工智能管理委員會(huì)。其職責(zé)主要在于就各機(jī)構(gòu)中生成式AI的設(shè)計(jì)、開發(fā)、采購和部署,向行政辦公室提出建議;根據(jù)評估技術(shù)偏差和安全性的審查程序,就機(jī)構(gòu)使用生成式AI技術(shù)的請求提出建議;牽頭確定實(shí)施生成式AI的最有效用例;評估生成式AI使用的可用資源的可獲取性、局限性和潛在的歷史偏差;提供內(nèi)部和外部政策反饋的機(jī)制;平衡使用生成式AI的公共利益和潛在風(fēng)險(xiǎn);聘請私營部門和領(lǐng)先教育機(jī)構(gòu)的生成式AI專家,根據(jù)需要就短期和長期研究目標(biāo)、行業(yè)趨勢和全生態(tài)系統(tǒng)最佳實(shí)踐提供建議;接受不斷發(fā)展的生成式AI技術(shù)領(lǐng)域的更新和培訓(xùn)等。
在政策法規(guī)方面,圣何塞市、西雅圖及華盛頓均強(qiáng)調(diào)對生成式AI的所有使用均需遵守《公共記錄法》,因?yàn)槿魏闻c市政府工作有關(guān)的對話都是公共記錄,并且必須遵守市政府的保留規(guī)定。而生成式AI工具可能會(huì)創(chuàng)建必須保留的公共記錄,相關(guān)的任何提示、輸出或其他信息都可能被公開發(fā)布。由于使用情況取決于公共記錄請求,有些國家/城市對使用用戶賬號(hào)做了要求。比如圣何塞市要求數(shù)字隱私辦公室應(yīng)使用城市電子郵件地址(digitalprivacy@sanjoseca.gov),為其所有使用生成式AI的角色創(chuàng)建一個(gè)共享賬戶,并確保政府工作人員都使用唯一的服務(wù)密碼。
在版權(quán)引用方面,圣何塞市、華盛頓、西雅圖及俄亥俄州在指南中就版權(quán)問題做了單獨(dú)闡釋。圣何塞市要求當(dāng)最終版本中使用的大部分內(nèi)容來自生成式AI時(shí),用戶必須標(biāo)明引用自生成式AI,任何作為事實(shí)的陳述都必須引用可信的來源,而不是人工智能。西雅圖認(rèn)為生成式AI系統(tǒng)生成的內(nèi)容包含受版權(quán)保護(hù)的內(nèi)容材料,人工智能系統(tǒng)可以使用來自互聯(lián)網(wǎng)的數(shù)據(jù)(文字、圖像等)進(jìn)行“訓(xùn)練”,而不用考慮版權(quán)或許可條款。華盛頓強(qiáng)調(diào)以國家官方身份使用人工智能生成內(nèi)容應(yīng)該清楚地標(biāo)明,并提供審查和編輯過程的詳細(xì)信息(材料如何審查、編輯以及由誰審查、編輯)。俄亥俄州認(rèn)為國家擁有的所有涉及生成人工智能的受版權(quán)保護(hù)的作品必須按照美國版權(quán)局對包含人工智能生成材料的作品的要求隨附注釋,注釋至少應(yīng)包括所使用的生成式AI技術(shù)以及如何使用該技術(shù)來創(chuàng)作作品的描述。
政府生成式AI應(yīng)用的未來展望與思考
政府機(jī)構(gòu)作為為公共利益服務(wù)的主體,穩(wěn)定、公平、透明、普惠等作為其服務(wù)的核心特征,與生成式AI由數(shù)據(jù)、算法以及可能存在的幻覺所構(gòu)成的技術(shù)特征,在日常運(yùn)行與應(yīng)用過程中必然將產(chǎn)生不可避免的沖突。因此,結(jié)合當(dāng)前全球多個(gè)國家/州/城市政府部門的生成式AI應(yīng)用政策指南要求以及數(shù)字政府的發(fā)展趨勢,展望未來政府生成式AI的應(yīng)用路徑,有三大方向值得關(guān)注:
一是政府生成式AI應(yīng)用將走向“大模型+小模型”的混合應(yīng)用模式。當(dāng)前政府?dāng)?shù)據(jù)資源開放有限,結(jié)合大模型的強(qiáng)大能力與小模型靈活性強(qiáng)、成本效益高特點(diǎn),有助于政府更高效、安全地利用生成式AI技術(shù)。同時(shí)對小模型的訓(xùn)練數(shù)據(jù)而言,僅僅依靠政府?dāng)?shù)據(jù)資源可能并不能發(fā)揮其應(yīng)用的價(jià)值,對社會(huì)常識(shí)、行政權(quán)力邏輯、公序良俗以及經(jīng)驗(yàn)性知識(shí)等進(jìn)行數(shù)據(jù)微調(diào),實(shí)現(xiàn)人工智能與行政系統(tǒng)的“價(jià)值對齊”,才可能真正成為可用的政府大模型。
二是由于不同階段、不同目的與不同需求,政府機(jī)構(gòu)對生成式AI的用例場景選擇可能存在“個(gè)性化差異”。這不僅存在于單個(gè)政府系統(tǒng)內(nèi)部,也存在不同區(qū)域的政府機(jī)構(gòu)之間,而由于對不同場景的應(yīng)用選擇差異,將最終影響AI時(shí)代的公共服務(wù)、社會(huì)治理與政府決策質(zhì)量,從而影響社會(huì)秩序與民生發(fā)展。
三是如何鞏固AI時(shí)代公眾知情權(quán)成為重要議題。由于生成式AI介入政府運(yùn)行的趨勢無可阻擋,特別是在公文寫作、政策制定、公眾回應(yīng)等方面,由此帶來的問題是,為增強(qiáng)政府運(yùn)行的透明度,未來政府機(jī)構(gòu)應(yīng)采用何種方式對生成式AI參與生成的內(nèi)容進(jìn)行明確與恰當(dāng)?shù)臉?biāo)注,從而鞏固AI時(shí)代的公眾知情權(quán)。