近來,隨著生成式人工智能(AIGC)的快速發(fā)展,其帶來的安全治理問題成為業(yè)界關(guān)注的焦點。
今年7月,國家網(wǎng)信辦等七部門聯(lián)合公布《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《辦法》),自2023年8月15日起施行。9月11日,2023年國家網(wǎng)絡(luò)安全宣傳周(以下簡稱“網(wǎng)安周”)在福建福州正式開幕。開幕式當天舉行的網(wǎng)絡(luò)安全技術(shù)高峰論壇聚焦“人工智能發(fā)展與治理”主題,論壇結(jié)合新實施的《辦法》,展開討論。
生成式人工智能技術(shù)具有哪些特性、給人工智能(AI)安全治理帶來了哪些新挑戰(zhàn)?目前監(jiān)管、廠商各方在人工智能安全治理方面有哪些思考和探索?央廣網(wǎng)記者就此采訪了行業(yè)專家和企業(yè)技術(shù)人員。
AIGC安全治理挑戰(zhàn)何在?
今年6月,夏季達沃斯論壇發(fā)布的《2023年十大新興技術(shù)報告》指出,生成式人工智能是一種通過學(xué)習(xí)大規(guī)模數(shù)據(jù)集生成新的原創(chuàng)內(nèi)容的新型人工智能,在2022年底因ChatGPT發(fā)布而引起了公眾廣泛關(guān)注。
自2022年12月ChatGPT面世以來,生成式人工智能技術(shù)迅速掀起了一場科技浪潮,吸引國內(nèi)外企業(yè)紛紛入局。高通公司近日發(fā)布的人工智能白皮書顯示,據(jù)不完全統(tǒng)計,自2022年11月至今,國內(nèi)已發(fā)布79個10億參數(shù)規(guī)模以上的大模型,且新的大模型還在不斷發(fā)布,數(shù)量持續(xù)增長。
中央網(wǎng)信辦網(wǎng)絡(luò)安全協(xié)調(diào)局局長高林指出,技術(shù)為經(jīng)濟社會發(fā)展帶來新機遇的同時,也伴生了傳播虛假信息、侵害個人信息權(quán)益、數(shù)據(jù)安全和偏見歧視等一系列問題,如何統(tǒng)籌生成式人工智能發(fā)展和安全是各界關(guān)注的問題。
中國新一代人工智能發(fā)展戰(zhàn)略研究院首席經(jīng)濟學(xué)家、南開大學(xué)數(shù)字經(jīng)濟研究中心主任劉剛在接受央廣網(wǎng)記者采訪時指出,生成式人工智能存在的風險一方面體現(xiàn)在生成的內(nèi)容可能存在個人隱私泄露、虛假信息宣傳,乃至危害國家安全的風險。另一方面,基于生成式人工智能的交互性,使用者使用生成式人工智能技術(shù)時存在主觀誘導(dǎo)的風險。
在今年網(wǎng)安周博覽會上,多款人工智能大模型產(chǎn)品亮相。其中,螞蟻集團對外發(fā)布了大模型安全一體化解決方案“蟻天鑒”,它包含了大模型安全檢測平臺“蟻鑒”、大模型風險防御平臺“天鑒”,擁有AIGC安全性和真實性評測、大模型智能化風控、AI魯棒和可解釋性檢測等多項功能。
螞蟻集團資深安全技術(shù)專家李陽告訴央廣網(wǎng)記者,相比于傳統(tǒng)UGC(用戶生產(chǎn)內(nèi)容),AIGC(生成式人工智能)技術(shù)存在高時效、強交互,創(chuàng)作速度快、知識面廣、且能批量生產(chǎn)等特點,從而帶來系統(tǒng)防護時間短、不法分子作惡成本低等挑戰(zhàn)。
而對于如何規(guī)避上述挑戰(zhàn),李陽指出,一方面構(gòu)建提問意圖理解分類模型,多輪次提問護欄能力,提升領(lǐng)域、話題、意圖、風險方面的效果,這里對算法提出了很高的要求;另外一方面構(gòu)建自適應(yīng)防御的融合決策,實現(xiàn)基于內(nèi)容、主體、行為、環(huán)境四維信息的異常發(fā)現(xiàn)惡意攻擊;最后針對大模型訓(xùn)練數(shù)據(jù)的處理,“以我們內(nèi)部要求來說,需要實現(xiàn)日均百億級數(shù)據(jù)的處理,以保證模型迭代時效”。
他表示,大模型安全問題的本源可歸為三類,即訓(xùn)練數(shù)據(jù)源頭有毒、推理過程本身不可控、外部的惡意誘導(dǎo)。并由此推出解決思路,即首先需要一個測評工具,檢測出大模型是否存在問題、存在什么問題;再者,如何處理大模型訓(xùn)練中出現(xiàn)的有毒數(shù)據(jù)、能否通過算法讓大模型在訓(xùn)練和推理過程中更可控。
AIGC迎來發(fā)展規(guī)范
據(jù)國家網(wǎng)信辦介紹,近年來,生成式人工智能技術(shù)快速發(fā)展,為經(jīng)濟社會發(fā)展帶來新機遇的同時,也產(chǎn)生了傳播虛假信息、侵害個人信息權(quán)益、數(shù)據(jù)安全和偏見歧視等問題,如何統(tǒng)籌生成式人工智能發(fā)展和安全引起各方關(guān)注。出臺《辦法》,既是促進生成式人工智能健康發(fā)展的重要要求,也是防范生成式人工智能服務(wù)風險的現(xiàn)實需要。
國家計算機網(wǎng)絡(luò)與信息安全管理中心高級工程師張震在署名文章中指出,《辦法》充分結(jié)合生成式人工智能特性,提出相應(yīng)管理要求。針對生成式人工智能應(yīng)用場景所具有的通用性,以及生成式人工智能具有的價值觀屬性和可引導(dǎo)性,《辦法》分別從生成內(nèi)容、算法設(shè)計過程及監(jiān)管方式等方面提出要求。
例如,《辦法》第四條規(guī)定,提供和使用生成式人工智能服務(wù),“堅持社會主義核心價值觀,不得生成煽動顛覆國家政權(quán)、推翻社會主義制度,危害國家安全和利益、損害國家形象,煽動分裂國家、破壞國家統(tǒng)一和社會穩(wěn)定,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情,以及虛假有害信息等法律、行政法規(guī)禁止的內(nèi)容”“在算法設(shè)計、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中,采取有效措施防止產(chǎn)生民族、信仰、國別、地域、性別、年齡、職業(yè)、健康等歧視”“尊重知識產(chǎn)權(quán)、商業(yè)道德,保守商業(yè)秘密,不得利用算法、數(shù)據(jù)、平臺等優(yōu)勢,實施壟斷和不正當競爭行為”。
劉剛對央廣網(wǎng)記者表示,《辦法》針對生成式人工智能在使用中可能會出現(xiàn)的道德風險、隱私安全問題、社會公共安全等進行了預(yù)防和規(guī)范。
劉剛同時指出,“大模型的應(yīng)用是非常重要的,規(guī)范是為了讓它更好地發(fā)展。應(yīng)用過程中,使它服務(wù)于人類社會的進步,同時及時發(fā)現(xiàn)問題并正確引導(dǎo)?!?
國家網(wǎng)信辦指出,《辦法》提出國家堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結(jié)合的原則,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,對生成式人工智能服務(wù)實行包容審慎和分類分級監(jiān)管。
“發(fā)展可信安全的生成式人工智能已成為全球共識。發(fā)展與安全是一體兩翼、辯證統(tǒng)一的關(guān)系,安全為生成式人工智能發(fā)展提出規(guī)范要求,同時也是其被市場應(yīng)用、社會接受的基礎(chǔ)。”上海人工智能實驗室主任助理、教授喬宇指出。
來源:央廣網(wǎng)