您當(dāng)前的位置:檢測資訊 > 科研開發(fā)
嘉峪檢測網(wǎng) 2024-04-21 12:41
2023年8月31日,我國首批通過《生成式人工智能服務(wù)管理暫行辦法》備案的百度文心一言、抖音云雀大模型、百川智能、紫東太初、商湯商量SenseChat等語言類大模型陸續(xù)向全社會公眾開放服務(wù),標(biāo)志著我國生成式人工智能監(jiān)管正式邁向?qū)嵺`。當(dāng)前,人工智能(AI)的發(fā)展和治理已經(jīng)成為世界大國競爭的焦點。如何在促進創(chuàng)新和保護公眾利益之間取得平衡,如何把握AI監(jiān)管的尺度和強度,是世界各國監(jiān)管機構(gòu)的難題。
一、AI的主要安全風(fēng)險和倫理挑戰(zhàn)
一是AI生成信息的可靠性、準(zhǔn)確性問題。目前,生成式AI模型可能輸出錯誤、不真實的信息是社會各界關(guān)注的核心問題。這一問題被業(yè)界稱為AI的“幻覺”或“事實編造”,直接危害是導(dǎo)致虛假新聞、謠言的傳播,對社會輿論的安全穩(wěn)定帶來極大負(fù)面影響。
二是AI的數(shù)據(jù)安全風(fēng)險。AI的發(fā)展依賴于利用數(shù)據(jù)訓(xùn)練和算法。AI應(yīng)用中,海量的個人信息、個人隱私(如個人生物體征、健康、家庭、出行)等敏感信息被采集、挖掘、利用,個人隱私和信息的保護面臨巨大挑戰(zhàn)。
三是AI大模型的價值觀對齊問題。AI的價值對齊是讓AI系統(tǒng)的行為符合人類的偏好或倫理原則。如果AI系統(tǒng)生成的信息與人類的真實目的、意圖、價值觀不一致,將會給人類帶來災(zāi)難性后果。
四是大語言模型本身的可解釋性問題。可解釋性是對模型如何產(chǎn)生其輸出的深度理解。但在實際應(yīng)用中發(fā)現(xiàn),大語言模型的輸出并不完全是可預(yù)測、可解釋的。大語言模型越來越成為全知全能但卻不可掌控的機器,模型在自主學(xué)習(xí)和自我編程過程中產(chǎn)生了“算法黑箱”,它們究竟學(xué)到了什么以及為何產(chǎn)生特定輸出內(nèi)容,常常是人類(模型的設(shè)計開發(fā)人員)所不能知曉和理解的。這一問題是現(xiàn)階段AI監(jiān)管及治理最大的挑戰(zhàn)。
二、域外AI監(jiān)管思路
面對以上已知或可預(yù)測的AI可能帶來的社會風(fēng)險,目前全球主要存在兩種不同的監(jiān)管路徑。
一種是以美國和英國為代表的輕監(jiān)管路徑。該思路倡導(dǎo)具體應(yīng)用場景和風(fēng)險大小的行業(yè)分散監(jiān)管,聚焦于監(jiān)管AI技術(shù)的使用而非AI技術(shù)本身或整個行業(yè)。英國政府認(rèn)為,AI技術(shù)進化速度極快,需要采取敏捷、迭代性強的監(jiān)管路徑。制定僵硬且嚴(yán)苛的立法可能抑制AI創(chuàng)新,并限制對未來技術(shù)突破進展作出快速響應(yīng)的能力。美國采取了和英國類似的路徑,強調(diào)行業(yè)監(jiān)管和行業(yè)自律相結(jié)合的AI治理路徑。
另一種是以歐盟為代表的強監(jiān)管路徑。歐盟監(jiān)管AI的思路是像監(jiān)管藥品一樣嚴(yán)苛,計劃成立專門的監(jiān)管機構(gòu),AI應(yīng)用需要經(jīng)過嚴(yán)格測試以及上市前的審批。2023年6月14日,歐洲議會高票通過《人工智能法案》草案(以下簡稱《AI法案》)。若后續(xù)成員國投票順利,《AI法案》預(yù)計在2024年生效。該法案將AI系統(tǒng)分為不可接受的風(fēng)險、高風(fēng)險、有限風(fēng)險、輕微風(fēng)險4種類型,并根據(jù)不同的風(fēng)險等級實施不同的限制措施。
從美國和歐盟對AI監(jiān)管的差異可以看到,美國更希望由市場決定監(jiān)管思路,以市場為導(dǎo)向促進AI的創(chuàng)新;歐盟采用了預(yù)防的方法,在傷害出現(xiàn)之前先對其進行監(jiān)管,更加注重安全。
三、歐盟《AI法案》與我國監(jiān)管法規(guī)的對比及啟示
歐盟《AI法案》是現(xiàn)今世界綜合性AI立法探索中最為全面系統(tǒng)的,如果該法案通過并正式實施,可能成為全球首部AI領(lǐng)域的綜合性立法。我們有必要分析研究該法案內(nèi)容,借鑒符合我國國情的監(jiān)管要素,確保我國AI創(chuàng)新發(fā)展與安全的平衡。
(一)分級分類監(jiān)管模式對比
在AI的監(jiān)管模式上,我國和歐盟都提出了分級分類監(jiān)管。歐盟《AI法案》采取橫向監(jiān)管模式,通過劃分4個不同風(fēng)險等級將所有AI技術(shù)和應(yīng)用場景納入監(jiān)管范圍,努力構(gòu)建統(tǒng)一完整的體系化監(jiān)管規(guī)則。針對不可接受風(fēng)險的AI應(yīng)用系統(tǒng),歐盟禁止任何企業(yè)或個人部署。針對高風(fēng)險,歐盟允許相關(guān)主體在履行事前評估等義務(wù)后投放市場或投入使用并進行事中、事后的持續(xù)監(jiān)測。針對有限風(fēng)險,歐盟雖然不要求相應(yīng)主體履行事前評估等義務(wù),但其仍需遵循相應(yīng)的透明度義務(wù)。針對輕微風(fēng)險,相應(yīng)主體則可依據(jù)自由意志部署和使用。
與歐盟不同,我國采取縱向監(jiān)管模式,針對生成式AI技術(shù)、深度合成等技術(shù)領(lǐng)域分別出臺了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》,這些法規(guī)中也都明確提出了分級分類監(jiān)管。
然而,隨著AI技術(shù)不斷發(fā)展,越來越多的關(guān)鍵行業(yè)和領(lǐng)域開始采用AI,我國的縱向監(jiān)管模式可能無法囊括所有新興且高風(fēng)險的AI技術(shù)或應(yīng)用領(lǐng)域(如醫(yī)療診斷、金融風(fēng)險評估、自動駕駛等)。因此,根據(jù)不同行業(yè)和應(yīng)用領(lǐng)域,監(jiān)管部門應(yīng)盡快結(jié)合AI應(yīng)用場景“量體裁衣”,制定差異化的監(jiān)管政策,以促進合理的市場競爭和技術(shù)創(chuàng)新。此外,我國現(xiàn)行AI監(jiān)管法規(guī)存在交叉重疊、執(zhí)法銜接、企業(yè)合規(guī)成本高等問題,這可能導(dǎo)致不公平市場競爭影響AI的創(chuàng)新和發(fā)展。
(二)安全評估舉措和方法對比
歐盟《AI法案》提出了對高風(fēng)險AI算法和模型采取事前評估、檢測、認(rèn)證和全生命周期監(jiān)管的思路。我國采取企業(yè)自評估、監(jiān)管部門安全評估以及算法備案的綜合治理思路。然而,不論是自評估還是監(jiān)管部門評估,我國尚缺乏具體評估規(guī)則指引。
為此,可參考?xì)W盟《AI法案》中提出的CE認(rèn)證義務(wù),在歐盟市場CE是歐盟對產(chǎn)品安全性的強制性認(rèn)證標(biāo)志。《AI法案》自2021年提案起即引入歐盟CE合格認(rèn)證機制,對存在高風(fēng)險的AI產(chǎn)品和服務(wù),經(jīng)評估被認(rèn)證合格后,方可貼上CE認(rèn)證標(biāo)志投入使用。
鑒于此,針對較高風(fēng)險的AI技術(shù)應(yīng)用,我國監(jiān)管部門可考慮在算法及模型備案的基礎(chǔ)上增設(shè)符合我國國情的安全認(rèn)證機制,這有助于健全我國AI市場信任機制,促使企業(yè)開發(fā)可信任的AI,促進我國AI產(chǎn)業(yè)健康發(fā)展。
(三)未成年人、弱勢群體保護的對比
歐盟《AI法案》提出了諸多關(guān)于弱勢群體保護的要求,將AI可能會傷害未成年人、精神或身體殘疾人心理健康的算法模型全部禁止,并附以4000萬歐元或全球年總營收額7%的超嚴(yán)懲罰機制。
我國《生成式人工智能服務(wù)管理暫行辦法》規(guī)定,人工智能技術(shù)提供者采取有效措施防止產(chǎn)生性別、年齡、健康等歧視;不得危害他人身心健康,提供者應(yīng)當(dāng)采取有效措施防范未成年人用戶過度依賴或者沉迷生成式AI服務(wù)等明文要求。但是,這些條款具有原則性倡導(dǎo)的性質(zhì),缺乏更為細(xì)化的指引和更為明確的、嚴(yán)格的懲罰機制加以保障。
在未來我國的AI立法中,應(yīng)更多關(guān)注弱勢群體保護問題,制定可操作性強的懲罰機制得以保障的條款,切實防范弱勢群體心理和身體受到傷害。
(四)堅持源頭治理,加強數(shù)據(jù)安全管理
AI大模型的發(fā)展與進步依賴海量數(shù)據(jù),數(shù)據(jù)的規(guī)模、均衡程度以及標(biāo)注的準(zhǔn)確性都會影響大模型輸出內(nèi)容的質(zhì)量,低質(zhì)量的數(shù)據(jù)可能會在算法決策中導(dǎo)致不安全的結(jié)果。無論是歐盟《AI法案》,還是我國《生成式人工智能服務(wù)管理暫行辦法》,都對訓(xùn)練數(shù)據(jù)的合法性、真實性、準(zhǔn)確性、客觀性、多樣性提出了要求。
但依據(jù)實踐來看,企業(yè)在開展模型預(yù)訓(xùn)練時是否保證數(shù)據(jù)來源合法,是否采取了有效措施保障訓(xùn)練數(shù)據(jù)的真實性、準(zhǔn)確性、客觀性,以及個人信息是否已得到主體的知情同意后獲得,在核實方面難以操作。一旦出現(xiàn)侵權(quán)違法事件,受害者舉證難度大。因此,關(guān)于數(shù)據(jù)合法來源的監(jiān)管,仍需在未來的實踐中不斷探索行之有效的舉措和方案。
來源:《中國認(rèn)證認(rèn)可》雜志 2024年第1期
來源:中國認(rèn)證認(rèn)可