近期,隨著ChatGPT的爆火,掀起了新一輪生成式人工智能(AIGC)的熱潮,也引發(fā)了社會各界對于該領(lǐng)域規(guī)范發(fā)展與治理問題的廣泛關(guān)注。4月11日,為促進(jìn)生成式人工智能技術(shù)健康發(fā)展和規(guī)范應(yīng)用,國家互聯(lián)網(wǎng)信息辦公室起草了《生成式人工智能服務(wù)管理辦法(征求意見稿)》(下稱《征求意見稿》)?!墩髑笠庖姼濉访鞔_提出,提供AIGC產(chǎn)品或服務(wù)應(yīng)當(dāng)遵守法律法規(guī)的要求,尊重社會公德、公序良俗,并明確了AIGC服務(wù)的提供者需要承擔(dān)的各項義務(wù)和責(zé)任。
(資料圖片)
《征求意見稿》的發(fā)布意味著,我國第一時間對AIGC技術(shù)創(chuàng)新應(yīng)用及相關(guān)產(chǎn)品開發(fā)有針對性地納入法治化治理架構(gòu),樹牢“安全是發(fā)展的前提”這一底線思維,明確為新技術(shù)、新產(chǎn)業(yè)、新業(yè)態(tài)的發(fā)展指明合規(guī)發(fā)展的主線,但與此同時,其中還存在可進(jìn)一步討論之處,如何更好地設(shè)計規(guī)則,以統(tǒng)籌安全與發(fā)展的關(guān)系尤為重要,在夯實安全發(fā)展的基礎(chǔ)之上,給予創(chuàng)新發(fā)展以可容、可信、可控的制度環(huán)境,以高質(zhì)量的制度型開放為我國人工智能技術(shù)和產(chǎn)業(yè)的彎道超車,提供科學(xué)有力、堅實堅定的制度支撐,釋放創(chuàng)新是發(fā)展第一動力的明確信號。基于此,就《征求意見稿》相關(guān)條款的理解和建議,敬陳管見。
第一,《征求意見稿》第六條規(guī)定的安全評估,算法備案和變更、注銷備案手續(xù)等事前審查規(guī)定是有意義且有必要的,但是需要注意事前審查的方式方法,避免不合理地增加企業(yè)的負(fù)擔(dān)。
任何技術(shù)都是一把雙刃劍。AIGC產(chǎn)品作為高度智慧化的人工智能形態(tài),帶給人類社會的便捷與風(fēng)險同在,應(yīng)勇敢審慎地應(yīng)對接受新科技浪潮的洗禮。《征求意見稿》增加事前審查,不僅可以提升利用AIGC產(chǎn)品向公眾提供服務(wù)的合法性,增加其安全、可靠、可解釋、可問責(zé)等可信性,還有助于更好地實現(xiàn)AI產(chǎn)品和技術(shù)適用的包容性,更好地預(yù)防風(fēng)險,保障安全,及時發(fā)現(xiàn)其運作程序、服務(wù)內(nèi)容所存在的問題,從而提高AIGC產(chǎn)品向公眾提供服務(wù)的可接受性。
建議進(jìn)一步明確事前審查的范圍以及方式方法。由于事前審查會在一定程度上增加企業(yè)的合規(guī)成本,若事前審查范圍設(shè)置不當(dāng),可能會抑制AIGC產(chǎn)品的研發(fā)與訓(xùn)練效能,客觀上會導(dǎo)致AIGC發(fā)展的降速。因此,需注意事前審查的方式方法可能對企業(yè)經(jīng)營產(chǎn)生的影響,譬如企業(yè)未經(jīng)審查之前,是否能夠發(fā)布相關(guān)產(chǎn)品,若不能,事前審查所需要的時間是否會不當(dāng)?shù)刈璧K企業(yè)的正常經(jīng)營行為等。
第二,《征求意見稿》第五條針對責(zé)任主體方面進(jìn)行了細(xì)化規(guī)定,AIGC產(chǎn)品提供者承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任,該規(guī)定是對人工智能追責(zé)體系的補(bǔ)充和完善,但也需考慮到提供者對人工智能產(chǎn)品控制力度的有限性,否則可能會導(dǎo)致提供者責(zé)任的承擔(dān)范圍會被不合理地放大,建議進(jìn)一步明確提供者的免責(zé)事由。
AIGC產(chǎn)品提供者承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任,這里實際上需要關(guān)注的重點在于對生成內(nèi)容生產(chǎn)者的認(rèn)定。如果AIGC產(chǎn)品提供者是生成內(nèi)容的生產(chǎn)者,這里的生產(chǎn)者即應(yīng)對生成內(nèi)容的過程、具體數(shù)據(jù)信息的真實性、算法使用的適當(dāng)性等整個生成過程負(fù)責(zé),那么當(dāng)然需要對其承擔(dān)責(zé)任。該規(guī)定是對AIGC產(chǎn)品提供者通常是平臺主體應(yīng)該盡到高度注意義務(wù)的規(guī)定,在一定程度上講,也只有課以AIGC產(chǎn)品提供者相應(yīng)的責(zé)任義務(wù),才能更好對生成內(nèi)容的合法合規(guī)做出要求。
建議參照“安全港”制度合理設(shè)置平臺承擔(dān)責(zé)任的范圍,明確提供者免責(zé)事由。如果平臺盡到相應(yīng)注意義務(wù),在責(zé)任的承擔(dān)上,鑒于其對創(chuàng)新發(fā)展的貢獻(xiàn),不宜施加其嚴(yán)格責(zé)任,否則不利于技術(shù)的開發(fā)和未來商用。另外,關(guān)于運營公司是否需要承擔(dān)相應(yīng)的補(bǔ)充責(zé)任,應(yīng)綜合考慮侵權(quán)范圍、損害程度以及平臺避免損失擴(kuò)大的能力。
第三,《征求意見稿》第十七條規(guī)定,提供者應(yīng)當(dāng)根據(jù)要求提供可以影響用戶信任、選擇的必要信息。該規(guī)定實際上是對AIGC算法的可解釋性提出了新的要求,使隱私權(quán)、個人信息的保護(hù)不再僅局限于被動的事后救濟(jì),保護(hù)鏈條前移,更加積極有效地規(guī)范AI訓(xùn)練過程,有助于增強(qiáng)用戶信任,使AIGC產(chǎn)品更好發(fā)展。
建議進(jìn)一步細(xì)化對提供者公開信息的范圍和限度。對可解釋的要求不能過于苛刻或過度放大,應(yīng)當(dāng)進(jìn)一步規(guī)定對信息公開的程度和限度,避免提出不合理要求使AIGC算法的關(guān)鍵信息被迫公開,導(dǎo)致企業(yè)的技術(shù)機(jī)密泄露,對企業(yè)創(chuàng)新發(fā)展產(chǎn)生不可挽回的損失。
第四,《征求意見稿》第十五條規(guī)定,對發(fā)現(xiàn)和被舉報生成內(nèi)容,除采取內(nèi)容過濾等措施外,應(yīng)在3個月內(nèi)通過模型優(yōu)化訓(xùn)練等方式防止再次生成。該規(guī)定針對AIGC的關(guān)鍵問題,對癥下藥,豐富和完善了對AIGC違規(guī)的處理方式。
建議優(yōu)化完善驗證整改優(yōu)化的方式方法。整改優(yōu)化的結(jié)果驗證應(yīng)落實于技術(shù)實踐,在尊重技術(shù)實踐及規(guī)律的基礎(chǔ)上,輔之以監(jiān)管保障,鼓勵和支持平臺探索創(chuàng)新并優(yōu)化技術(shù)實現(xiàn)路徑。為此,在設(shè)定技術(shù)運用的基本門檻之上,落實于實踐試用,加之定期和不定期的監(jiān)測,保證其整改優(yōu)化結(jié)果的安全性與可信度。在優(yōu)化整改后,可通過人工測試模擬運行、“監(jiān)管沙盒”以及設(shè)置監(jiān)管過渡期等方式,檢驗整改優(yōu)化后的內(nèi)容生成是否仍存在不符合規(guī)定的生成內(nèi)容。
第五,《征求意見稿》第四條規(guī)定利用生成式AI生成的內(nèi)容應(yīng)該真實準(zhǔn)確。該規(guī)定主要針對目前生成式AI無法保證生成信息的真實性問題,目前生成式AI并不會對生成內(nèi)容的正確性進(jìn)行驗證,這可能會導(dǎo)致一些缺乏專業(yè)知識的人誤將生成內(nèi)容作為正確答案。不過,目前的生成式AI是通過強(qiáng)化學(xué)習(xí)和搜索增強(qiáng)等方式,提升了生成內(nèi)容的邏輯性和可讀性,但并不能像人一樣去辨別內(nèi)容的真實性。
若將生成式AI生成的內(nèi)容應(yīng)該真實準(zhǔn)確作為提供者的義務(wù),目前AI難以自行完成,這意味著,國內(nèi)的生成式AI提供者必須通過人工審核的方式達(dá)成義務(wù)。但是,這在很大程度上會影響生成式AI的運行和生成內(nèi)容的效率,極大降低消費者用戶的體驗,而且也會極大增加企業(yè)的負(fù)擔(dān),花費大量的人力和技術(shù)資源用于審核信息。
生成式AI目前仍主要作為人類工作的輔助工具,用戶仍可以通過指令的方式實現(xiàn)對生成內(nèi)容的控制,而且在多數(shù)場景中,內(nèi)容生成多為私人使用,生成后并不會自動向公眾公開和傳播,因此,對于生成式AI的義務(wù)規(guī)定,仍需要區(qū)分使用場景。
從用戶需求和服務(wù)體驗來看,用戶對于此類工具的使用有隱私和保密方面的需求,人工審查的方式也不利于滿足用戶對于隱私保護(hù)的需求,實際上也對生成式AI的功能產(chǎn)生影響。且從事實層面來看,賦予主體審查義務(wù),必須要考慮該主體對于審查的可控性和技術(shù)實現(xiàn)的可能性,而在現(xiàn)實中,用戶對生成內(nèi)容有直接控制的能力,提供者能夠通過完善算法的方式提升信息生成的準(zhǔn)確率,但無法100%保證真實準(zhǔn)確。
建議將該條款調(diào)整為一種鼓勵式、提倡式的條款,僅對適用于特殊場景的高風(fēng)險生成式AI應(yīng)用施加真實性義務(wù),譬如,有些平臺將生成式AI內(nèi)置在平臺之中,此時生成內(nèi)容會直接進(jìn)行公開傳播,在這種場景下,存在虛假信息傳播的風(fēng)險,且平臺擁有對信息傳播的控制力。2022年9月通過的歐盟《人工智能民事責(zé)任指令》規(guī)定只有高?險的AI應(yīng)?才承擔(dān)嚴(yán)格的責(zé)任。
總體來講,對仍存在較大發(fā)展空間且技術(shù)仍待發(fā)展成熟的領(lǐng)域,立法仍需給予一定的包容空間,不宜超出提供者的能力范圍設(shè)置強(qiáng)制性義務(wù)。以國外領(lǐng)先的ChatGPT為例,其目前也暫時無法確保生成內(nèi)容的真實性,若將此作為生成式AI提供者的義務(wù),無形之間實際上提高了進(jìn)入該市場的門檻,不利于我國生成式AI產(chǎn)業(yè)發(fā)展,也會對我國獲取該領(lǐng)域的國際競爭新優(yōu)勢造成阻礙。
(作者系南開大學(xué)法學(xué)院副院長、教授、博導(dǎo),中國新一代人工智能發(fā)展戰(zhàn)略研究院特約研究員,工信部信息通信科學(xué)技術(shù)委員會委員)
關(guān)于我們| 聯(lián)系方式| 版權(quán)聲明| 供稿服務(wù)| 友情鏈接
咕嚕網(wǎng) m.ulq4xuwux.cn 版權(quán)所有,未經(jīng)書面授權(quán)禁止使用
Copyright©2008-2020 By All Rights Reserved 皖I(lǐng)CP備2022009963號-10
聯(lián)系我們: 39 60 29 14 2@qq.com