國(guó)家網(wǎng)信辦等七部門(mén)日前正式發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,該辦法于8月15日正式施行。
怎么理解生成式人工智能,該管理辦法有什么關(guān)鍵之處。我們請(qǐng)來(lái)“紅衣教主——三六零集團(tuán)董事長(zhǎng)周鴻祎,為您一一講解。
(資料圖片僅供參考)
首先我們了解一下生成式人工智能和政策背景:
1、不容錯(cuò)過(guò)的AI 2.0
生成式人工智能,即AI Generated Content,是指利用人工智能技術(shù)來(lái)生成內(nèi)容,它被認(rèn)為是繼PGC、UGC之后的新型內(nèi)容創(chuàng)作方式。
近來(lái)火爆出圈的ChatGPT等應(yīng)用就屬于AIGC范疇,也意味著人工智能正式從1.0時(shí)代邁入2.0時(shí)代。創(chuàng)新工場(chǎng)董事長(zhǎng)李開(kāi)復(fù)曾斷言,AI 2.0是絕對(duì)不能錯(cuò)過(guò)的一次革命,它會(huì)是一個(gè)平臺(tái)級(jí)別的趨勢(shì),超過(guò)移動(dòng)互聯(lián)網(wǎng)10倍。
2、政策迅速跟上
自2022年底以來(lái),生成式人工智能技術(shù)迎來(lái)快速發(fā)展期,今年4月11日,國(guó)家互聯(lián)網(wǎng)信息辦公室公布《生成式人工智能服務(wù)管理辦法》征求意見(jiàn)稿,7月10日七部門(mén)正式公布《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱(chēng)“《辦法》”)。
可見(jiàn),從技術(shù)出現(xiàn)到意見(jiàn)征求再到辦法落地,僅用不到八個(gè)月的時(shí)間。
《辦法》旨在促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,維護(hù)國(guó)家安全和社會(huì)公共利益,保護(hù)公民、法人和其他組織的合法權(quán)益。
周鴻祎帶您讀《辦法》:
1、《辦法》對(duì)AI行業(yè)可能帶來(lái)什么影響?
《辦法》明確了適用邊界,既能夠規(guī)范大模型的公眾服務(wù),同時(shí)也有利于組織機(jī)構(gòu)的研發(fā)和應(yīng)用。
我認(rèn)為,大模型未來(lái)真正的發(fā)展機(jī)會(huì)就是企業(yè)級(jí)市場(chǎng)。產(chǎn)業(yè)數(shù)字化戰(zhàn)略背景下,大模型作為工業(yè)革命級(jí)的生產(chǎn)力工具,應(yīng)當(dāng)幫助傳統(tǒng)產(chǎn)業(yè)特別是制造業(yè)實(shí)現(xiàn)數(shù)字化轉(zhuǎn)型到智能化升級(jí)。
2、《辦法》實(shí)施會(huì)對(duì)現(xiàn)有AI大模型的服務(wù)造成什么影響?
與征求意見(jiàn)稿相比,《辦法》中增加了“鼓勵(lì)各行業(yè)、各領(lǐng)域的創(chuàng)新應(yīng)用”,支持行業(yè)組織機(jī)構(gòu)開(kāi)展協(xié)作;增加了“推動(dòng)基礎(chǔ)設(shè)施和公共平臺(tái)建設(shè)”、“促進(jìn)算力共享”、“推動(dòng)公共數(shù)據(jù)開(kāi)放”等內(nèi)容,表明了有關(guān)部門(mén)鼓勵(lì)創(chuàng)新,支持大模型發(fā)展的態(tài)度,為科技企業(yè)創(chuàng)新提供了信心和保障。
3、對(duì)生成式AI的監(jiān)管,是會(huì)助推其發(fā)展,還是帶來(lái)挑戰(zhàn)?
《辦法》針對(duì)大模型生成式的特點(diǎn),遵循“促進(jìn)創(chuàng)新和依法治理相結(jié)合的原則”,有關(guān)部門(mén)的監(jiān)管方式非常先進(jìn),將有效助推生成式人工智能的發(fā)展。
4、生成式人工智能服務(wù)提供商和開(kāi)發(fā)者需要注意的主要責(zé)任和義務(wù)是什么?
《辦法》強(qiáng)調(diào)提供者應(yīng)當(dāng)依法承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任,履行網(wǎng)絡(luò)信息安全義務(wù),對(duì)此我對(duì)此表示認(rèn)同。
大模型是數(shù)字化的頂峰,同樣是把“雙刃劍”,帶來(lái)生產(chǎn)力提升的同時(shí)存在安全風(fēng)險(xiǎn),包括網(wǎng)絡(luò)安全、數(shù)據(jù)安全、算法安全和生成內(nèi)容安全。
比如算法攻擊有可能致使大模型淪為犯罪工具,協(xié)助黑客寫(xiě)攻擊代碼或釣魚(yú)郵件。此外,大模型存在“幻覺(jué)”問(wèn)題,會(huì)“胡說(shuō)八道”,難以確保生成內(nèi)容符合法律法規(guī)和倫理道德。
未來(lái)人工智能會(huì)跟整個(gè)數(shù)字化系統(tǒng)緊密結(jié)合,需要從現(xiàn)在開(kāi)始關(guān)注和探索AI安全的解決之道。
關(guān)鍵詞: