導 語
專家表示,法律應當以鼓勵人工智能產(chǎn)業(yè)發(fā)展為主,要確定大的紅線和負面清單的立法思想。就是考慮到人工智能可能給社會發(fā)展帶來的幾大危害,比如人工智能不能用于詐騙、不能用于數(shù)據(jù)攻擊等。
日前,國務院辦公廳印發(fā)《國務院2023年度立法工作計劃》。其中值得注意的是,人工智能法草案等預備提請全國人大常委會審議,可見我國人工智能領(lǐng)域立法將邁上新臺階。
其實,2017年國務院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》就提出“三步走”的戰(zhàn)略目標,2020年,部分領(lǐng)域的人工智能倫理規(guī)范和政策法規(guī)初步建立。2025年,初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力。2030年,建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。
中國社科院法學所研究員、科技與法研究中心主任、博士生導師楊延超在接受紅星新聞采訪時表示,需要既考慮人工智能風險,又要考慮產(chǎn)業(yè)發(fā)展。人工智能還屬于技術(shù)發(fā)展的初期,不宜將很多問題規(guī)定得過細甚至過嚴。法律還應當以鼓勵產(chǎn)業(yè)發(fā)展為主,要確定大的紅線和負面清單的立法思想。所謂大的紅線和負面清單,就是考慮到人工智能可能給社會發(fā)展帶來的幾大危害,劃定紅線。比如人工智能不能用于詐騙、不能用于數(shù)據(jù)攻擊等。
為什么說人工智能立法條件已經(jīng)成熟?
過去幾年,我國人工智能領(lǐng)域建章立制已經(jīng)起步。2022年3月1日開始實施的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》(以下簡稱“算法推薦管理規(guī)定”)中,生成合成類算法被列為五大類算法推薦技術(shù)之一(生成合成類、個性化推送類、排序精選類、檢索過濾類、調(diào)度決策類),受到監(jiān)管。
2023年1月1日開始實施的《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》(以下簡稱“深度合成管理規(guī)定“)中,將深度合成作為算法服務種類中高風險的算法率先立法監(jiān)管,進一步加強了對該領(lǐng)域的監(jiān)管力度。
為了進一步推動人工智能領(lǐng)域的規(guī)范和發(fā)展,國家互聯(lián)網(wǎng)信息辦公室于2023年4月11日發(fā)布了《生成式人工智能服務管理辦法(征求意見稿)》。
綜合以上三份文件,隨著算法和人工智能技術(shù)的發(fā)展,我國對其治理也形成了“算法治理——深度合成治理——生成式人工智能治理”的迭代路徑。
中國社科院法學所研究員、科技與法研究中心主任、博士生導師楊延超教授長期研究人工智能立法問題。在楊延超看來,以上幾部管理辦法的出臺,體現(xiàn)的是隨著人工智能技術(shù)的進步,立法工作也進步。
楊延超解釋,最開始出臺的推薦算法相關(guān)規(guī)則是因為很多平臺通過算法來提升服務,使用用戶畫像來計算用戶偏好,用戶不需要檢索,平臺就會自動推薦相關(guān)內(nèi)容。推薦算法得到廣泛應用以后,最先出臺的便是關(guān)于推薦算法的管理規(guī)則。后來又出現(xiàn)了深度合成技術(shù),包括“換臉”技術(shù)等,可以生成語音、圖像。這個過程也引發(fā)了人們對于權(quán)利的思考,包括是否會侵犯人身權(quán)等問題,所以出臺了深度合成的管理規(guī)則。今年年初,ChatGPT這種生成式人工智能引發(fā)了一系列挑戰(zhàn),而且目前各個領(lǐng)域都在用大模型來完成生成式人工智能,生成文字、圖像,甚至代碼、視頻,可以看到人工智能已經(jīng)具備了一定的資料整合、推理、邏輯分析的能力,這是過去人才具備的能力,所以會產(chǎn)生個人隱私、數(shù)據(jù)安全、知識產(chǎn)權(quán)保護等一系列問題。出于對這些問題的擔憂,又開始制定生成式人工智能的管理規(guī)則。這是一個技術(shù)與法律進化的脈絡。
之所以在今年提出要把人工智能法草案納入立法計劃,楊延超表示,是因為人工智能技術(shù)經(jīng)過了多年的積累,今年得到了爆發(fā)式的增長。在整個技術(shù)產(chǎn)業(yè)中,大模型成為了一種突破,在此之前,某些局部領(lǐng)域,小模型解決了一定問題,但處在技術(shù)瓶頸中。這一次大模型的發(fā)展,帶來了全新的可以實現(xiàn)的能力。OpenAI的試驗讓人們看到,大模型時代AI產(chǎn)生了類人的能力。在這么一個特殊的時期,立法者、管理者在思考產(chǎn)業(yè)發(fā)展的同時,也會考慮到相應的風險,通過把規(guī)則制定出來,保證行業(yè)健康發(fā)展。
楊延超表示,過去我國已經(jīng)制定的法律包括《個人信息保護法》《數(shù)據(jù)安全法》,以及上述關(guān)于推薦算法、深度合成的部門規(guī)章,還有智能駕駛相關(guān)規(guī)定,都成為人工智能立法的前期積累。
對外經(jīng)濟貿(mào)易大學數(shù)字經(jīng)濟與法律創(chuàng)新研究中心執(zhí)行主任張欣在接受紅星新聞采訪時表示,上述幾部法律規(guī)范雖然時間上有先后,但不是一個線性發(fā)展的過程,人工智能法草案其實早有籌備,并且一直在推動,在部門規(guī)章層面這種小切口的立法有較快推進。
張欣也提出,目前對于人工智能的立法,各方面的條件已經(jīng)成熟,已經(jīng)在次一層級有了一些低位階的立法,這對上位階的立法已經(jīng)有了一定規(guī)范基礎。另一方面,公眾的數(shù)字素養(yǎng)和對立法需求的認知,包括科技企業(yè)的合規(guī)意識,還有相關(guān)的技術(shù)標準和倫理等有了一定完善。在整個制度基礎層面,人工智能法立法的基礎已經(jīng)比較成熟。
立法困難何在?
人工智能技術(shù)還處于發(fā)展初期,挑戰(zhàn)重重
楊延超認為,目前立法的困難在于,人們對于人工智能技術(shù)的規(guī)律還不能說有很好的掌握,仍然處于探索期。對于人工智能技術(shù)可能產(chǎn)生什么樣的風險,還需要總結(jié)和摸索,甚至出現(xiàn)了一些破壞性案例以后才能逐步完善。所以目前的立法只能是相對原則性的立法。
“各個法律法規(guī)之間配套是一個比較大的挑戰(zhàn)?!睆埿勒f,比如在法律層面,數(shù)據(jù)平臺和算法與人工智能密不可分。之前已經(jīng)有了個人信息保護法、電子商務法、網(wǎng)絡安全法、數(shù)據(jù)安全法等,這些法律和即將制定的人工智能法之間的關(guān)系是怎么樣的,它的匹配是怎么樣的,需要進一步考慮。第二個挑戰(zhàn)是,目前我國已經(jīng)在次一級的立法,比如部門規(guī)章、行政法規(guī)等層面已經(jīng)有了一些立法的基礎,在做更高位階的基礎性法律時,如何和下面的這些已有的法律規(guī)范進行匹配。
張欣說,第三個挑戰(zhàn)在于人工智能領(lǐng)域變化非???,尤其是技術(shù)發(fā)展,生成式人工智能的出現(xiàn)。比如,歐盟的《人工智能法案》,制定的時候如果沒有ChatGPT出現(xiàn),它可能不會是今天的這么一個迅速改動的面貌,可能基本上已經(jīng)通過了。但因為ChatGPT的出現(xiàn),打亂了它制定的節(jié)奏。從歐盟《人工智能法案》的制定就能看出,人工智能領(lǐng)域立法的滯后性越來越明顯。因此,不管對于我國還是其他國家,人工智能立法既做到包容審慎,又給科技創(chuàng)新留下比較充足的彈性空間,能夠具有一定前瞻性難度非常大。這可能需要立法技術(shù)上,包括立法制度上有一個開放、動態(tài)的彈性空間。
立法需要關(guān)注什么?
人工智能涉及面廣,需關(guān)注算力、算法、數(shù)據(jù)
人工智能會涉及到生產(chǎn)生活的方方面面,比如內(nèi)容治理、數(shù)據(jù)保護、知識產(chǎn)權(quán)、智能駕駛等,也有人工智能技術(shù)開發(fā)中的技術(shù)倫理,人工智能應用、服務中可能產(chǎn)生的侵權(quán)問題等。是否這部法律也會像一個法典一樣龐大?人工智能法草案會有哪些內(nèi)容是必備的?
楊延超表示,人工智能在各個領(lǐng)域都有表現(xiàn),比如無人駕駛、知識產(chǎn)權(quán)、金融等,在每個領(lǐng)域表現(xiàn)出來的法律關(guān)系、權(quán)利義務、法律責任都不同。立法的過程大概率會從部門法中產(chǎn)生的問題進行逐步梳理總結(jié)。
楊延超舉例,比如在無人駕駛領(lǐng)域,產(chǎn)生的法律規(guī)則已經(jīng)非常復雜,但是它的特點與生成式人工智能不同,需要做的是對傳統(tǒng)交通法規(guī)的變更,過去駕駛員變成了機器,這里面對于交通事故過錯責任、侵權(quán)責任的理解都會產(chǎn)生根本性變化。其他領(lǐng)域也是如此,立法應該在細分的領(lǐng)域有深耕細作,然后抽象出來做法典化升級。
張欣也認為,參照個人信息保護法、網(wǎng)絡安全法。人工智能法作為一個基礎性的法律,可能不會像歐盟的《人工智能法案》一樣那么長;可能就人工智能的用戶,服務的提供者、開發(fā)者、部署者,這些主體的權(quán)利義務責任理清楚,而不會像一個法典那么龐大。
那么人工智能立法應該有哪些必備內(nèi)容?楊延超表示,不論什么領(lǐng)域的人工智能立法,都離不開人工智能三個要素的規(guī)定和三個原則的考量。所謂三要素就是:算力、算法、數(shù)據(jù),因為不管解決什么樣的人工智能問題都離不開這三個要素。所謂三個原則就是:產(chǎn)業(yè)發(fā)展、權(quán)利保護、倫理考量,制定的法律要保護人的權(quán)利要經(jīng)得起現(xiàn)代人倫理的考慮,還要能夠促進產(chǎn)業(yè)的發(fā)展。
如何處理好風險與發(fā)展的關(guān)系?
專家建議劃定紅線:人工智能不能用于詐騙、數(shù)據(jù)攻擊
制定法律如何既規(guī)避亂象,又不限制技術(shù)發(fā)展,實現(xiàn)良法善治?楊延超表示,這就要既考慮人工智能風險,又要考慮產(chǎn)業(yè)發(fā)展。因為目前還屬于技術(shù)發(fā)展的初期,不宜將很多問題規(guī)定得過細甚至過嚴。整部法律還應當以鼓勵產(chǎn)業(yè)發(fā)展為主,要確定大的紅線和負面清單的立法思想。所謂大的紅線和負面清單就是考慮到人工智能可能給社會發(fā)展帶來的幾大危害,劃定紅線。比如人工智能不能用于詐騙、數(shù)據(jù)攻擊等。劃好紅線,任何產(chǎn)業(yè)發(fā)展不能逾越。這樣既給了產(chǎn)業(yè)發(fā)展極大空間,又保障了人類社會基本安全不會受到侵犯。
張欣表示,人工智能治理一方面要進行敏捷治理,同時又要保證治理具有韌性。在提出這個治理架構(gòu)和目標之后,要依靠一系列的治理工具將它落地,比如在人工智能領(lǐng)域中,算法影響評估、算法認證、算法審計等都是非常好的治理工具。有了這些工具之后就可以保證它跟這些技術(shù)的發(fā)展是不斷同態(tài)調(diào)整的,這是一個持續(xù)動態(tài)調(diào)整和調(diào)優(yōu)的過程。在人工智能領(lǐng)域當中,不管是進行立法,還是在整個治理過程中,需要依賴一系列治理工具把它落地。
-
互聯(lián)網(wǎng)
+關(guān)注
關(guān)注
54文章
11077瀏覽量
102631 -
算法
+關(guān)注
關(guān)注
23文章
4592瀏覽量
92520 -
人工智能
+關(guān)注
關(guān)注
1791文章
46691瀏覽量
237179
原文標題:人工智能法納入立法計劃背后:專家建議劃定紅線,設置負面清單
文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論