0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

詳細(xì)分析人工智能犯罪的理論與立法問題

工業(yè)4俱樂部 ? 來源:cc ? 2019-02-25 10:11 ? 次閱讀

現(xiàn)代技術(shù)發(fā)展所帶來的社會(huì)問題越來越突顯,如何對(duì)技術(shù)進(jìn)行有效控制和反思愈發(fā)成為各個(gè)領(lǐng)域所關(guān)注的重要問題{1}。在互聯(lián)網(wǎng)不斷發(fā)展的基礎(chǔ)上,多功能互動(dòng)、人工智能、虛擬世界、注意力經(jīng)濟(jì)、在線視頻等各方面的科學(xué)技能不斷改進(jìn){2}。特別是近半個(gè)世紀(jì)以來人工智能飛速發(fā)展,帶來一系列的法律問題。在人工智能逐漸完善的過程中,其所涉及的法律問題也開始由民事領(lǐng)域、知識(shí)產(chǎn)權(quán)領(lǐng)域向刑事領(lǐng)域轉(zhuǎn)向。2017年9月22日,紹興市公安機(jī)關(guān)破獲全國首例利用人工智能技術(shù)實(shí)施的“特大侵犯公民個(gè)人信息案”,即“全國首例利用AI犯罪案”,利用人工智能犯罪活動(dòng)已開始在我國出現(xiàn)。但是人工智能犯罪究竟帶來何種新的刑法命題與難題?現(xiàn)有刑法理論又該秉持何種態(tài)度?目前國內(nèi)尚缺乏關(guān)于這一問題的專門研究,一些基本問題亟需厘清,進(jìn)而契合相關(guān)犯罪的治理需要。

一、風(fēng)險(xiǎn)語境下的人工智能

對(duì)社會(huì)風(fēng)險(xiǎn)的權(quán)衡與回應(yīng)始終是刑事立法所需關(guān)切的理論與現(xiàn)實(shí)命題,人工智能技術(shù)的發(fā)展延伸了社會(huì)風(fēng)險(xiǎn)的圖景,也為刑法帶來新的難題。

1.人工智能的發(fā)展與風(fēng)險(xiǎn)

人工智能(Artificial Intelligence,簡稱AI)這一概念的出現(xiàn)一般認(rèn)為可以追溯至1956年。此后,隨著人工智能概念的不斷發(fā)展,學(xué)界也在努力對(duì)其做出精確的界定。較具代表性的是從類人、理性、思維、行為這4個(gè)方面給出的定義。有學(xué)者進(jìn)而認(rèn)為可以從“能力”和“學(xué)科”兩個(gè)方面給出人工智能的解釋:從能力的角度看,人工智能是指用人工的方法在機(jī)器(計(jì)算機(jī))上實(shí)現(xiàn)的智能;從學(xué)科的角度看,人工智能是一門研究如何構(gòu)造智能機(jī)器或智能系統(tǒng),使它能夠模擬、延伸和擴(kuò)展人類智能的學(xué)科{3}。根據(jù)諸多學(xué)者對(duì)于人工智能的界定,人工智能是人為創(chuàng)造的智慧,即在計(jì)算機(jī)或其他設(shè)備上模擬人類思維的軟件系統(tǒng){4}。筆者認(rèn)為,以上界定大都肯定人工智能這一核心內(nèi)涵:即人工智能是基于人類的設(shè)定或要求,通過計(jì)算機(jī)信息系統(tǒng)實(shí)施一定智能行動(dòng)的實(shí)體或程序。

隨著人工智能技術(shù)的發(fā)展和完善,其智能水平和社會(huì)意義也愈發(fā)彰顯。美國國家科學(xué)技術(shù)委員會(huì)、美國網(wǎng)絡(luò)和信息技術(shù)研發(fā)小組委員會(huì)2016年10月公布的《美國國家人工智能研究和發(fā)展戰(zhàn)略計(jì)劃》指出, AI系統(tǒng)在專業(yè)任務(wù)上的表現(xiàn)經(jīng)常勝于人類。AI首次超越人類表現(xiàn)的主要里程碑包括:國際象棋(1997年)、Trivia(2011年)、Atari游戲(2013年)、圖像識(shí)別(2015年)、語音識(shí)別(2015年)和Go(即AlphaGo圍棋,2016年)。人工智能的社會(huì)應(yīng)用也愈發(fā)廣泛,如在醫(yī)療領(lǐng)域、人工智能軟件特別是包含機(jī)器學(xué)習(xí)的軟件、其提供了無需基于規(guī)則編程的數(shù)據(jù)學(xué)習(xí)的能力、可以簡化將微量元素從初始化到市場化的過程{5}。目前其應(yīng)用領(lǐng)域包括博弈、自動(dòng)推理與定理證明、專家系統(tǒng)、自然語言理解、模擬人的性能、規(guī)劃與機(jī)器人、 AI語言和環(huán)境、機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與遺傳算法、AI與哲學(xué)等{6}。我國也正在逐步推廣和應(yīng)用人工智能,其普及和發(fā)展已經(jīng)在相當(dāng)程度上改變著社會(huì)的發(fā)展和人們的認(rèn)知。

但是,人工智能的發(fā)展也伴隨著莫大的風(fēng)險(xiǎn)。如美國自動(dòng)駕駛汽車特斯拉頻頻出事故:2016年5月間,在佛羅里達(dá)的一條高速公路上,一輛開啟了Autopilot模式的特斯拉發(fā)生了車禍,致駕駛員死亡;2016年6月至8月間,特斯拉的自動(dòng)駕駛汽車也屢屢發(fā)生車禍造成車主與其他人員傷亡。2016年9月,央視《法治在線》欄目曝光了特斯拉自動(dòng)駕駛在中國出現(xiàn)首例死亡事故,特斯拉處于“定速”的狀態(tài),并未能識(shí)別躲閃而撞上前車。而2015年7月英國《***》報(bào)道的大眾機(jī)器人“殺人事件”中,大眾承包商的一名工作人員不幸身亡,事發(fā)時(shí)其正與同事一起安裝機(jī)器人,但機(jī)器人卻突然抓住他的胸部,然后把他重重地壓向一塊金屬板,最終導(dǎo)致這名工作人員因傷重不治身亡。新技術(shù)經(jīng)常引起公眾的焦慮,但人工智能進(jìn)步帶來的影響尤為顯著{7}。就人工智能的風(fēng)險(xiǎn),2015年霍金等簽發(fā)***,警告稱在進(jìn)行人工智能研究的同時(shí)必須相應(yīng)地采取防范措施,避免人工智能給人類社會(huì)造成潛在傷害。***指出:在短期內(nèi),人工智能技術(shù)將讓數(shù)百萬人失業(yè)。在長期內(nèi),人工智能可能潛在地讓機(jī)器的智商遠(yuǎn)遠(yuǎn)超過人類,做出違背編程的舉動(dòng)。而在社會(huì)層面,如何從法律特別是刑法角度思考和回應(yīng)上述風(fēng)險(xiǎn)也正是需要思考的問題。

2.人工智能的刑法命題

風(fēng)險(xiǎn)社會(huì)的發(fā)展變遷是現(xiàn)代刑法所必須面對(duì)的社會(huì)現(xiàn)實(shí)。自德國學(xué)者烏爾里希?貝克1986年出版《風(fēng)險(xiǎn)社會(huì)》一書以來,“風(fēng)險(xiǎn)”成為理解和詮釋社會(huì)變遷的一個(gè)關(guān)鍵性概念,“風(fēng)險(xiǎn)社會(huì)”隨之也成為解釋世界的全新范式{8}。在這一過程中,風(fēng)險(xiǎn)社會(huì)的到來無疑對(duì)于刑法理論與實(shí)踐產(chǎn)生了巨大的影響。由于風(fēng)險(xiǎn)的增大和嬗變,風(fēng)險(xiǎn)社會(huì)中公共管理的基本方略發(fā)生了重大變化,根除風(fēng)險(xiǎn)幾乎已經(jīng)不可能,如何防控和分配風(fēng)險(xiǎn)成為社會(huì)管理的新命題,刑事立法與實(shí)踐的導(dǎo)向也因此發(fā)生重大變化。據(jù)此,有學(xué)者提出通過制度規(guī)范適應(yīng)變動(dòng)的社會(huì)是現(xiàn)代社會(huì)的法律傳統(tǒng){9}。而在風(fēng)險(xiǎn)社會(huì)的邏輯支配下,一種新的刑事法律體系和一種新的刑法理論應(yīng)當(dāng)而且必須建立{10}。有學(xué)者已將人工智能的風(fēng)險(xiǎn)延展至風(fēng)險(xiǎn)社會(huì)的范式下予以研究:認(rèn)為人工智能的首要問題是安全問題,可以置于風(fēng)險(xiǎn)社會(huì)理論的研究范疇之中。進(jìn)而指出人工智能時(shí)代的社會(huì)風(fēng)險(xiǎn)具有以下特點(diǎn):一是風(fēng)險(xiǎn)的共生性;二是風(fēng)險(xiǎn)的時(shí)代性;三是風(fēng)險(xiǎn)的全球性{11}。

縱觀世界各國,關(guān)于人工智能法律及相關(guān)規(guī)則體系的探索正在進(jìn)行之中。決策者和學(xué)者正在越來越多地關(guān)注法律和道德秩序如何適應(yīng)愈來愈多的機(jī)器、機(jī)器人和人工智能設(shè)備的問題{12}。立法者、法院和監(jiān)管者都需要思考人工智能是否有任何特殊性以至于需要新的規(guī)則,以及如何以合適的方式介入人工智能新問題{13}。即需要回應(yīng)這樣一個(gè)全新命題——現(xiàn)有的法律條文是否可以應(yīng)付人工智能帶來的全新和技術(shù)復(fù)雜的挑戰(zhàn)?2016年5月,歐盟議會(huì)法律事務(wù)委員會(huì)發(fā)布《就機(jī)器人民事法律規(guī)則向歐盟委員會(huì)提出立法建議的報(bào)告草案》(Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics);同年10月,發(fā)布研究成果《歐盟機(jī)器人民事法律規(guī)則》(European Civil Law Rules in Robotics)。2016年12月,電氣電子工程師學(xué)會(huì)(IEEE)發(fā)布《合倫理設(shè)計(jì):利用人工智能和自主系統(tǒng)最大化人類福祉的愿景》(IEEE Ethically Aligned Design Document Elevates the Importance of Ethics in the Development of Artificial Intelligence and Autonomous Systems),具體包括8大主題,即一般原則、將價(jià)值觀嵌入自主智能系統(tǒng)、指導(dǎo)倫理研究和設(shè)計(jì)的方法論、通用人工智能和超級(jí)人工智能的安全與福祉、個(gè)人數(shù)據(jù)與個(gè)人訪問控制、自主武器系統(tǒng)、經(jīng)濟(jì)和人道主義問題以及法律。在(人工智能)自動(dòng)駕駛領(lǐng)域,2016年3月23日,聯(lián)合國關(guān)于道路交通管理的《維也納道路交通公約》獲得修正;美國道路交通安全管理局(NHTSA)于2013年發(fā)布《自動(dòng)駕駛汽車的基本政策》;德國立法機(jī)構(gòu)2016年對(duì)《德國道路交通條例》所規(guī)定的“駕駛員在車輛行駛過程中全程保持警惕”“駕駛員的手不能離開方向盤”等條文啟動(dòng)立法修正{14}。但是迄今為止,關(guān)于人工智能犯罪的立法還處在探索階段。

與此同時(shí),人工智能犯罪卻已成為必須面對(duì)的現(xiàn)實(shí)問題。2016年荷蘭人Jeffry van der Goot編寫了一個(gè)Twitter木馬程序,借此對(duì)當(dāng)?shù)氐臅r(shí)尚秀發(fā)出死亡威脅。該木馬是一段算法隨機(jī)混入Jeffry個(gè)人Twitter狀態(tài)。Jeffry堅(jiān)稱他無意威脅任何人,也不能預(yù)判木馬會(huì)做什么。最終他沒有受到任何指控,僅是在警方的要求下撤下了該木馬。同年,在全球領(lǐng)先的信息安全系列活動(dòng)Black Hat(黑帽大會(huì))上,美國國防高級(jí)研究計(jì)劃局讓自動(dòng)化系統(tǒng)相互對(duì)抗,找到對(duì)手代碼中的漏洞并利用它們。如果相互對(duì)抗的自動(dòng)化系統(tǒng)指向涉及國家安全等重要領(lǐng)域的計(jì)算機(jī)信息系統(tǒng),那么無疑會(huì)轉(zhuǎn)化成相關(guān)的計(jì)算機(jī)犯罪。而且,我國也出現(xiàn)了人工智能相關(guān)犯罪案件。在“全國首例利用AI犯罪案”中“他們通過運(yùn)用人工智能機(jī)器深度學(xué)習(xí)技術(shù)訓(xùn)練機(jī)器,可以讓機(jī)器如AlphaGo一樣自主操作識(shí)別,有效識(shí)別圖片驗(yàn)證碼,輕松繞過互聯(lián)網(wǎng)公司設(shè)置的賬戶登錄安全策略,給網(wǎng)絡(luò)詐騙、‘黑客’攻擊等網(wǎng)絡(luò)黑產(chǎn)提供犯罪工具。”在我國引入和學(xué)習(xí)人工智能的過程中也不可避免地遇到人工智能犯罪問題,然而對(duì)其如何理解和解決目前還缺乏相關(guān)的研究。

筆者認(rèn)為進(jìn)行人工智能犯罪問題研究的必要性有以下3點(diǎn):第一,信息網(wǎng)絡(luò)犯罪本就存在較大的犯罪黑數(shù)(即未被查證的犯罪數(shù)量),“全國首例利用AI犯罪案”僅是首例被發(fā)現(xiàn)的人工智能犯罪案件,很可能不是首例發(fā)生的人工智能犯罪案件,而且隨著我國人工智能技術(shù)和實(shí)踐的發(fā)展,相關(guān)案件肯定會(huì)愈來愈多,確有必要早關(guān)注、早研究、早治理。第二,人工智能犯罪不僅在內(nèi)容上不同于傳統(tǒng)犯罪和一般的信息網(wǎng)絡(luò)犯罪,而且由于介入了人工智能的判斷與行為,在主體等問題認(rèn)定上為既有刑法理論提出了全新的難題,也必須予以深入研究和探討。第三,在全球網(wǎng)絡(luò)化的今天,跨國家、跨法域犯罪十分普遍,人工智能犯罪往往和計(jì)算機(jī)信息系統(tǒng)和互聯(lián)網(wǎng)關(guān)聯(lián),完全可以由他國主體對(duì)我國主體予以實(shí)施,如果國內(nèi)刑法理論與立法缺乏必要的準(zhǔn)備與實(shí)踐,那么很可能導(dǎo)致無法對(duì)他國主體利用人工智能實(shí)施的犯罪(如前述利用自動(dòng)化系統(tǒng)相互對(duì)抗)予以規(guī)制,從而無法實(shí)現(xiàn)我國《刑法》第八條所規(guī)定的保護(hù)原則。由此,及時(shí)、果斷地進(jìn)行人工智能犯罪研究具有重要的理論和實(shí)踐價(jià)值。

二、人工智能犯罪的理論難題

人工智能犯罪由于人工智能的介入使得其中各個(gè)要素之間的關(guān)系更為復(fù)雜,也對(duì)既有的刑法理論產(chǎn)生較大的沖擊,特別是對(duì)于既有的刑事主體理論提出新的挑戰(zhàn),進(jìn)而延展至罪過理論和行為理論。

1.主體難題:人工智能的刑法地位

人工智能的主體難題是其刑法命題的根本所在。隨著人工智能的發(fā)展,其智能的發(fā)展程度和獨(dú)立性也愈發(fā)突顯。雖然人工智能不免受預(yù)設(shè)程序的要求與目的影響,但是并不意味著人工智能不具有相當(dāng)程度的獨(dú)立性。如“微軟聊天機(jī)器人Tay散布種族主義、性別歧視和攻擊同性戀言論”案件中, Tay是微軟2016年在Twitter上推出的聊天機(jī)器人,僅上線一天, Tay就開始有一些種族歧視之類的偏激言論,微軟不得不緊急關(guān)閉了Tay的Twitter賬號(hào)。Tay的設(shè)計(jì)原理是從對(duì)話交互中進(jìn)行學(xué)習(xí)。于是一些網(wǎng)友開始和Tay說一些偏激的言論,刻意引導(dǎo)她模仿。該案也被稱為“2016年人工智能的10大失敗案例”之一。以我國語境為參照,發(fā)表特定言論可以構(gòu)成犯罪(如散布危害國家安全、恐怖主義、誹謗他人等言論),如果他人誘導(dǎo)人工智能散布相關(guān)言論該如何認(rèn)定?特別是該人工智能是基于自身的“學(xué)習(xí)”并“發(fā)表”以上言論該如何認(rèn)定和處理?

在傳統(tǒng)刑法領(lǐng)域,只有自然人才是刑法規(guī)制的主體。行為是生物的基本特征,在某種意義上可以把行為與生命相提并論,沒有行為也就沒有生命。刑法中的行為,雖然是一種犯罪的行為,應(yīng)當(dāng)受到刑罰處罰,但它仍然具有人的一般行為的特征{15}。刑事古典學(xué)派與刑事近代學(xué)派雖然觀點(diǎn)上大相徑庭,但是其思考起點(diǎn)并無二致,如龍布羅梭的“犯罪認(rèn)定型說”(生來犯罪人論)雖否認(rèn)人具有自由意志,但認(rèn)為犯罪人比起其他非犯罪人較為退化、原始和野蠻,此現(xiàn)象成為隔代遺傳或祖型重現(xiàn){16}。即便是后來的刑法理論也一直秉持自然人作為刑法的首要甚至唯一規(guī)制對(duì)象這一前提,如“新社會(huì)防衛(wèi)論”則在尊重人的價(jià)值與權(quán)利的前提下考慮犯罪人的復(fù)歸,將人視為社會(huì)防衛(wèi)的目的{17}。而刑法的規(guī)制主體如果是機(jī)器人,那么這將面臨兩個(gè)基本的問題:其一,刑法要能保證道德主體的權(quán)利;其二,機(jī)器人應(yīng)該遵守刑法上的義務(wù){(diào)18}。而現(xiàn)階段人工智能顯然不具備自然人的特征,在其世界里只有“0”和“1”構(gòu)成的信息及其處理,不僅在實(shí)施犯罪的前提與依據(jù)上存在障礙,在事后的處罰層面也面臨無從下手的問題。就此而言,人工智能并不能作為傳統(tǒng)體系的適格主體進(jìn)入刑法視野。但同時(shí),如Tay基于自身“學(xué)習(xí)”而后發(fā)表偏激言論的行為卻又在相當(dāng)程度上脫離于設(shè)計(jì)者的意思,該如何對(duì)其主體性予以看待仍有待思考和研究。

2.罪過難題:人工智能犯罪的主觀方面

人工智能的一些獨(dú)立判斷和決定也帶來了罪過認(rèn)定的難題。隨著人工智能的發(fā)展,機(jī)器人逐漸能夠從周圍環(huán)境的刺激中學(xué)習(xí),并從自己的行為中獲得知識(shí)和技能,進(jìn)而使機(jī)器人會(huì)越來越難以被它們的用戶和設(shè)計(jì)師預(yù)測。國外學(xué)者進(jìn)而指出,我們必須確定機(jī)器人的意圖,因?yàn)槠淇赡苡绊憣?duì)機(jī)器人懲罰的正確性,所以應(yīng)首先分析刑法(而不是民法)領(lǐng)域的原則、規(guī)則和概念{19}。如在“Jeffry van der Goot案”中,他所編寫的木馬程序脫離于本人的預(yù)判和控制,對(duì)于木馬“獨(dú)立”發(fā)動(dòng)的攻擊行為的主觀方面該如何予以考量?再如BBC地平線系列紀(jì)錄片《尋找人工智能》(BBC Horizon: The Hunt for AI(2012))所報(bào)道的針刺機(jī)器人,機(jī)器人會(huì)根據(jù)自己的判斷是否會(huì)刺傷人的手指,對(duì)于其行為的主觀方面該如何認(rèn)定?人工智能所帶來的主觀方面認(rèn)定的難題已經(jīng)成為現(xiàn)實(shí)。

這里需要說明“Tay案”與“Jeffry van der Goot案”的區(qū)別: Tay案完全基于人工智能的自主學(xué)習(xí)而發(fā)表偏激言論,不存在教唆或就發(fā)表偏激言論的相關(guān)指令,其行為系人工智能自身學(xué)習(xí)而后實(shí)施,故關(guān)注重點(diǎn)在于人工智能的主體性;“Jeffry van der Goot案”和針刺機(jī)器人系自然人賦予人工智能就侵害行為一定的決定權(quán),而人工智能自行決定是否實(shí)施侵害,因而重點(diǎn)在犯罪的主觀方面。

一直以來,只有自然人的主觀罪過才進(jìn)入刑法的視野?,F(xiàn)代刑法的主觀罪過理論確立了人的主體性以及自由、平等及相關(guān)權(quán)利,(自然)人成為主體與客體兩分的二元世界的主導(dǎo),(自然)人的獨(dú)立意志成為權(quán)利、義務(wù)、責(zé)任包括處罰的前提基礎(chǔ)。構(gòu)成這一思想的核心是主張尊重理性的觀點(diǎn)。人根據(jù)自己的理性,能決定自己的行為{20}。如費(fèi)爾巴哈的心理強(qiáng)制說認(rèn)為,人具有追求快樂、逃避痛苦的本能。為了防止犯罪,必須抑制行為人的感性的沖動(dòng),即科處作為害惡的刑罰,并使人們預(yù)先知道因犯罪而受刑的痛苦大于因犯罪所能得到的快樂,才能抑制其心理上萌生犯罪的意念{21}。其后,費(fèi)爾巴哈的觀點(diǎn)雖經(jīng)揚(yáng)棄,但是人的自由意志一直作為刑法罪過理論的重要基石。如有學(xué)者指出,意志自由,這里主要是指相對(duì)意志自由是罪過心理的基礎(chǔ),而罪過心理是一個(gè)犯罪構(gòu)成的問題。因此,建立在意志自由之上的可歸責(zé)性應(yīng)當(dāng)是犯罪構(gòu)成的題中之義{22}。黑格爾甚至還將自由意志納入了法益侵害的層面予以理解:當(dāng)人侵犯了具體意志的存在,侵犯了人的自由意志,違背了抽象法的時(shí)候,人就構(gòu)成了犯罪{23}。而人工智能的“意志”又和傳統(tǒng)刑法理論中的意志自由有所區(qū)別,既包括意志主體方面,也包括意志依據(jù)方面。人工智能的“意志”并非來源于天賦人權(quán),而是來源于預(yù)設(shè)的程序和指令,但是其可以根據(jù)預(yù)設(shè)的程序和指令自行決定一定的行動(dòng),并可能導(dǎo)致一定的社會(huì)后果,二者的前提和討論范圍均不一致。所以前述理論并不能夠?yàn)槿斯ぶ悄芑讵?dú)立判斷和決定所實(shí)施侵害的主觀方面認(rèn)定問題提供有效的闡釋依據(jù)。

而且這一問題還有必要結(jié)合人工智能的不同形態(tài)予以研究。人工智能可以分為強(qiáng)人工智能和弱人工智能。強(qiáng)人工智能的觀點(diǎn)認(rèn)為未來能夠真正制造出能進(jìn)行推理和解決問題的智能機(jī)器,這種智能機(jī)器像人一樣有知覺和意識(shí)。而弱人工智能的觀點(diǎn)認(rèn)為,智能機(jī)器只是看起來像是智能的,它的智能只是表面的、非實(shí)質(zhì)性的,不會(huì)像人類一樣真正擁有智能和意識(shí){24}。雖然目前這一爭論尚無最終的定論,但是兩個(gè)層面的人工智能已經(jīng)出現(xiàn):第一個(gè)層面是比較低級(jí)的人工智能,即只是在特定領(lǐng)域、特定用途的智能化,人工智能不具備獨(dú)立的判斷與決定能力;第二層面是比較高級(jí)的人工智能,人工智能具備一定獨(dú)立的判斷與決定能力。如果說前者的人工智能犯罪主觀方面問題可以借助傳統(tǒng)的計(jì)算機(jī)犯罪范式予以闡釋,后者的人工智能犯罪主觀方面問題則需要進(jìn)行新的研究和探討。

3.行為難題:人工智能犯罪的客觀方面

人工智能犯罪也為犯罪客觀方面的認(rèn)定提出新的命題。從行為層面,人工智能犯罪可能涉及以下2種類型:第1種類型為人工智能本就應(yīng)用于社會(huì)之中,由于人工智能出現(xiàn)問題或者其他原因產(chǎn)生危害社會(huì)的后果。如前文所述的特斯拉自動(dòng)駕駛導(dǎo)致交通事故等嚴(yán)重后果的情形。在這種情形中人工智能本身用途無害,但是客觀上造成了法益侵害,這也是學(xué)界已經(jīng)關(guān)注和研究的情形。如有學(xué)者對(duì)其再予展開,認(rèn)為機(jī)器人致人損害有兩種情形:一是侵權(quán)人對(duì)智能系統(tǒng)進(jìn)行非法控制而造成的損害。例如,黑客、病毒等人為因素侵入互聯(lián)網(wǎng),進(jìn)而控制人類家庭的兒童看護(hù)機(jī)器人、助老機(jī)器人、護(hù)士機(jī)器人或其他智能系統(tǒng),由此導(dǎo)致危及人類的后果。二是智能系統(tǒng)自身的產(chǎn)品瑕疵而造成的損害{11}。第2種類型為人工智能被直接用于犯罪。如在“全國首例利用AI犯罪案”中,其通過人工智能將OCR文本識(shí)別技術(shù)用于非法獲取個(gè)人信息,人工智能被直接用于犯罪目的。

在傳統(tǒng)意義上,刑法中的行為只能是人的行為。如有學(xué)者指出,刑法上的行為,是指行為主體實(shí)施的客觀上侵犯法益的身體活動(dòng)。首先,行為是人的身體活動(dòng),包括消極活動(dòng)與積極活動(dòng)。其次,行為上必須是客觀上侵犯法益的行為,這是行為的實(shí)質(zhì)要素{25}。并以此區(qū)別犯罪行為與天災(zāi)等造成現(xiàn)實(shí)侵害的事件,從而明確刑法所規(guī)制的行為界限。然而人工智能犯罪中的行為卻正是在兩者之間:第一,人工智能的“行為”并非自然人所直接發(fā)出的,有些甚至并非自然人所直接指令其發(fā)出的(如“Jeffry van der Goot案”),人工智能的“行為”在歸因于自然人的過程中存在一定障礙。第二,人工智能的“行為”又與自然人有一定的關(guān)聯(lián),自然人縱然不直接指令人工智能實(shí)施一定的“行為”,但是至少會(huì)對(duì)人工智能的模式和范式做出設(shè)定。由此,如何認(rèn)定自然人行為與人工智能“行為”的性質(zhì)與界限是刑法理論必須思考的問題。

前述人工智能犯罪可能涉及的兩種情形更深化了這一問題:就第1種情形而言,自然人并非積極追求人工智能所造成的危害后果,甚至自然人所設(shè)定的人工智能運(yùn)行規(guī)則是有益于社會(huì)的,那么對(duì)人工智能本身的“行為”可否追責(zé)?比如自動(dòng)駕駛的特斯拉汽車交通肇事,在犯罪層面該如何認(rèn)定“交通肇事行為”?其與自然人相關(guān)行為的關(guān)系如何,自然人的行為是否涉及監(jiān)督過失等問題?就第2種情形而言,人工智能被用于犯罪目的,然而人工智能的“行為”不符合前述傳統(tǒng)理論的行為標(biāo)準(zhǔn),那么是否應(yīng)當(dāng)、可以直接歸因與歸責(zé)于自然人?比如“全國首例利用AI犯罪案”中,雖然在侵犯計(jì)算機(jī)信息系統(tǒng)安全的整體框架下可以直接追究自然人的刑事責(zé)任,但如果其中自然人并未直接以行為的方式侵入計(jì)算機(jī)信息系統(tǒng),從行為外觀上更像是制造侵入計(jì)算機(jī)信息系統(tǒng)的工具,是被制造的“工具”自行識(shí)別驗(yàn)證碼和侵入計(jì)算機(jī)信息系統(tǒng)。如果該案中的情形尚可通過對(duì)實(shí)行行為擴(kuò)大解釋予以解決,那么“Jeffry van der Goot案”中人工智能基于其判斷所實(shí)施的“行為”又該如何和相關(guān)自然人相區(qū)別?這些問題尚需要細(xì)致的探討和研究。

三、人工智能犯罪的刑法理論立場

刑法理論具有時(shí)代性,其總需要與特定歷史發(fā)展階段的犯罪治理相適應(yīng)。就人工智能犯罪相關(guān)的理論而言也不例外,也需要基于人工智能犯罪發(fā)展乃至社會(huì)發(fā)展的階段來構(gòu)建和展開。在現(xiàn)階段人工智能的發(fā)展已經(jīng)在相當(dāng)程度上挑戰(zhàn)著既有傳統(tǒng)理論,但同時(shí)人工智能的獨(dú)立性仍然較為有限,基于此,應(yīng)在發(fā)展和適用傳統(tǒng)理論的基礎(chǔ)上推動(dòng)人工智能犯罪主體問題的解決,進(jìn)而推動(dòng)罪過、行為等方面問題的解決。

1.當(dāng)下路徑:堅(jiān)持以自然人為中心

關(guān)于人工智能刑法立場的討論應(yīng)基于人工智能發(fā)展現(xiàn)狀以及人工智能犯罪的現(xiàn)狀。前文已述人工智能有弱人工智能與強(qiáng)人工智能的劃分,目前的人工智能總體而言還屬于弱人工智能的階段。有學(xué)者認(rèn)為,與人類主體的社會(huì)和文化屬性不同, AI的本質(zhì)屬性是自然性和機(jī)械性。AI復(fù)制和強(qiáng)化了大腦思維的物質(zhì)基礎(chǔ)和局部功能,它只是執(zhí)行人類指令而并不考慮社會(huì)意義、社會(huì)責(zé)任和社會(huì)后果,也就不能形成主體真正的實(shí)踐活動(dòng)和社會(huì)屬性{26}。雖然這樣的論述有否定人工智能未來智能性發(fā)展之嫌,但是總體而言現(xiàn)階段人工智能的發(fā)展仍未能全面突破這樣的論斷。即人工智能的發(fā)展目前整體上仍處于弱智能(Weak AI)階段,對(duì)其界定仍然是以機(jī)器——物來定義的{27}。

刑法理論和實(shí)踐的發(fā)展要與社會(huì)發(fā)展的階段相適應(yīng),人工智能犯罪領(lǐng)域也不例外。比如根據(jù)(人工智能)現(xiàn)有技術(shù)不能提供可能的充分安全保障或可以被要求的安全措施,那么能否普遍適用關(guān)于損害的賠償責(zé)任尚不能肯定{28}。而在現(xiàn)階段,不同于其他產(chǎn)品和發(fā)明,人工智能沒有人的完全控制,不能完全規(guī)劃和掌握相關(guān)的風(fēng)險(xiǎn){29}。從主體承擔(dān)責(zé)任的前提來講,相關(guān)實(shí)體必須至少有能力認(rèn)識(shí)到自己行為的道德后果,并且能夠獨(dú)立行動(dòng){30}。也有學(xué)者從其物理形態(tài)(機(jī)器人)來解讀人工智能(體),認(rèn)為機(jī)器人不是具有生命的自然人,也區(qū)別于具有自己獨(dú)立意志并作為自然人集合體的法人,將其作為擬制之人以享有法律主體資格,在法理上尚有商榷之處。模擬和擴(kuò)展“人類智能”機(jī)器人雖具有相當(dāng)智性,但不具備人之心性和靈性,與具有“人類智慧”的自然人和自然人集合體是不能簡單等同的{11}。在主體層面,如果要使人工智能成為獨(dú)立的責(zé)任主體,需要人工智能的高度發(fā)展與完整責(zé)任主體的轉(zhuǎn)型發(fā)展,在現(xiàn)階段條件尚不夠成熟。所以有學(xué)者指出,德國關(guān)于經(jīng)濟(jì)企業(yè)可罰性的深入討論已經(jīng)非常清楚地表明,目前的刑罰體系并不適合非人類的對(duì)象{31}?;谝宰匀蝗藶橹行牡男谭?,對(duì)于既有理論予以發(fā)展和延伸,才是當(dāng)下人工智能犯罪的應(yīng)然路徑。具體而言,可從以下方面發(fā)展既有理論:

第一,間接故意理論。傳統(tǒng)上,我國刑法學(xué)界對(duì)于間接故意的理解是從認(rèn)識(shí)因素和意志因素兩方面入手:在認(rèn)識(shí)因素上,是“明知會(huì)發(fā)生危害社會(huì)的結(jié)果”;在意志因素上,則表現(xiàn)為“放任”的心理{32}。間接故意是介于故意與過失之間的罪過形態(tài),在性質(zhì)上間接故意與直接故意同屬于故意的范疇,但是其在認(rèn)識(shí)因素與意志因素層面又不同于直接故意。對(duì)于“Jeffry van der Goot案”和“針刺機(jī)器人案”,對(duì)其中自然人的主觀方面可以通過間接故意進(jìn)行有效評(píng)價(jià)——行為人對(duì)于人工智能是否造成損害結(jié)果持放任態(tài)度,既不積極追求,但是也不反對(duì),符合間接故意的認(rèn)識(shí)內(nèi)容和意志內(nèi)容。而且,這樣也不會(huì)對(duì)既有罪過理論產(chǎn)生過大的沖擊。傳統(tǒng)意義上,間接故意的行為是自然人實(shí)施的,只不過行為人對(duì)自己行為的后果持放任態(tài)度,而在以上思路中自然人的行為指向的是人工智能,對(duì)人工智能行動(dòng)的后果持放任態(tài)度,客觀上擴(kuò)展了間接故意的輻射范圍,使之適用于人工智能犯罪。也有學(xué)者指出,間接故意犯罪的存在范圍在以往的著作中向來是不明確的{33}。本身間接故意作為一種中間形態(tài),也是為了解決介于直接故意與過失之間罪過形態(tài)的思路,發(fā)展間接故意理論以解決人工智能犯罪的理論難題具有適當(dāng)性。

第二,監(jiān)督過失的理論。過失理論經(jīng)歷了舊過失論、新過失論、新新過失論的爭論,并加入被允許的危險(xiǎn)與信賴原則、監(jiān)督過失等內(nèi)容,形成了豐富的理論體系。其中與人工智能犯罪關(guān)系最密切的為監(jiān)督過失理論。監(jiān)督過失就是有義務(wù)監(jiān)督被監(jiān)督人在行動(dòng)時(shí)不發(fā)生錯(cuò)誤的責(zé)任,其具體內(nèi)容為事前的指示、提示、指揮、命令,行動(dòng)中的監(jiān)督或事后的檢查{34}。監(jiān)督過失責(zé)任并不是讓監(jiān)督者承擔(dān)被監(jiān)督者的責(zé)任,不是代位責(zé)任,而是讓監(jiān)督者承擔(dān)自己因監(jiān)督過失而必須承擔(dān)的責(zé)任,監(jiān)督過失責(zé)任與其他責(zé)任形式一樣,具有直接性{35}。基于此,可以直接對(duì)負(fù)有監(jiān)督義務(wù)的自然人予以處罰。但是在傳統(tǒng)意義上,無論監(jiān)督者還是被監(jiān)督者均需為自然人。監(jiān)督過失還分為廣義與狹義之分,廣義的監(jiān)督過失還包括管理過失。所謂管理過失,是指由于管理者沒有建立相應(yīng)的安全管理體制或者建立的安全管理體制不完備,或者對(duì)自己管理、支配范圍內(nèi)的危險(xiǎn)源管理不善而直接導(dǎo)致危害結(jié)果發(fā)生的情況,如管理者沒有制訂健全有效的安全管理制度,沒有盡職盡責(zé)地配置、維護(hù)好各種設(shè)備,沒有做好統(tǒng)籌的人事安排,或者對(duì)自己管領(lǐng)支配力范圍內(nèi)的事務(wù)管理不當(dāng)?shù)葅36}。如果從不涉及自然人主體的角度似乎管理過失更適用于人工智能犯罪,不過筆者認(rèn)為監(jiān)督過失是對(duì)一定主體對(duì)象的監(jiān)督,而管理過失則是對(duì)于管理制度或危險(xiǎn)物品疏忽的行為。從自然人和與其相關(guān)的人工智能關(guān)系來看,理解為監(jiān)督關(guān)系更為恰當(dāng)。比如特斯拉人工智能駕駛汽車,車主對(duì)于汽車并沒有實(shí)際的管理和控制,汽車的運(yùn)行系人工智能所控制,其罪過層面理解為監(jiān)督過失更為妥當(dāng)。所以對(duì)于監(jiān)督過失理論予以發(fā)展,使其被監(jiān)督者從自然人擴(kuò)展到人工智能對(duì)象更為妥當(dāng)。

第三,直接因果關(guān)系理論。因果關(guān)系理論是犯罪客觀方面之中非常重要和內(nèi)容豐富的理論范疇。因果關(guān)系的一個(gè)重要分類就是直接因果關(guān)系與間接因果關(guān)系。沒有介入其他原因,只有一個(gè)因果環(huán)節(jié)的,就是直接因果關(guān)系;介入了其他原因,有兩個(gè)以上因果環(huán)節(jié)的,就是間接因果關(guān)系{37}。而人工智能犯罪往往是自然人作用于人工智能,人工智能又基于其行動(dòng)導(dǎo)致一定的危害后果。這又可以分為兩種情形討論:第1種情形,人工智能程序本身設(shè)定了固定的運(yùn)算結(jié)果。比如“全國首例利用AI犯罪案”中,“快啊”打碼平臺(tái)所運(yùn)用的人工智能本身指向識(shí)別驗(yàn)證碼以實(shí)現(xiàn)非法登陸。第2種情形,人工智能程序本身僅設(shè)定了或然的運(yùn)算結(jié)果。如前文所述“Jeffry van der Goot案”和“針刺機(jī)器人”。但無論哪種情形,在自然人行為與危害結(jié)果之間均介入了人工智能運(yùn)算,從形式上看不是簡單的直接因果關(guān)系。筆者認(rèn)為,應(yīng)對(duì)直接因果關(guān)系的涵射范圍予以擴(kuò)展,將包括人工智能中間環(huán)節(jié)的過程納入直接因果關(guān)系流程的范圍,使其涵蓋上述兩種情形,從而有效規(guī)制人工智能犯罪。這種理論擴(kuò)展到共同犯罪的視野下更為必要,如“全國首例利用AI犯罪案”中,“快啊”打碼平臺(tái)則收取“深加工”費(fèi)用,以一組信息加工費(fèi)15元計(jì),50%被分給了制作撞庫軟件的人,50%被平臺(tái)開發(fā)商李某和楊某平分。其中的行為人未必全部接觸人工智能、未必對(duì)于全部危害結(jié)果有預(yù)見,而且在此情況下直接因果關(guān)系理論更可以和共同犯罪中“部分行為全部責(zé)任”的原理相契合。

2.未來展望:人工智能的刑法擬制可能

未來人工智能犯罪的規(guī)制首先要回歸到人工智能發(fā)展可能性的問題上。“圖靈測試”對(duì)照一個(gè)人度量來檢驗(yàn)智能機(jī)器的性能,論證了智力行為最好且僅有的標(biāo)準(zhǔn)。如果詢問者不能區(qū)分出人和計(jì)算機(jī),則按圖靈的論證,可認(rèn)為機(jī)器是智能的{6}。在此基礎(chǔ)上,關(guān)于強(qiáng)人工智能的可能性學(xué)界也曾有爭論。如John Searle認(rèn)為即使有機(jī)器通過了圖靈測試,也不一定說明機(jī)器就真的像人一樣有思維和意識(shí){38}。也有哲學(xué)家持不同的觀點(diǎn)。Daniel C.Dennett在其著作《Consciousness Explained》中認(rèn)為,人也不過是一臺(tái)有靈魂的機(jī)器而已,為什么我們認(rèn)為人可以有智能而普通機(jī)器就不能有呢?他認(rèn)為像上述的數(shù)據(jù)轉(zhuǎn)換機(jī)器是有可能有思維和意識(shí)的{38}。而且現(xiàn)實(shí)層面這種可能也在逐漸發(fā)展:人工神經(jīng)網(wǎng)絡(luò)具有自學(xué)習(xí)和自適應(yīng)的能力,可以通過預(yù)先提供的一批相互對(duì)應(yīng)的輸入—輸出數(shù)據(jù),分析掌握兩者之間潛在的規(guī)律,最終根據(jù)這些規(guī)律,用新的輸入數(shù)據(jù)來推算輸出結(jié)果,這種學(xué)習(xí)分析的過程被稱為“訓(xùn)練”{39}。即人工智能所采取的分析和決定機(jī)制雖然帶有一定的機(jī)械性,但是足以包含一個(gè)主體的進(jìn)行判斷和行為的實(shí)質(zhì)要素。也有學(xué)者從人工智能的實(shí)體Agent(或譯為“艾真體”)的角度予以論述,認(rèn)為Agent的強(qiáng)定義從Agent的精神狀態(tài)出發(fā),除了要求Agent具有弱定義的特性外,還要求Agent具有擬人的特性,如信念、意志、情感等。Shoham認(rèn)為Agent還可以具有的特性有:移動(dòng)性(Mobility)、真實(shí)性(Veracity)、仁慈性(Benevolence)和合理性(Rationality){40}。機(jī)器人倫理研究員Kate Darling將“社會(huì)機(jī)器人”定義為“在社會(huì)層面上與人類溝通和互動(dòng)的物理實(shí)體智能體”{41}。人工智能的實(shí)體化為其全面進(jìn)入刑法視野提供了可能。

人工智能所帶來的法律變革正在進(jìn)行,為其進(jìn)入刑法視野奠定了基礎(chǔ)。主要包括以下3個(gè)方面:

第一,人工智能主體資格的肯認(rèn)。AI有可能在某種程度上賦予類似于人類的道德考量{42}。從法理上講,人類的意志自由作為處罰的假定前提,這一前提在道理上也可以適用于機(jī)器人{(lán)43}。有學(xué)者進(jìn)而指出,未來的自主智能機(jī)器將有能力完全自主行為,不再是為人類所使用的被動(dòng)工具;雖然人類設(shè)計(jì)、制造并部署了它們,但它們的行為卻不受人類的直接指令約束,而是基于對(duì)其所獲取的信息的分析和判斷,而且,它們?cè)诓煌榫持械姆磻?yīng)和決策可能不是其創(chuàng)造者可以預(yù)料到或者事先控制的。完全的自主性意味著新的機(jī)器范式為:不需要人類介入或者干預(yù)的“感知-思考-行動(dòng)”{44}。有學(xué)者甚至認(rèn)為人工智能是特殊性質(zhì)的法律主體,其是人類社會(huì)發(fā)展到一定階段的必然產(chǎn)物,具有高度的智慧性與獨(dú)立的行為決策能力,其性質(zhì)不同于傳統(tǒng)的工具或代理人{(lán)45}52。從未來而言,上述情形完全可能出現(xiàn)。《AIonAI機(jī)器人法》(Artificial Intelligence-on-Artificial Intelligence (AIonAI) Laws)比照《世界人權(quán)宣言》第1條的規(guī)定做出如下表述:所有機(jī)器人都具有與人類相當(dāng)?shù)睦硇院土夹?,并?yīng)以兄弟關(guān)系的精神相對(duì)待{46}。人工智能主體資格正在逐步走向現(xiàn)實(shí)化。

第二,人工智能行為社會(huì)意義的賦予。法律所調(diào)整的對(duì)象必須是主體的行為,不論該主體是自然人主體還是擬制主體。隨著人工智能的發(fā)展,其行為的社會(huì)屬性也愈發(fā)現(xiàn)實(shí)化,并逐步為法律規(guī)范所認(rèn)可。比如人工智能創(chuàng)作作品,對(duì)于采用了人工智能的繪畫機(jī)器人繪制的肖像畫或風(fēng)景畫而言,在形式上就屬于“以線條、色彩或其他方式構(gòu)成的審美意義的平面造型藝術(shù)”。同理,由“新聞寫作軟件”生成的新聞報(bào)道,以及由軟件生成的音樂,在形式上具備著作權(quán)法對(duì)文字作品及音樂作品的要求{47}。早在1988年英國立法就對(duì)這一問題做出規(guī)定:英國《版權(quán)、設(shè)計(jì)與專利法》( Copyright, Designs and Patents Act 1988)第178條對(duì)“計(jì)算機(jī)生成的作品”做了界定,它是指在“無人類作者”的環(huán)境下、由計(jì)算機(jī)環(huán)境生成的作品。同時(shí),根據(jù)第178條的規(guī)定,“計(jì)算機(jī)生成的作品”明顯不同于將計(jì)算機(jī)作為創(chuàng)作工具的作品{48}。美國學(xué)者則指出,將言論自由權(quán)利擴(kuò)大到強(qiáng)人工智能聊天機(jī)器人存在規(guī)范和實(shí)踐的困難,這可能會(huì)推動(dòng)重新審視自由言論法律和理論的當(dāng)代轉(zhuǎn)向,進(jìn)而使未來的人工智能語言表達(dá)成為可能{49}。隨著人工智能行為被賦予越來越多的社會(huì)意義,其行為獨(dú)立納入刑法視野的正當(dāng)性也愈發(fā)充足。

第三,人工智能責(zé)任制度的發(fā)展。關(guān)于人工智能的責(zé)任制度研究目前主要關(guān)注于對(duì)其相關(guān)自然人如何科以責(zé)任。如有學(xué)者認(rèn)為,在侵權(quán)法中,大多數(shù)時(shí)候可以通過類動(dòng)物、兒童、雇員的行為甚至高度危險(xiǎn)行為來理解人工智能領(lǐng)域的嚴(yán)格責(zé)任規(guī)則。根據(jù)替代責(zé)任的理念,可以將其視為“雇主責(zé)任”規(guī)則{4}。IEEE《合倫理設(shè)計(jì):利用人工智能和自主系統(tǒng)最大化人類福祉的愿景》提出的基本原則之二就是責(zé)任原則。其指出,為了解決過錯(cuò)問題,避免公眾困惑,人工智能系統(tǒng)必須在程序?qū)用婢哂锌韶?zé)性,證明其為什么以特定方式運(yùn)作{14}。聯(lián)合國教科文組織《關(guān)于機(jī)器人倫理的初步草案報(bào)告》提出對(duì)機(jī)器人的責(zé)任采取分擔(dān)解決途徑。讓所有參與機(jī)器人發(fā)明、授權(quán)和使用過程中的主體分擔(dān)責(zé)任{45}55。我國學(xué)者也有提出構(gòu)建智能機(jī)器人民事責(zé)任的若干方案,包括:其一,借鑒《侵權(quán)責(zé)任法》上關(guān)于危險(xiǎn)責(zé)任的規(guī)定,讓智能機(jī)器人的制造商或者使用者承擔(dān)嚴(yán)格責(zé)任( Strict Liability);其二,差別化責(zé)任規(guī)則;其三,強(qiáng)制保險(xiǎn)制度和賠償基金;其四,可以像歐盟那樣,考慮賦予某些智能機(jī)器人法律人格{44}。雖然目前人工智能責(zé)任制度在關(guān)注范圍和研究結(jié)論方面仍有較大的局限性,但是也表明人工智能問題已經(jīng)進(jìn)入法律責(zé)任的范疇討論。

法人主體的刑法擬制也為人工智能的刑法擬制提供了先例。法人犯罪的出現(xiàn)與研究使得犯罪主體限于自然人的態(tài)度有所松動(dòng)。如我國“通說”認(rèn)為,我國刑法中的犯罪主體,是指實(shí)施危害社會(huì)的行為并依法負(fù)刑事責(zé)任的自然人和單位{50}。但是在該書“犯罪主體概述”一節(jié)中繼而介紹的是“我國刑法中的自然人犯罪主體的共同要件”,而非“我國刑法中的犯罪主體的共同要件”,實(shí)際上側(cè)面描述了單位主體的出現(xiàn)對(duì)于純自然人犯罪主體認(rèn)知的沖擊。法人犯罪的實(shí)施并不局限于某一或某些特定自然人,而是整體體現(xiàn)法人的意志,并且由法人成員集體予以實(shí)施,難以僅通過對(duì)于直接實(shí)施人的分析和處罰實(shí)現(xiàn)刑罰目的,因而需要對(duì)于法人犯罪包括法人本身做出獨(dú)立的考量。在這個(gè)意義上法人主體也是一種擬制主體?;诖?,參考法人犯罪的思路,對(duì)于人工智能作為擬制主體看待未嘗不是未來人工智能犯罪刑法規(guī)制的可能思路。

此外,國外學(xué)者Kurt Seelmann甚至還對(duì)人工智能的“懲罰”做了一定的探索:如果一個(gè)自主或者說部分自主的電子人犯罪,不能歸因于自然人或者法人,則是其終身的恥辱,輕者應(yīng)斷電一周;每個(gè)電子人是超越知覺的綜合體,其能力具有二次性,并非自然而生,但真實(shí)地具有(一定的)能力;電子人的自主是有限的,如果其程序設(shè)定如此{(lán)51}。當(dāng)然,對(duì)于人工智能“處罰”的性質(zhì)及其限度仍有待于未來隨著人工智能犯罪的發(fā)展而不斷深化。

四、人工智能犯罪的刑法對(duì)策展望

人工智能犯罪的刑法治理不僅需要理論層面的回應(yīng),更需要分析如何通過刑事立法的完善和適用來對(duì)其予以有效治理,對(duì)此應(yīng)從理念和內(nèi)容兩個(gè)層面展開。

1.理念層面:注重人工智能犯罪立法的前瞻性

注重人工智能犯罪立法的前瞻性主要基于技術(shù)發(fā)展背景下犯罪極速變化與刑法相對(duì)滯后之間的矛盾。立法所立足的技術(shù)背景和社會(huì)條件都處于急速的變化發(fā)展之中,法律的制定與實(shí)施既需要有前瞻性也要正視現(xiàn)實(shí)的可操作性{52}。刑法的安定性與刑法的適應(yīng)性之間的矛盾是風(fēng)險(xiǎn)社會(huì)發(fā)展過程中所不可避免的長期命題。原本確定的、嚴(yán)格的刑事立法不得不為了回應(yīng)犯罪的現(xiàn)實(shí)發(fā)展而改變既有的立法結(jié)構(gòu)與內(nèi)容。特別是在恐怖活動(dòng)犯罪、環(huán)境犯罪、信息犯罪、網(wǎng)絡(luò)犯罪等新興犯罪的沖擊下,各國刑事立法均做出了較大的調(diào)整。有學(xué)者從刑事立法的活性化角度來予以論述,并將其主要表現(xiàn)概括為3個(gè)方面:犯罪化,即將過去未視為犯罪的行為犯罪化;處罰的早期化,即大量增加了未遂犯、危險(xiǎn)犯、預(yù)備罪的處罰規(guī)定,逐漸使其由例外處罰類型變成常態(tài)處罰類型;處罰的重刑化,即提高有期徒刑的最高期限,加重性犯罪、殺人罪、傷害罪及各種交通犯罪的法定刑等{53}。隨著人工智能及其犯罪的發(fā)展,現(xiàn)有刑事立法在解釋和規(guī)制其過程中面臨著現(xiàn)實(shí)的障礙,在立法層面也應(yīng)對(duì)人工智能犯罪做出獨(dú)立和恰當(dāng)?shù)目剂浚⒔璐送苿?dòng)刑事立法的更新和發(fā)展。否則,如果一味以傳統(tǒng)的理論立場對(duì)這種傾向進(jìn)行批判不僅會(huì)導(dǎo)致刑法學(xué)喪失社會(huì)影響力,還可能錯(cuò)失通過檢討立法反省刑法學(xué)本身存在的問題之機(jī)遇{54}?;诖?,筆者認(rèn)為秉持一種前瞻式的立法理念,推動(dòng)人工智能犯罪相關(guān)刑事立法的發(fā)展。具體可從以下3個(gè)方面展開:

第一,注重對(duì)于人工智能犯罪相關(guān)概念和對(duì)象立法前瞻的界定。目前有關(guān)人工智能犯罪的相關(guān)問題仍然處在探索之中,對(duì)于人工智能及其犯罪行為等相關(guān)概念仍然缺乏統(tǒng)一認(rèn)識(shí)。此外,由于人工智能仍然處在變化發(fā)展過程中,也導(dǎo)致了對(duì)于人工智能犯罪相關(guān)概念不易做出精準(zhǔn)界定。應(yīng)對(duì)其予以科學(xué)界定,使之既契合當(dāng)下人工智能犯罪治理的現(xiàn)實(shí),也符合未來人工智能犯罪治理的需要。這需要做到以下兩點(diǎn):其一,對(duì)于人工智能犯罪相關(guān)概念與對(duì)象的立法界定必須充分把握其實(shí)質(zhì),從而使之與相關(guān)的概念與對(duì)象有效區(qū)別,為科學(xué)和恰當(dāng)?shù)刂卫砣斯ぶ悄芊缸锾峁┗A(chǔ);其二,在國家立法層面對(duì)于人工智能犯罪相關(guān)概念與對(duì)象的立法界定不應(yīng)過細(xì),應(yīng)為相關(guān)下位立法和司法解釋預(yù)留必要的空間,從而更好地適應(yīng)人工智能技術(shù)的發(fā)展階段。

第二,注重人工智能犯罪立法前瞻性與刑法安定性的統(tǒng)一。筆者認(rèn)為,前瞻式立法既是回應(yīng)人工智能犯罪的應(yīng)然選擇,也與維持刑法自身穩(wěn)定性和效力不相矛盾。有學(xué)者曾就網(wǎng)絡(luò)犯罪的前瞻式立法問題做出闡釋,指出在網(wǎng)絡(luò)犯罪立法中經(jīng)常出現(xiàn)這樣的情況,當(dāng)經(jīng)過復(fù)雜而冗長的立法程序?qū)⒛撤N網(wǎng)絡(luò)行為納入到法律進(jìn)行規(guī)制時(shí),卻發(fā)現(xiàn)該種行為在網(wǎng)絡(luò)上己經(jīng)趨于銷聲匿跡了,代之而起的是新型的、法律尚未關(guān)注的行為,法律生效后很快就實(shí)質(zhì)性失效的情況在網(wǎng)絡(luò)中更易發(fā)生{55}。人工智能犯罪也是如此,其相關(guān)刑事立法既要及時(shí)回應(yīng)現(xiàn)實(shí)中該類犯罪的治理訴求,也要注重對(duì)于刑法自身安定性的維護(hù)?;诖耍斯ぶ悄芊缸锵嚓P(guān)立法規(guī)定應(yīng)注重層次性,形成法律層面、法規(guī)與規(guī)章層面、司法解釋層面的梯次結(jié)構(gòu),分別對(duì)于基礎(chǔ)規(guī)范、一般規(guī)范、具體規(guī)范予以規(guī)定,法律層面的相關(guān)規(guī)定注重概括性與穩(wěn)定性,法規(guī)與規(guī)章層面和司法解釋層面的相關(guān)規(guī)定注重具體性和及時(shí)性,最終達(dá)到立法前瞻性與刑法安定性的統(tǒng)一。

第三,注重區(qū)分刑事立法的前瞻性與過度刑法化。在當(dāng)代社會(huì),過度刑法化是在理論和實(shí)踐層面都需要警惕的一個(gè)趨勢。有學(xué)者指出,刑法過度化是對(duì)現(xiàn)代刑法觀念的背棄,勢必引起社會(huì)治理的巨大風(fēng)險(xiǎn)。在英美國家,刑法過度所引起的罪名的增設(shè)和犯罪數(shù)量的增加導(dǎo)致了法院和監(jiān)獄的過度擁擠,已造成了刑罰的譴責(zé)功能的大大退化{56}。前瞻式立法并不等同于盲目擴(kuò)大犯罪圈,不會(huì)導(dǎo)致刑法的泛化適用{57}。就人工智能犯罪而言,一方面對(duì)于隨著人工智能發(fā)展所產(chǎn)生的新型犯罪需要對(duì)其予以犯罪化,比如智能機(jī)器人犯罪的問題,在此層面確實(shí)是犯罪圈的擴(kuò)大;但另一方面,隨著人工智能的發(fā)展和普及,很多傳統(tǒng)犯罪會(huì)向人工智能犯罪轉(zhuǎn)移,如同互聯(lián)網(wǎng)時(shí)代詐騙犯罪從現(xiàn)實(shí)空間大量向網(wǎng)絡(luò)空間轉(zhuǎn)移,因此也會(huì)導(dǎo)致一些傳統(tǒng)犯罪領(lǐng)域犯罪圈的縮小。

2.規(guī)則層面:構(gòu)建人工智能犯罪相關(guān)規(guī)范體系

人工智能的法律責(zé)任已經(jīng)成為各國普遍關(guān)注的一個(gè)重要問題。IEEE《合倫理設(shè)計(jì):利用人工智能和自主系統(tǒng)最大化人類福祉的愿景》提出的責(zé)任原則指出,為了解決過錯(cuò)問題,避免公眾困惑,人工智能系統(tǒng)必須在程序?qū)用婢哂锌韶?zé)性,證明其為什么以特定方式運(yùn)作{14}。有效治理人工智能犯罪需要在前瞻性理念的指導(dǎo)下探索和建立相關(guān)刑事責(zé)任規(guī)范體系。結(jié)合前述理論和立法分析,筆者認(rèn)為應(yīng)從以下3個(gè)方面展開:

第一,人工智能犯罪的主體制度。如前所述,現(xiàn)階段人工智能尚不具備獨(dú)立的犯罪主體資格,應(yīng)充分運(yùn)用現(xiàn)有犯罪主體理論協(xié)調(diào)和解決人工智能犯罪的主體問題,重點(diǎn)規(guī)制與人工智能相關(guān)的自然人與法人。在這一層面需要解決的主要問題是如何將已經(jīng)具有一定自主性的人工智能在既有的僅承認(rèn)自然人與法人的犯罪主體體系中予以合理解釋。一個(gè)可行的思路是參考既有犯罪主體中的一些主體否定制度,比如間接正犯(否定他人的主體資格)、原因自由行為(延展行為人的主體資格)等問題的立法模式,使人工智能恰當(dāng)?shù)剡M(jìn)入現(xiàn)有刑事主體立法框架,達(dá)到立法與處罰的協(xié)調(diào)。從長期來看可以參考法人主體的擬制思路,逐步探索構(gòu)建人工智能刑事主體資格的法律擬制模式,基于人工智能的發(fā)展逐步構(gòu)建和完善人工智能主體的意思要素、行為要素,使之正式進(jìn)入刑法主體范圍。

第二,人工智能犯罪的行為模式。應(yīng)探索人工智能犯罪行為的規(guī)范體系,在類型化的基礎(chǔ)上對(duì)其予以全面規(guī)制。其中應(yīng)重視基于不同罪過形態(tài)對(duì)于人工智能犯罪予以類型化:對(duì)于人工智能過失犯罪,應(yīng)在立法中明確與之相關(guān)的各個(gè)責(zé)任主體(如人工智能的制造人、使用人等),以及相關(guān)主體的注意義務(wù)及其具體內(nèi)容,構(gòu)建完整的過失犯罪行為立法模式;對(duì)于人工智能故意犯罪,應(yīng)在立法中明確相關(guān)主體的罪過要素(犯罪目的等)、行為要素,并就共同犯罪問題做出獨(dú)立和科學(xué)的規(guī)定。此外,關(guān)于人工智能犯罪行為模式的立法也應(yīng)與人工智能犯罪的主體制度協(xié)調(diào)。

第三,人工智能犯罪的刑事責(zé)任。就其刑事責(zé)任的設(shè)置可以在借鑒和參考民事責(zé)任的基礎(chǔ)上展開。國內(nèi)有學(xué)者就人工智能的民事責(zé)任予以探討:其一,對(duì)于智能機(jī)器人,有損害必有責(zé)任。其二,如果最終負(fù)有責(zé)任的主體得到確認(rèn),其所應(yīng)承擔(dān)的責(zé)任應(yīng)與其給予機(jī)器人的指令級(jí)別以及機(jī)器人的自主性程度相稱。其三,為自主智能機(jī)器人造成的損害分配法律責(zé)任是一個(gè)復(fù)雜的問題,一個(gè)可能的解決方案是適用于智能機(jī)器人的強(qiáng)制保險(xiǎn)制度。其四,可以考慮建立賠償基金,作為強(qiáng)制保險(xiǎn)制度的一個(gè)補(bǔ)充。其五,與保險(xiǎn)、賠償基金等相配套的機(jī)器人登記制度和機(jī)器人法律地位{44}。雖然諸如保險(xiǎn)制度等規(guī)定不宜直接引入刑事領(lǐng)域,但是關(guān)于損害與責(zé)任的探討完全可以借鑒。在此基礎(chǔ)上,筆者認(rèn)為人工智能犯罪的刑事責(zé)任可從以下兩個(gè)方面展開:其一,對(duì)于相關(guān)自然人、法人主體科以適當(dāng)?shù)闹餍膛c附加刑,以契合當(dāng)下的人工智能犯罪刑事打擊路徑,實(shí)現(xiàn)個(gè)別預(yù)防與一般預(yù)防。其二,設(shè)置與人工智能領(lǐng)域相關(guān)的資格刑,以防止再犯可能的發(fā)生。而人工智能犯罪資格刑的設(shè)置也可能為未來人工智能主體刑法擬制的責(zé)任化提供可能,即人工智能主體可能在將來被科以“資格刑”的處罰方式進(jìn)入刑事責(zé)任領(lǐng)域。

五、結(jié)語

美國日微系統(tǒng)(Sun Microsystems)公司聯(lián)合創(chuàng)始人和首席科學(xué)家比爾?喬伊憂心忡忡地預(yù)言,21世紀(jì)最強(qiáng)大的3大技術(shù)——機(jī)器人技術(shù)、基因工程與納米技術(shù)——結(jié)合在一起,將會(huì)生成一個(gè)“有靈魂的機(jī)械”時(shí)代,這些智能機(jī)器人將融入并取代人類,使人類瀕臨滅絕{58}。在此意義上人工智能最大的問題并不在于他是否具有如人一樣的智能,而是在于它能否成為人們最需要的那種工具。

隨著社會(huì)的發(fā)展變遷特別是風(fēng)險(xiǎn)的流變,在學(xué)派的爭論與交織中,刑法理論與實(shí)踐日漸轉(zhuǎn)型和發(fā)展。以過失理論為例,經(jīng)歷了從舊過失論、新過失論、新新過失論等跌宕與反思,并經(jīng)由被允許的危險(xiǎn)和信賴原則修正而形成今天的過失理論。在這個(gè)意義上,刑法理論的定型化、體系化均只具有一定階段的歷史意義和社會(huì)意義,刑法理論的更新發(fā)展是與社會(huì)發(fā)展相適應(yīng)的必然趨勢。在人工智能風(fēng)起云涌中,人工智能犯罪也正在為既有刑法理論與立法的發(fā)展提出時(shí)代的命題。探索人工智能犯罪的理論與立法回應(yīng)既是立足于當(dāng)下的新問題,也是展望未來的新思考。我們有理由相信這樣的探索過程會(huì)帶來既有刑法理論的發(fā)展與更新。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 計(jì)算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7174

    瀏覽量

    87158
  • 人工智能
    +關(guān)注

    關(guān)注

    1787

    文章

    46061

    瀏覽量

    235024

原文標(biāo)題:人工智能犯罪的理論與立法問題初探

文章出處:【微信號(hào):industry4_0club,微信公眾號(hào):工業(yè)4俱樂部】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    解放軍人工智能指揮系統(tǒng):賦能指揮與控制系統(tǒng)

    是對(duì)解放軍人工智能指揮系統(tǒng)的詳細(xì)分析: 一、智慧華盛恒輝系統(tǒng)概述 解放軍人工智能指揮系統(tǒng)是一種高度智能化的計(jì)算機(jī)應(yīng)用系統(tǒng),它融合了人工智能、
    的頭像 發(fā)表于 09-09 16:39 ?146次閱讀

    人工智能ai4s試讀申請(qǐng)

    目前人工智能在繪畫對(duì)話等大模型領(lǐng)域應(yīng)用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個(gè)需要研究的課題,本書對(duì)ai4s基本原理和原則,方法進(jìn)行描訴,有利于總結(jié)經(jīng)驗(yàn),擬按照要求準(zhǔn)備相關(guān)體會(huì)材料??茨芊裼兄谌腴T和提高ss
    發(fā)表于 09-09 15:36

    【書籍評(píng)測活動(dòng)NO.44】AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新

    ,以及大力發(fā)展AI for Science的原因。 第2章從科學(xué)研究底層的理論模式與主要困境,以及人工智能三要素(數(shù)據(jù)、算法、算力)出發(fā),對(duì)AI for Science的技術(shù)支撐進(jìn)行解讀。 第3章介紹
    發(fā)表于 09-09 13:54

    報(bào)名開啟!深圳(國際)通用人工智能大會(huì)將啟幕,國內(nèi)外大咖齊聚話AI

    8月28日至30日,2024深圳(國際)通用人工智能大會(huì)暨深圳(國際)通用人工智能產(chǎn)業(yè)博覽會(huì)將在深圳國際會(huì)展中心(寶安)舉辦。大會(huì)以“魅力AI·無限未來”為主題,致力于打造全球通用人工智能領(lǐng)域集產(chǎn)品
    發(fā)表于 08-22 15:00

    FPGA在人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個(gè)方面: 一、深度學(xué)習(xí)加速 訓(xùn)練和推理過程加速:FPGA可以用來加速深度學(xué)習(xí)的訓(xùn)練和推理過程。由于其高并行性和低延遲特性
    發(fā)表于 07-29 17:05

    人工智能芯片與服務(wù)器芯片的區(qū)別

    人工智能芯片(AI芯片)與服務(wù)器芯片在多個(gè)方面存在顯著差異,這些差異主要體現(xiàn)在設(shè)計(jì)目標(biāo)、功能特性、應(yīng)用場景以及技術(shù)發(fā)展趨勢上。以下是對(duì)兩者區(qū)別的詳細(xì)分析。
    的頭像 發(fā)表于 07-12 18:21 ?1057次閱讀

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V2)

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V2) 課程類別 課程名稱 視頻課程時(shí)長 視頻課程鏈接 課件鏈接 人工智能 參賽基礎(chǔ)知識(shí)指引 14分50秒 https
    發(fā)表于 05-10 16:46

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V1)

    課程類別 課程名稱 視頻課程時(shí)長 視頻課程鏈接 課件鏈接 人工智能 參賽基礎(chǔ)知識(shí)指引 14分50秒 https://t.elecfans.com/v/25508.html *附件:參賽基礎(chǔ)知識(shí)指引
    發(fā)表于 04-01 10:40

    嵌入式人工智能的就業(yè)方向有哪些?

    嵌入式人工智能的就業(yè)方向有哪些? 在新一輪科技革命與產(chǎn)業(yè)變革的時(shí)代背景下,嵌入式人工智能成為國家新型基礎(chǔ)建設(shè)與傳統(tǒng)產(chǎn)業(yè)升級(jí)的核心驅(qū)動(dòng)力。同時(shí)在此背景驅(qū)動(dòng)下,眾多名企也紛紛在嵌入式人工智能領(lǐng)域布局
    發(fā)表于 02-26 10:17

    人工智能大模型、應(yīng)用場景、應(yīng)用部署教程超詳細(xì)資料

    人工智能是IC行業(yè)近幾年的熱詞,目前此技術(shù)已經(jīng)有很多成熟的模型和落地案例。在此跟大家做個(gè)分享,更多詳細(xì)資料,請(qǐng)自行搜索:【展銳坦克邦】,坦克邦-智算天地集算法模型、部署說明于一體,為廣大客戶提供了
    發(fā)表于 11-13 14:49

    如何使單片機(jī)與無線供電結(jié)合,從而使人工智能脫離電池和線路?

    如何使單片機(jī)與無線供電結(jié)合,從而使人工智能脫離電池和線路
    發(fā)表于 10-31 06:34

    FAT32文件系統(tǒng)詳細(xì)分析 (格式化SD nand/SD卡)

    文章目錄FAT32文件系統(tǒng)詳細(xì)分析(續(xù)FAT文件系統(tǒng)詳解)1.前言2.格式化SDnand/SD卡3.FAT32文件系統(tǒng)分析3.1保留區(qū)分析3.1.1BPB(BIOSParameterBlock
    的頭像 發(fā)表于 10-18 17:12 ?1087次閱讀
    FAT32文件系統(tǒng)<b class='flag-5'>詳細(xì)分析</b> (格式化SD nand/SD卡)

    電子工程師必須掌握的20個(gè)模擬電路詳細(xì)分析

    內(nèi)含參考答案以及詳細(xì)分析
    發(fā)表于 10-07 07:15

    電子工程師需要掌握的20個(gè)模擬電路的詳細(xì)分析

    電子工程師需要掌握的20個(gè)模擬電路的詳細(xì)分析
    發(fā)表于 09-28 06:22

    電子工程師必須掌握的20個(gè)模擬電路詳細(xì)分析

    本文檔的主要內(nèi)容詳細(xì)介紹的是硬件工程師必須掌握的20個(gè)重要模擬電路的概述和參考答案以及詳細(xì)分析
    發(fā)表于 09-27 08:22