技術(shù)領(lǐng)域發(fā)展日新月異。人工智能(下稱AI)是具有智能行為模仿能力的機(jī)器,它是在電腦中,模擬人類的行為和認(rèn)知程序,自然地學(xué)習(xí)所有知識的智能大腦。它正在越來越多地取代人類的活動,同時也給人類帶來危險,對此,AI所產(chǎn)生的現(xiàn)代性問題是:要將這些越發(fā)智能的AI實體和其他法律主體一樣納入法律社會控制體系中來嗎?
在20世紀(jì)50年代,美國科幻學(xué)家阿西莫夫為了預(yù)防AI可能產(chǎn)生的威脅,設(shè)定了著名的機(jī)器人三條原則:
第一條:機(jī)器人不能對人類產(chǎn)生危害。且不能因為忽略這種危險,而導(dǎo)致危及人類安全。
第二條:機(jī)器人必須要服從人類所發(fā)出的命令。但是,所發(fā)出的命令如果違反第一條的話,不在此限。
第三條:機(jī)器人只要在不違反前兩條規(guī)定的前提下,必須保護(hù)自己。
但是,這顯然并不能消除人類對于AI的恐懼。為了防止未來AI對人類法益產(chǎn)生侵害,國內(nèi)外很多學(xué)者提出“人工智能獨立承擔(dān)刑事責(zé)任”的觀點(下稱“獨立責(zé)任承擔(dān)說”)。這種觀點認(rèn)為AI的運算法則可能擁有很多的特質(zhì),且這些特質(zhì)遠(yuǎn)超于一個普通的人。但是這些特質(zhì)并不是施加刑事責(zé)任所必備的。當(dāng)一個人或者企業(yè)同時滿足外部(危害行為)和內(nèi)部(自由意志)要素,就可以被追究刑事責(zé)任。如果AI也可以滿足這些要素,且事實上滿足的話,則毫無疑問也要追究AI的刑事責(zé)任。“獨立責(zé)任承擔(dān)說”的核心依據(jù)是AI符合施加刑事責(zé)任的內(nèi)部要素,即獨立的“控制能力與可培養(yǎng)的辨認(rèn)能力”。而外部要素的滿足并不成為“獨立責(zé)任承擔(dān)說”的阻礙,他們認(rèn)為,隨著技術(shù)的發(fā)展,讓“危害行為”脫離“生命體要素”“突破傳統(tǒng)理論顯然不足為奇且無可厚非”。只要AI能夠機(jī)械地控制其肢體動作,則任何動作都可以被認(rèn)為是AI的行為。
在此基礎(chǔ)上,“獨立責(zé)任承擔(dān)說”為AI設(shè)定了有針對性的刑罰措施。這包括對AI懲處罰金刑;對AI施以自由刑;對AI施加死刑,包括對軀體的永久銷毀和對AI的數(shù)據(jù)予以刪除。
但筆者認(rèn)為,人工智能獨立承擔(dān)刑事責(zé)任不具有理論自洽性,理由是:
第一,AI的行為與自由意思密切關(guān)聯(lián)。刑法上的行為被理解為通過意思而被控制的舉止,所以,AI的舉止在外觀上看起來像是自己進(jìn)行的行為。確實,AI會通過四肢做出動作、通過系統(tǒng)發(fā)出語音、通過中央控制系統(tǒng)對周邊環(huán)境施加影響等等,但是不能因此肯定地說這些舉止是基于自由意思進(jìn)行的控制。這其中的“意思”更可能是對AI進(jìn)行程序設(shè)計的人或者使用AI的人的意思。這樣的話,就會將AI的舉止歸屬于機(jī)器背后的人,而不是AI本身。要承認(rèn)AI的“行為”滿足刑法上的行為的要素,就必須要在AI自身當(dāng)中找到和人類意思完全相當(dāng)?shù)囊馑肌?/p>
第二,AI不具備與人類等同評價的自由意思。自由意思這一概念是為實現(xiàn)一定社會目的而設(shè)計的歸責(zé)產(chǎn)物。但是,責(zé)任并不是沒有限制地任意地予以歸責(zé)。對于自身當(dāng)前以及過去的自我決定,無法通過倫理的評價基準(zhǔn)體系進(jìn)行評價的人,也即,沒有善惡判斷的人是無法進(jìn)行倫理上的對話的,因為他不能對倫理的非難進(jìn)行回應(yīng),也即其不具有作為責(zé)任必要條件的自我反省能力。因此,將AI作和人類倫理的自我控制同樣的評價,還為時過早。
而且,即便AI具備了和人類同樣的倫理控制系統(tǒng),也未必就具有了自由意思。德國聯(lián)邦最高法院曾就刑事責(zé)任作過如下經(jīng)典表述:“責(zé)任非難的內(nèi)在根據(jù)在于人道德上的成熟,與此同時,只要自由且道德地自我決定的能力沒有因為病理而短時間受到麻痹,抑或長時間受到阻礙,那么就是有自由、答責(zé)且道德地自我決定的能力。因此,其就能夠決定遵循合法行為,抵抗不法行為,使得自己的態(tài)度符合法律的當(dāng)為性規(guī)范,回避法律所禁止的行為。”
那么何為道德上的成熟?道德的成熟需要社會認(rèn)同。我們在認(rèn)定刑法上的責(zé)任的時候,現(xiàn)實的社會關(guān)系中的期待和歸責(zé)被認(rèn)為非常重要。今后隨著AI技術(shù)的進(jìn)化,存在給人類認(rèn)為AI完全可以自由進(jìn)行決定的印象之可能性。但是,AI是否實際能夠通過自由意思進(jìn)行行為并不重要。即便是人類的自由意思當(dāng)中,實際上我們也不知道自己是否真的處于自由意思當(dāng)中,我們不過是透過周圍第三者的評價,來判斷一個人是否有自由意思。因此,對于機(jī)器人來說,從第三者的觀點來看,該如何評價才是最重要的問題。因此,在AI達(dá)到能夠被人類社會所接納,進(jìn)行同等交流,被評價為和人類完全無差異的狀態(tài)之前,盡管AI具備“控制和辨認(rèn)”能力,也無法被人類評價為具有自由意思。
第三,對AI施加刑罰不具備可行性。首先,關(guān)于對AI的罰金刑,有學(xué)者提出,對AI施以罰金可通過強制讓AI的制造者和使用者履行諸如購買保險等法律義務(wù)來最終實現(xiàn)。這實際上是將對AI的處罰轉(zhuǎn)嫁給了制造者、使用者,違背了刑法的責(zé)任原則。其次,關(guān)于對AI的自由刑,對AI處以自由刑并不會獲致與人類同樣的效果。人類雖然能夠理解自由的意義,但是AI自身卻無法理解該處分的意義。最后,關(guān)于對AI的“死刑”,如果將AI視其為與人類一樣的主體,則對AI施加“死刑”是有違人道主義的。我們尊重人的生命權(quán),主張廢除死刑,就同樣不能對與人類具備同等地位的AI施加死刑。
“未來已來,但不是說來就來”,對于AI時代的法律檢討應(yīng)立足于當(dāng)下,對于AI可能產(chǎn)生的威脅所做的刑法對策,應(yīng)當(dāng)根源于刑法的基本理論。當(dāng)然,AI時代給我們帶來福利的同時,我們需要關(guān)注其可能出現(xiàn)的潛在危險。而預(yù)防這種技術(shù)風(fēng)險,更應(yīng)從倫理的角度高瞻遠(yuǎn)矚,盡早確立嚴(yán)格的AI研發(fā)、生產(chǎn)技術(shù)倫理規(guī)則和法律標(biāo)準(zhǔn),保障AI技術(shù)和產(chǎn)品的人類可控性,或許是當(dāng)下更急需的時代的需要
-
智能
+關(guān)注
關(guān)注
8文章
1729瀏覽量
118883 -
AI
+關(guān)注
關(guān)注
87文章
34294瀏覽量
275475 -
人工智能
+關(guān)注
關(guān)注
1804文章
48736瀏覽量
246663
原文標(biāo)題:機(jī)器人除了“搶飯碗”還會“犯罪”,能否判刑?
文章出處:【微信號:jingzhenglizixun,微信公眾號:機(jī)器人博覽】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
評論