人工智能刑法規(guī)制應(yīng)當(dāng)繼續(xù)堅守人類中心主義根本立場
2024-01-18 09:38:42 來源:法治日報·法治周末
■數(shù)字法視界
□曹波
近年來,隨著人工智能技術(shù)研發(fā)和應(yīng)用的空前發(fā)展,“人工智能+法學(xué)”的跨學(xué)科研究成為理論界的時興。
如同推動人類社會發(fā)展的其他科學(xué)技術(shù),人工智能代替人類從事某些人類不愿意或不能夠有效應(yīng)對的困難情形,將人類從繁瑣紛雜、枯燥單調(diào)的工作中解放出來。推動人類社會完成跨越式變革的同時,其內(nèi)在的不確定性、自動性也衍生出可能嚴(yán)重侵害人類法益的現(xiàn)實及潛在風(fēng)險,客觀上誘發(fā)人類對人工智能安全性的極大憂慮,催生以刑法規(guī)制人工智能刑事風(fēng)險的現(xiàn)實需要。
人類中心主義的實質(zhì)內(nèi)容
從技術(shù)屬性來看,人工智能是人類創(chuàng)造出來幫助人類從繁重的體力、腦力勞動中解放出來的人造物,但與人類創(chuàng)造的其他機械性物件有所區(qū)別。
具有深度學(xué)習(xí)能力的人工智能能夠根據(jù)對外部運行環(huán)境變化的感知進行自我調(diào)整,具備其他任何機械性物件所不具有的“自動性”,這種“自動性”與人類之自由意思及主觀能動性、隨機應(yīng)變性等智能特質(zhì)表現(xiàn)出較強的相似性,至少在外部觀念上。
因此,為了解決人工智能“自動性”運行過程中出現(xiàn)難以對研發(fā)者、制造者或使用者進行刑事歸責(zé)的“責(zé)任空白”問題,不少學(xué)者堅持應(yīng)當(dāng)修正、解構(gòu)甚至否棄人類中心主義的立場,在人類之外肯定存在其他類型的法律主體,從而賦予人工智能特別是強人工智能以獨立性刑事責(zé)任主體地位,肯定人工智能可以實施嚴(yán)重侵害人類法益的犯罪行為并因此應(yīng)當(dāng)受到刑罰的譴責(zé)和制裁。然而,通過輕易否棄人類中心主義的基本立場來解決人工智能刑事風(fēng)險的主張,仍舊停留在絕對人類中心主義或者舊人類中心主義的階段,混淆了非人類中心主義對人類中心主義批判的對象,實不足取。
人類中心主義是對人的主體性、能動性和創(chuàng)造性的根本體認(rèn),是人類創(chuàng)設(shè)規(guī)則調(diào)整社會關(guān)系的重要立場,同時是伴隨著人類的發(fā)展而不斷完善的。不過,雖說一切以人類的利益和價值為出發(fā)點,以人的角度去評價和安排整個世界,但這并不是一成不變的,而是隨著人類的實踐和認(rèn)知的深入而不斷發(fā)展。在不斷反思近代人類中心主義的缺憾與弊端后,新人類中心主義被提出,強調(diào)為解決人類所面臨的環(huán)境生態(tài)危機,應(yīng)立足于人的利益需要及其滿足來看待人與自然之間的關(guān)系。因此,人類必須保護自然資源環(huán)境,做到與大自然和諧相處。
在現(xiàn)代社會中,人類中心主義的實質(zhì)內(nèi)容并非是追求人的利益和欲望的非理性的滿足,而應(yīng)是以“人類的整體、永續(xù)的健康發(fā)展”為中心,以“有利于人類整體的可持續(xù)發(fā)展”為尺度來衡量自然,來認(rèn)識和改造自然。強調(diào)對人工智能發(fā)展過程中可能存在的反制與反噬人類之刑事風(fēng)險的必要關(guān)注,防范人工智能的純粹自動化運行侵損人類法益,這正是出于保障“人類的整體、永續(xù)的健康發(fā)展”以及“有利于人類整體的可持續(xù)發(fā)展”的現(xiàn)實考量??隙ㄈ斯ぶ悄芫哂蟹扇烁窕颡毩⑿淌仑?zé)任主體地位,將作為人類人造物的人工智能與人類自身有限度的等同和并列,有削弱人類的主體性地位和人格尊嚴(yán)價值之虞。
二元關(guān)系中利益歸屬人類
事實上,非人類中心主義對人類中心主義的指責(zé)主要是因為完全貫徹人類中心主義,以人類及人類自身的利益為行動的唯一指針,勢必將嚴(yán)重破壞包括動物等在內(nèi)的自然生態(tài)環(huán)境,進而威脅到人類自身的可持續(xù)發(fā)展。
非人類中心主義并不是對人類中心主義的根本反對,并非試圖否定人類的地位及利益,而是寄希望建立人與自然和諧共生的模式,讓人類能夠更好地生存和延續(xù)。主張修正或擯棄人類中心主義而肯定人工智能獨立犯罪主體資格的見解,從表面上看是在現(xiàn)有人類(包括自然人組合的法人)法律主體資格之外,賦予人工智能法律主體資格,以至于打破人類法律主體資格的一元化格局,因而屬于對人類中心主義的否定或棄守。但是,肯定人工智能獨立犯罪主體資格實則是為了解決人工智能侵損人類利益時出現(xiàn)的歸責(zé)疑難,是人類利益被人工智能侵損后法律機制對人類利益的救濟,根本上仍然是維護人類自身的利益,而非保護人工智能的利益,其更多體現(xiàn)的是人類中心主義而不是持論者所謂的非人類中心主義立場。
在人工智能與人類的二元關(guān)系中,利益的歸屬者永遠(yuǎn)是人類,而不可能是人工智能,畢竟難以想象睿智的人類會創(chuàng)造新的主體來分擔(dān)人類本就相當(dāng)稀少的利益和資源。
眾所周知,法律乃人類制定或認(rèn)可用于規(guī)范人的行為、調(diào)整人與人之間社會關(guān)系的國家正式制度,刑法通過懲罰嚴(yán)重侵害法益的犯罪行為,調(diào)整作為個體的自然人或單位與國家、社會之間的關(guān)系。作為主體性存在,人類始終是刑法的中心和主體,包括刑法機制在內(nèi)的所有法律機制存在的根本目的和價值都在于借助積極的激勵性機制或者消極的懲罰性機制,維護并拓展人類利益,最大限度實現(xiàn)人類價值,促進人類全面而自由地發(fā)展。
從當(dāng)前刑法對人類法益的保護種類來看,刑法明確保護關(guān)于人類自身的生命權(quán)、身體權(quán)、民主權(quán)、人格權(quán)、財產(chǎn)權(quán)等種種個人性法益,同時刑法也強調(diào)對國家安全、公共安全、經(jīng)濟秩序、社會秩序等國家性法益和社會性法益進行專門保護,這似乎說明刑法不僅保護人類自身的法益,還保護作為抽象存在的國家和社會的利益。然而,根據(jù)刑法理論界的通說理解,國家法益與社會法益等超個人法益并無自身的獨特價值,國家法益與社會法益要獲得刑法的保護必須能夠回歸或者分解到個人法益上,同時刑法保護國家法益與社會法益的規(guī)范目的不是保護國家與社會自身的利益,而是希望通過加強國家與社會利益的保護來最終保護個人的利益,亦即刑法保護國家和社會利益是保護個人利益的工具或者中介。
人類中心主義根本立場是普遍共識
為了防止人工智能技術(shù)威脅人類利益、侵蝕人類中心主義的根本立場,人工智能研發(fā)和應(yīng)用領(lǐng)域紛紛形成關(guān)于貫徹人類中心根本立場的倫理規(guī)則。
聯(lián)合國教科文組織的世界科學(xué)知識與技術(shù)倫理委員會(COMEST)公布的《機器人倫理報告》指出,機器人不論能否自主做出決策,或決策的自主程度有多大,人類永遠(yuǎn)都是最終的責(zé)任承擔(dān)者。且機器人越能自主決策,所需承擔(dān)責(zé)任的人員就越廣,從設(shè)計、制造、販賣、使用者,皆有可能承擔(dān)責(zé)任,并且需要將人性尊嚴(yán)、自主、隱私等抽象的價值或原則植入人工智能倫理。
歐盟執(zhí)行委員會下設(shè)的人工智能高階專家組(AI HLEG)發(fā)布的《值得信賴的人工智能倫理準(zhǔn)則》明確值得信賴的人工智能架構(gòu)應(yīng)同時包含合法的(遵守各地區(qū)、各國及國際相關(guān)法規(guī))、倫理的(遵守倫理原則及價值)、健全的(從技術(shù)和社會的角度來看必須避免良善的研發(fā)卻意外造成傷害)等三個要素。要求值得信賴的人工智能必須建立在歐盟基本權(quán)及國際人權(quán)法案所支持的尊重人類自主性、預(yù)防傷害、公平、可清楚解釋等實現(xiàn)倫理原則上,強調(diào)若要實現(xiàn)人工智能值得信賴,從設(shè)計研發(fā)、使用、監(jiān)測及分析、直到改良再研發(fā)等,人工智能整個系統(tǒng)的生命周期都需要符合人類主體性及被監(jiān)控(基于尊重人類自主性原則)、有健全且安全的技術(shù)(基于傷害預(yù)防原則)、重視隱私及資料管理(基于傷害預(yù)防原則)、多元包容、不歧視與公平(基于公平原則)、能促進社會福祉和環(huán)境友善(基于傷害預(yù)防原則及公平原則)、愿承擔(dān)責(zé)任(基于公平原則)等七項要求。
由此看來,堅持人類中心主義的根本立場已經(jīng)成為人工智能界的普遍共識,人工智能研發(fā)與應(yīng)用必須以人為本,以追求并擴大人類福祉為宗旨,而這種立場自然也應(yīng)當(dāng)成為人工智能刑法規(guī)制所必須堅守的。
人類中心主義根本立場是當(dāng)前人類所建構(gòu)的各種規(guī)范性制度取得最終實效的基本保障和內(nèi)在緣由,至于主張棄守人類中心主義以賦予人工智能以獨立刑事責(zé)任主體地位,進而實現(xiàn)對人工智能刑事風(fēng)險的刑法規(guī)制的理論主張,在相當(dāng)程度上弱化人類的主體性地位和價值,是對人類價值與人格尊嚴(yán)的不當(dāng)(部分地)放棄,顯然得不償失,實非明智之舉。
人工智能刑法規(guī)制是通過對人工智能研發(fā)和應(yīng)用各個階段可能出現(xiàn)侵犯人類利益的各類風(fēng)險進行識別,并組織適當(dāng)且科學(xué)的風(fēng)險應(yīng)對機制予以消除,防止人工智能的內(nèi)在風(fēng)險客觀現(xiàn)實化為對人類利益的真正損害,這種強調(diào)人類利益保護的主張正是人類中心主義根本立場的現(xiàn)實寫照,也是人類中心主義根本立場的基本要求,需要得到繼續(xù)堅守并在人工智能刑法規(guī)制的具體方案設(shè)計中得到應(yīng)有的展現(xiàn)。
(作者系貴州大學(xué)法學(xué)院副教授、碩士生導(dǎo)師)