中國周刊

數(shù)字法治:人工智能算法的倫理危機(jī)與法律規(guī)制

2021-04-07 16:40:53 來源:中國周刊

圖片 4.png

作者:鄭智航 山東大學(xué)法學(xué)院和網(wǎng)絡(luò)安全學(xué)院雙聘教授、博士生導(dǎo)師。

本文原載《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2021年第1期

 

隨著互聯(lián)網(wǎng)、大數(shù)據(jù)、云計(jì)算等科學(xué)技術(shù)的發(fā)展,人力、腦力和算力融合的程度愈來愈緊密,以生活要素?cái)?shù)據(jù)化和機(jī)器自動(dòng)化決策為核心的人工智能算法得到了越來越廣泛的應(yīng)用。人工智能算法使得機(jī)器能夠通過可讀的指令程序,根據(jù)網(wǎng)絡(luò)痕跡、位置信息、消費(fèi)記錄等數(shù)據(jù),對人的行為進(jìn)行評價(jià)和預(yù)測。這種自動(dòng)化決策方式在人員招聘、教育培訓(xùn)、無人駕駛、投資咨詢、司法判決、智能診療、新聞推薦等諸多領(lǐng)域得到了廣泛運(yùn)用,極大地降低了人們的決策成本,提高了工作效率。然而,人工智能算法獨(dú)特的運(yùn)行邏輯導(dǎo)致法律賴以生成與存在的社會(huì)結(jié)構(gòu)性場景發(fā)生了重大變化,加劇了決策者與相對人之間的“數(shù)字鴻溝”,造成個(gè)人權(quán)利與算法權(quán)力之間的失衡,從而誘發(fā)了一系列的倫理問題。這些問題在一定程度上顛覆了傳統(tǒng)的法律認(rèn)知,增加了傳統(tǒng)法律治理的難度。要想增強(qiáng)人工智能算法法律治理的有效性和克服“人工智能時(shí)代的法律功能危機(jī)”,就必須回到人工智能算法這一基本原點(diǎn),探求人工智能算法倫理危機(jī)產(chǎn)生的結(jié)構(gòu)性因素,并在此基礎(chǔ)上分析既有法律治理手段存在的限度,從而為人工智能算法法律治理的轉(zhuǎn)型升級探明方向。

一、人工智能算法運(yùn)行的基本邏輯

現(xiàn)代意義上的算法技術(shù)源于1940年代克勞德·香農(nóng)有關(guān)信息論和通信系統(tǒng)的思考。他解決了信道容量、信源統(tǒng)計(jì)特性、信源編碼、信道編碼等一系列基本技術(shù)問題,為算法技術(shù)的運(yùn)用奠定了架構(gòu)基礎(chǔ)。與此同時(shí),麥卡洛克和匹茨推動(dòng)了神經(jīng)元計(jì)算科學(xué)的發(fā)展,提出大腦天然有著適合進(jìn)行計(jì)算的結(jié)構(gòu),并認(rèn)為所有可設(shè)想的有窮計(jì)算都可以被神經(jīng)網(wǎng)絡(luò)計(jì)算出來,這在事實(shí)上否定了“意識/肉體二元論”的觀點(diǎn)。隨后,阿蘭·圖靈在此基礎(chǔ)上,發(fā)明了圖靈機(jī),讓其執(zhí)行被定義的算法任務(wù)。他在二戰(zhàn)期間還帶領(lǐng)數(shù)學(xué)家使用算法破譯了德國納粹分子的密碼。進(jìn)入網(wǎng)絡(luò)時(shí)代后,人們逐步形成了一種以技術(shù)性和流動(dòng)性為核心的在線生存樣態(tài)。在這種生存樣態(tài)中,人們?nèi)找姹粩?shù)據(jù)化和算法化。技術(shù)平臺(tái)往往會(huì)利用自身的技術(shù)優(yōu)勢,生成一種隱性的支配權(quán)和控制權(quán),從而形成人工智能算法獨(dú)特的運(yùn)行邏輯。

(一)人工智能算法的嵌入邏輯

從本質(zhì)上講,人工智能算法是一種利用機(jī)器深度自主學(xué)習(xí)能力對現(xiàn)實(shí)生活中大量分散的、碎片化的數(shù)據(jù)信息進(jìn)行自動(dòng)化處理的機(jī)制。從外在形式看,它主要體現(xiàn)為算法的研發(fā)者通過一系列的技術(shù)性指令作用于特定機(jī)器的活動(dòng)。但是,這種活動(dòng)具有較高的嵌入性。算法的研發(fā)者或運(yùn)用者往往將虛擬世界的算法隱性地嵌入社會(huì)權(quán)力運(yùn)行的結(jié)構(gòu)中,并依托現(xiàn)實(shí)物理世界中的經(jīng)濟(jì)權(quán)力或政治權(quán)力,以“持續(xù)控制形式”滲入日常社會(huì)互動(dòng)中的微觀層面。在這種算法的嵌入邏輯中,傳統(tǒng)的經(jīng)濟(jì)權(quán)力或政治權(quán)力借助算法技術(shù)的專業(yè)化和隔離化,形成技術(shù)與經(jīng)濟(jì)、技術(shù)與政治的聯(lián)姻。如在經(jīng)濟(jì)領(lǐng)域,算法嵌入平臺(tái)重構(gòu)了消費(fèi)者、平臺(tái)與服務(wù)提供者之間的關(guān)系。算法下探至每筆交易貫徹平臺(tái)交易規(guī)則,并對違約者予以即時(shí)處罰;在政治領(lǐng)域,算法可實(shí)時(shí)收集數(shù)據(jù)并持續(xù)運(yùn)行,與公權(quán)力的實(shí)施具有高度契合性,并極大地增強(qiáng)了公權(quán)力運(yùn)行的廣度、深度和效率。

人工智能算法運(yùn)行的嵌入邏輯推動(dòng)了算法的機(jī)制化。“算法的機(jī)制化”是指根據(jù)算法而生成的具有普遍性、連續(xù)性、穩(wěn)定性和恒久性的自動(dòng)決策化機(jī)制。人工智能算法的嵌入邏輯使網(wǎng)絡(luò)空間具有了卡斯特意義上的“無時(shí)間的空間”特質(zhì)。算法在社會(huì)權(quán)力結(jié)構(gòu)中的隱性嵌入,促進(jìn)了所有數(shù)據(jù)被納入算法建模系統(tǒng)中,并通過機(jī)器的自主學(xué)習(xí)升級延展,從而被永久性保存下來。因此,算法將每個(gè)人發(fā)生在網(wǎng)絡(luò)中的相關(guān)信息和行為通過圖譜畫像方式變?yōu)檫B續(xù)性的常規(guī)動(dòng)作,并被賦予預(yù)先設(shè)定的意義和內(nèi)涵。以新聞智能推送算法為例,算法推薦新聞平臺(tái)將實(shí)現(xiàn)自身利益最大化的算法嵌入新聞傳播過程中,以便快速有效地檢測出新話題和熱點(diǎn)話題,以此構(gòu)建一套新聞推送的日常機(jī)制。推送機(jī)制一旦形成,網(wǎng)絡(luò)用戶就逼迫接受算法篩選和推送的信息。

(二)人工智能算法的概率統(tǒng)計(jì)邏輯

從傳統(tǒng)物理社會(huì)到人工智能算法的轉(zhuǎn)變,意味著從牛頓的“大定律,小數(shù)據(jù)”技術(shù)范式向默頓的“大數(shù)據(jù),小定律”技術(shù)范式的轉(zhuǎn)移。在“大定律,小數(shù)據(jù)”技術(shù)范式下,人們能夠?qū)暧^物體的運(yùn)動(dòng)規(guī)律進(jìn)行把握,并將這種普遍性規(guī)律運(yùn)用于具體場境中。而在“大數(shù)據(jù),小定律”技術(shù)范式下,人們以量子力學(xué)為基礎(chǔ),利用規(guī)則由小數(shù)據(jù)產(chǎn)生大數(shù)據(jù),再由大數(shù)據(jù)練就“小定律”,通過“小定律”精準(zhǔn)地掌握知識。人工智能算法正是利用了這種“大數(shù)據(jù),小定律”技術(shù)范式。這種技術(shù)范式要求算法建立在概率統(tǒng)計(jì)的數(shù)理基礎(chǔ)上,并通過智能化的機(jī)器依據(jù)特定場景、語境和實(shí)用需要,從海量的“大數(shù)據(jù)”中,隨機(jī)提取特定的“小定律”,從而對行為形成一種反饋機(jī)制。這種概率統(tǒng)計(jì)邏輯要求算法的設(shè)計(jì)者采取二階語言描述的技術(shù),而二階語言所描述的對象在原理上又可以轉(zhuǎn)換為一階語言所描述的對象。按照這種概率統(tǒng)計(jì)邏輯,斷定某種狀態(tài)是否滿足某個(gè)問題就等同于斷定某種模型是否滿足某個(gè)一階語言所描述的對象,而這種一階語言描述的對象的真值源于初始狀態(tài)是隨機(jī)選擇,并依賴于先驗(yàn)命題為真的概率。因此,人工智能算法的概率統(tǒng)計(jì)邏輯具有強(qiáng)烈遞歸思維色彩,即通過重復(fù)將問題分解為同類子問題來加以解決。另一方面,人工智能算法充分利用機(jī)器自身的深度學(xué)習(xí)能力,將分散的個(gè)殊化數(shù)據(jù)重新聚集,并作為形成未來數(shù)據(jù)處理方法的重要參數(shù)。機(jī)器深度學(xué)習(xí)強(qiáng)調(diào)的是計(jì)算機(jī)程序?qū)τ谀愁惾蝿?wù)T和性能度量P,在T上以P衡量的性能隨著經(jīng)驗(yàn)E而自我完善。這種深度學(xué)習(xí),以貝葉斯概率理論和 Toulmin對推論的分析為基礎(chǔ),并形成了從證據(jù)到結(jié)論的“泛化”過程。算法設(shè)計(jì)者往往將具有一階語言描述性質(zhì)的分散數(shù)據(jù)之間的相關(guān)性解釋為“適當(dāng)?shù)拇蟾怕适录?,然后從某一個(gè)結(jié)論出發(fā),來論證這一決策的正當(dāng)性。因此,Schum認(rèn)為人工智能算法的概率統(tǒng)計(jì)邏輯具有拓?fù)涞男再|(zhì)和特征。

(三)人工智能算法的效率主導(dǎo)邏輯

人工智能算法是一個(gè)以效率為主導(dǎo)的法則。它主要通過計(jì)算機(jī)程序來對問題進(jìn)行“一種有限、確定、有效”的處理。這種對待事物的態(tài)度決定了人們在運(yùn)用算法建構(gòu)認(rèn)知模型,進(jìn)行自動(dòng)化決策時(shí),需要盡可能降低認(rèn)知負(fù)擔(dān),并將其控制在合目的的范圍內(nèi),從而提高效率。有學(xué)者認(rèn)為,滋養(yǎng)算法的大數(shù)據(jù)具有追求效率而非追求絕對精確、強(qiáng)調(diào)相關(guān)性而非因果性的特征。平臺(tái)和算法設(shè)計(jì)者也往往將效率與利益作為首要考慮因素。因此,人工智能算法的運(yùn)行具有強(qiáng)烈的效率主導(dǎo)邏輯。究其原因,這既有架構(gòu)和技術(shù)方面的客觀原因,也有平臺(tái)和算法設(shè)計(jì)者逐利的主觀原因。第一,網(wǎng)絡(luò)特殊的架構(gòu)模式為人工智能算法的效率主導(dǎo)邏輯生成奠定了結(jié)構(gòu)基礎(chǔ)。人工智能算法依托于網(wǎng)絡(luò)和信息技術(shù)的發(fā)展。目前,我們的網(wǎng)絡(luò)架構(gòu)是一種對等網(wǎng)絡(luò)(P2P Network)架構(gòu)模式。在這種架構(gòu)模式中,網(wǎng)絡(luò)建立了以積分為核心的激勵(lì)機(jī)制。網(wǎng)絡(luò)會(huì)根據(jù)積分高低來分配獲取服務(wù)的順序。算法設(shè)計(jì)者必須要考慮這種特殊激勵(lì)機(jī)制以便有效地將算法嵌入到網(wǎng)絡(luò)架構(gòu)中。第二,計(jì)算機(jī)有限的自主學(xué)習(xí)能力是選擇效率標(biāo)準(zhǔn)的一個(gè)重要原因。經(jīng)過近半個(gè)世紀(jì)發(fā)展,計(jì)算機(jī)的自主學(xué)習(xí)能力得到了快速發(fā)展。但是,它仍然處于模仿人類的動(dòng)作與感受的較低階段,這種有限的自主學(xué)習(xí)能力致使算法只能選擇一些最容易被量化的簡單標(biāo)準(zhǔn)。相對于其他標(biāo)準(zhǔn)而言,效率是最容易被量化的。它也更容易被析分為沒有爭議的數(shù)字變量,以符合數(shù)學(xué)計(jì)算的要求。例如,在人工智能輔助辦案系統(tǒng)中,算法更多處理的是程式化的不涉及價(jià)值判斷的表層概括工作,而對于更高級的互動(dòng)交流、非經(jīng)濟(jì)利益的價(jià)值評判等難以量化的工作則較少涉足。第三,平臺(tái)和算法設(shè)計(jì)者的利益訴求需要考慮算法運(yùn)行的成本和效益。算法的設(shè)計(jì)和研發(fā)需要有大量的資金投入。平臺(tái)和設(shè)計(jì)者往往會(huì)從績效正當(dāng)性角度出發(fā)來衡量算法設(shè)計(jì)的合理性。因此,他們在研發(fā)算法時(shí)會(huì)主動(dòng)植入研發(fā)者的價(jià)值導(dǎo)向和利益意圖,以便用技術(shù)平臺(tái)來幫助其完成特定的利益訴求,實(shí)現(xiàn)利潤最大化的目標(biāo)。以平臺(tái)媒體、互聯(lián)網(wǎng)巨頭和門戶網(wǎng)站為例,它們主要從績效正當(dāng)性出發(fā)來構(gòu)建算法系統(tǒng)。為了追求效率或效益,它們設(shè)計(jì)的算法篩選程序是以用戶興趣為基本導(dǎo)向的,并建立了一套可量化的經(jīng)濟(jì)績效評價(jià)標(biāo)準(zhǔn)。這種算法設(shè)計(jì)極大地增強(qiáng)了生活、娛樂類資訊的供給量。

二、人工智能算法的倫理危機(jī)

人工智能算法獨(dú)特的運(yùn)行邏輯正在深刻地改變著以往的生產(chǎn)方式和生活方式,并反客為主地對人的行為形成支配關(guān)系。人們可以借助于操縱數(shù)據(jù)與算法來實(shí)現(xiàn)控制人的目的。馬長山認(rèn)為:“掌握了數(shù)據(jù),就意味著掌握了資本和財(cái)富;掌握了算法(Algorithm),就意味著掌握了話語權(quán)和規(guī)制權(quán)?!边@種具有隱蔽性的算法權(quán)力會(huì)給人們帶來系統(tǒng)性的不利后果,消解人的主體地位,侵犯公民的基本權(quán)利,誘發(fā)一系列的倫理危機(jī)。2014年美國白宮發(fā)布了一份題為《大數(shù)據(jù):抓住機(jī)遇,保護(hù)價(jià)值》的報(bào)告。該報(bào)告認(rèn)為,受數(shù)據(jù)來源特定性和算法設(shè)計(jì)者主觀意圖的影響,算法可能會(huì)系統(tǒng)性地減少個(gè)人獲得信貸、就業(yè)和教育的機(jī)會(huì)。數(shù)據(jù)科學(xué)家稱這些算法以及由此產(chǎn)生的算法權(quán)力為“數(shù)學(xué)毀滅性武器”。人工智能算法對以強(qiáng)調(diào)個(gè)人幸福和權(quán)利優(yōu)先性為特點(diǎn)的現(xiàn)代倫理帶來了巨大挑戰(zhàn),現(xiàn)代倫理以道德個(gè)人主義目的論方法論原則為指導(dǎo),將個(gè)人幸福置于根本地位。這種方法論要求凸顯人的主體性地位,并用主體性原則來構(gòu)建現(xiàn)代社會(huì)。它將“人為目的”的道德觀和權(quán)利優(yōu)先性理念作為現(xiàn)代社會(huì)正義的基礎(chǔ),將人的外在行為所直接產(chǎn)生的現(xiàn)實(shí)效應(yīng)或?qū)嵸|(zhì)結(jié)果,或者由它帶來的實(shí)際價(jià)值效應(yīng)作為道德評價(jià)的依據(jù)。主體性、個(gè)體正義觀和實(shí)質(zhì)結(jié)果判斷構(gòu)成了現(xiàn)代倫理的基礎(chǔ)。然而,人工智能算法對作為現(xiàn)代倫理支撐的主體性原則、社會(huì)正義觀和實(shí)質(zhì)結(jié)果主義提出了嚴(yán)峻挑戰(zhàn)。這種挑戰(zhàn)主要體現(xiàn)為人的主體性地位的消解、群組正義觀代替?zhèn)€人正義觀、人工智能在算法結(jié)果上的標(biāo)簽化效應(yīng)等。

(一)人工智能算法中人的主體性消解

現(xiàn)代社會(huì)是一個(gè)以主體性為支撐的社會(huì)。黑格爾把“主體性”原則直接概括為“現(xiàn)代性”原則,并認(rèn)為主體性主要包括“個(gè)人(個(gè)體)主義”“批判的權(quán)利”“行為自由”和“把握自我意識的理念”四個(gè)方面的內(nèi)涵。這種主體性要求用人道主義終結(jié)封建專制制度,用理性主義殺死宗教中的上帝,用個(gè)人主義謀劃自然解放。這三者最終可以歸結(jié)為主體主義的確立和現(xiàn)代人主體性的生成。因此?,F(xiàn)代社會(huì)是一個(gè)強(qiáng)調(diào)個(gè)人主義、理性主義和人道主義的社會(huì),它要求在人的生活領(lǐng)域全面貫徹個(gè)人主義、理性主義和人道主義等基本原則。“這一主體地位不僅關(guān)乎于人生活的安全,也是人類文明開展的根基,其主體地位一旦動(dòng)搖,政治、經(jīng)濟(jì)、文化、社會(huì)制度隨即分崩離析?!比欢斯ぶ悄芩惴▍s在不斷消解著人的主體性,動(dòng)搖人在世界中的主體地位。特別是未來社會(huì),隨著人工智能通過深度學(xué)習(xí)具備了自身算法系統(tǒng)的反思能力和自己的萬能算法語言,人的主體性將遭受更大的挑戰(zhàn)。就目前而言,這種主體性消解主要體現(xiàn)在以下方面:

首先,算法使人面臨客體化的危險(xiǎn)。人工智能算法中,個(gè)人逐步被數(shù)據(jù)化和被計(jì)算化。在數(shù)據(jù)處理和整合時(shí),算法將人按照各種各樣的自動(dòng)化區(qū)分標(biāo)準(zhǔn)進(jìn)行排列,并賦予相應(yīng)的意義。個(gè)人一旦進(jìn)入這種數(shù)據(jù)化的“微粒社會(huì)”,就成為被算法定義的對象。這種新興的算法權(quán)力并不是從主體角度,而是從作為可以被計(jì)算、預(yù)測和被控制的客體的角度來看待個(gè)人的。1.滿足算法預(yù)設(shè)條件是用戶進(jìn)入人工智能算法的前提。從性質(zhì)上講,人工智能算法是一個(gè)網(wǎng)絡(luò)技術(shù)和信息技術(shù)結(jié)合而建構(gòu)出來的虛擬世界。個(gè)人要想進(jìn)入網(wǎng)絡(luò)接受平臺(tái)提供的服務(wù),獲得平臺(tái)承諾的優(yōu)惠和完成支付等,就必須接受通過代碼加以確定和規(guī)制的交易規(guī)則與支付規(guī)則。2.算法決定著人們在網(wǎng)絡(luò)空間中的自由度。網(wǎng)絡(luò)社會(huì)具有發(fā)達(dá)的信息篩選機(jī)制。這種機(jī)制通過設(shè)置技術(shù)障礙的方式,促進(jìn)網(wǎng)絡(luò)空間的分區(qū),限制個(gè)人訪問網(wǎng)絡(luò)空間信息的權(quán)利。它主要通過網(wǎng)絡(luò)巡查(CyberPatrol)、網(wǎng)絡(luò)監(jiān)視(SurfWatch)等篩選軟件或利用瀏覽器的現(xiàn)有內(nèi)置功能來實(shí)現(xiàn)控制。這些機(jī)制通過算法來定義網(wǎng)絡(luò)分級檢索方式和網(wǎng)絡(luò)文件分級標(biāo)簽語法。人們要想在網(wǎng)絡(luò)空間享有更大的自由權(quán),就必須符合算法所認(rèn)可的代碼要求。3.算法將人類作為“計(jì)算組件”來增強(qiáng)算法自身的權(quán)威。例如,亞馬遜的勞務(wù)眾包平臺(tái)(MechanicalTurk)就將勞動(dòng)者視為一個(gè)完整的計(jì)算組件來映射進(jìn)算法函數(shù)中。在這個(gè)算法系統(tǒng)中,人類從屬于充當(dāng)雇主的算法。算法系統(tǒng)按照評級標(biāo)準(zhǔn)自動(dòng)分配勞務(wù)。美國和印度之外其他國家的勞動(dòng)者通過亞馬遜禮品卡獲取報(bào)酬。這些勞動(dòng)者可以用禮品卡兌換比特幣,從而獲得現(xiàn)金酬勞。Caitlin Lustig認(rèn)為,這種勞務(wù)眾包平臺(tái)能夠運(yùn)行下去的一個(gè)重要原因,是因?yàn)槿藗冋趶膶θ说男湃无D(zhuǎn)向?qū)C(jī)器和算法的信任,從而導(dǎo)致了技術(shù)異化。其次,算法容易將人鎖定在自我編織的“信息繭房”中。“信息繭房”是桑斯坦提出的一個(gè)重要概念。他指出,在互聯(lián)網(wǎng)時(shí)代,伴隨網(wǎng)絡(luò)技術(shù)的發(fā)達(dá)以及信息量的劇增,每個(gè)人都能隨意選擇關(guān)注的話題,并可以根據(jù)自己的喜好打造一份“個(gè)人日報(bào)”,但這種信息選擇行為將會(huì)導(dǎo)致“信息繭房”的形成。他所謂的“信息繭房”,是指傳播體系個(gè)人化所導(dǎo)致的信息封閉的后果。當(dāng)個(gè)體只關(guān)注自我選擇的或能夠愉悅自身的內(nèi)容,而減少對其他信息的接觸時(shí),久而久之,便會(huì)像蠶一樣逐漸桎梏于自我編織的“繭房”之中。這種信息的自我鎖定狀態(tài),將引起以下不利后果:其一,算法推送的信息潛移默化地影響著人們的認(rèn)知框架和價(jià)值選擇。張愛軍和王首航認(rèn)為,算法作為一項(xiàng)技術(shù)手段,能夠起到重構(gòu)公眾環(huán)境、規(guī)范人的行為的作用。算法的精準(zhǔn)性在便于人們迅速獲得信息的同時(shí),也塑造著個(gè)體的認(rèn)知結(jié)構(gòu),使人們固守在自身的信息繭房,逐漸受到算法的“馴化”。其二,算法會(huì)進(jìn)一步強(qiáng)化人的既有觀念和想法,不利于人的觀念的更新與發(fā)展。算法主要是利用對個(gè)人的圖譜畫像來實(shí)現(xiàn)學(xué)習(xí)和進(jìn)化的。換言之,個(gè)人數(shù)據(jù)在喂養(yǎng)著算法。然而,這些數(shù)據(jù)往往具有時(shí)態(tài)上的慣性,并反映著人們對事物的看法。算法這種單向進(jìn)化的學(xué)習(xí)思路,會(huì)進(jìn)一步通過計(jì)算機(jī)強(qiáng)化這種刻板印象,從而“屏蔽”其他信息。因此,桑斯坦一再強(qiáng)調(diào)算法會(huì)“將用戶束縛在由興趣和先入之見所引導(dǎo)的狹隘的信息領(lǐng)域”。其三,算法容易加劇信息偏食現(xiàn)象,侵蝕個(gè)人對社會(huì)的認(rèn)同。隨著算法技術(shù)的發(fā)展,信息“私人訂制”會(huì)變得更為普遍,個(gè)人信息偏食現(xiàn)象必將愈演愈烈,以致于侵蝕社會(huì)的共識基礎(chǔ),危害民主社會(huì)的發(fā)展。

再次,人工智能算法在語言和思維層面愈來愈迫近人類。語言和思維是人類區(qū)別于其他物種而具有主體性地位的重要原因。趙汀陽認(rèn)為,語言具有自身的生成規(guī)則,并且能夠在語言系統(tǒng)內(nèi)部加以表達(dá)和解釋。任何一個(gè)語句或詞匯都能夠在元語言層次被分析為可判定的(所有可清楚界定的句子)或不可判定的(比如語義悖論)。它能夠生成無窮的語句并借以表達(dá)一切現(xiàn)實(shí)事物和可能性。語言的這些特性決定了語言具有構(gòu)造世界的能力。因此,具備了等價(jià)于人類語言的任何一種語言能力就等于具有了思想的能力,并能夠構(gòu)造世界。具備了語言能力的人工智能在地位上也會(huì)迫近人類,動(dòng)搖人類的主體性地位。就人工智能算法發(fā)展來看,它大致經(jīng)歷了從物理系統(tǒng)到仿生神經(jīng)網(wǎng)絡(luò)系統(tǒng)的發(fā)展歷程。這種仿生神經(jīng)網(wǎng)絡(luò)系統(tǒng)的人工智能算法模擬大腦中真實(shí)鏈接和處理信息的神經(jīng)元結(jié)構(gòu)。它改變了物理系統(tǒng)階段的顯式指令式編程的語言方式法,采取LISP語言實(shí)現(xiàn)算法深度學(xué)習(xí)的目的。這種從HOW型低級語言向WHAT型高級語言的進(jìn)化,有助于計(jì)算機(jī)不斷從經(jīng)驗(yàn)感官刺激過程中形成抽象知識和概念,為聲明式編程語言、函數(shù)式編程語言和動(dòng)態(tài)語言等未來計(jì)算機(jī)編程語言奠定了基礎(chǔ)。這勢必增強(qiáng)程序在運(yùn)行過程中根據(jù)具體情勢改變結(jié)構(gòu)的能力。這種算法的語言和思維會(huì)不斷靠近智能發(fā)展的“奇點(diǎn)”,甚至有可能具有哥德爾反思能力,從而迫近人類,對人類的主體性地位構(gòu)成挑戰(zhàn)。

最后,算法可能將人擠出就業(yè)市場,造成更為徹底的“無用階層”。人工智能算法的高度智能化釋放出巨大的生產(chǎn)力,愈來愈突破了人類以往的計(jì)量體系,人類對算法的依賴程度也愈來愈高。原本由人從事的勞動(dòng)和工作,愈來愈交由機(jī)器來完成。這會(huì)大大減少人類的工作崗位,從而沖擊人的實(shí)踐主體性的特質(zhì)?!爱?dāng)勞動(dòng),特別以改造自然為目的的勞動(dòng)不再成為生存的需要,那么人作為類的普遍性本質(zhì),人作為實(shí)踐主體的本質(zhì)就部分地喪失。”另一方面,算法有助于財(cái)富進(jìn)一步向少數(shù)精英集中。在算法集中財(cái)富的過程中,處于社會(huì)底層的“失能者”改變自己命運(yùn)的難度便愈來愈大,社會(huì)階層固化現(xiàn)象會(huì)更為明顯。對此,尤瓦爾·赫拉利認(rèn)為:“隨著算法將人類擠出就業(yè)市場,財(cái)富和權(quán)利可能會(huì)集中在擁有強(qiáng)大算法的極少數(shù)精英手中,造成前所未有的社會(huì)及政治不平等?!?/span>

(二)人工智能算法正義觀的危機(jī)

現(xiàn)代社會(huì)是一個(gè)追求正義的社會(huì)。它強(qiáng)調(diào)社會(huì)基本結(jié)構(gòu)應(yīng)當(dāng)建立在正義所蘊(yùn)涵的自由、平等和權(quán)利等價(jià)值基礎(chǔ)上。只有體現(xiàn)自由、平等和權(quán)利等價(jià)值的社會(huì),才是正義的社會(huì)。按照這種社會(huì)正義的要求,現(xiàn)代社會(huì)應(yīng)當(dāng)確立“人為目的”的道德觀,應(yīng)當(dāng)樹立權(quán)利優(yōu)先性的基本理念。然而,人工智能算法秉持的并不是這種以個(gè)人正義觀為核心的社會(huì)正義觀,而是一種以效率為核心的群組正義觀?!叭航M正義觀”是建立在統(tǒng)計(jì)奇偶性(statisticalparity)基礎(chǔ)上的正義觀。CynthiaDwork等人認(rèn)為,統(tǒng)計(jì)奇偶性強(qiáng)調(diào)接受正負(fù)分類的人的人口統(tǒng)計(jì)學(xué)與總體人口統(tǒng)計(jì)學(xué)具有相同的特征,因此,統(tǒng)計(jì)均等性被等同于群體性的公平。就算法而言,它不太考慮個(gè)人的差異性,而是將群組作為分析單位,并對不同群組作同質(zhì)化處理。即使群組和個(gè)人存在差異,算法也認(rèn)為這些差異無法人為加以控制,因此,在算法決策時(shí)也應(yīng)當(dāng)將這些差異因素排除出去。這樣能夠抵消冗余的編程,減少算法設(shè)計(jì)和運(yùn)行的成本。

然而,這種群組性社會(huì)正義觀對現(xiàn)代社會(huì)正義觀提出了嚴(yán)峻的挑戰(zhàn)。從本質(zhì)上講,現(xiàn)代社會(huì)的正義觀是建立在道德目的論基礎(chǔ)上的。萬俊人認(rèn)為,道德的根本意義是對人的行為本身的價(jià)值評價(jià),而一行為善惡好壞的性質(zhì)和程度,最終取決于該行為所產(chǎn)生的實(shí)際結(jié)果,該行為結(jié)果必須是實(shí)質(zhì)性的、且首先是相對于行為主體自身而言,其次才是相對于其他相關(guān)群體或個(gè)體。因此,它以“人的道德行為的圓滿實(shí)現(xiàn)為根本價(jià)值目標(biāo)和評價(jià)標(biāo)準(zhǔn),所看重的是行為的最終結(jié)局(thefinality)或最高實(shí)現(xiàn)(thefinalrealization)”。算法群組正義觀則主要是從整體主義和工具主義角度來看待個(gè)人的。它主張人們對技術(shù)作去價(jià)值觀的理解,并將效率作為人類活動(dòng)的首要標(biāo)準(zhǔn)。它把計(jì)算作為社會(huì)的本質(zhì),并用計(jì)算手段代替人的生活目的。因此,算法將人的理想和目的淹沒在電子忙碌中,這種理念將社會(huì)的精神價(jià)值技術(shù)化,從而與人類生活中的道德觀念和人的道德目的論格格不入。

算法對道德目的論的沖擊,動(dòng)搖了社會(huì)正義觀中權(quán)利優(yōu)先性這一核心理念。羅爾斯認(rèn)為:“權(quán)利的優(yōu)先性理念是一個(gè)根本要素,而在公平正義中,該理念作為公平正義觀點(diǎn)的一種形式具有其核心作用?!彼珜?dǎo)個(gè)人的基本權(quán)利應(yīng)當(dāng)優(yōu)先于公共的“善”。個(gè)人只有在尊重權(quán)利的前提下,才能去追求自己的“善”。任何違背個(gè)人權(quán)利去追求特定“善”的行為,都是一種不正當(dāng)?shù)男袨椤K惴ㄈ航M社會(huì)正義觀往往從后果主義出發(fā),注重決策行為的績效正當(dāng)性,而無視個(gè)人權(quán)利。它將效率和便利凌駕于個(gè)人權(quán)利之上,認(rèn)為效率應(yīng)當(dāng)優(yōu)先于個(gè)人權(quán)利。為了獲得算法決策的便利,克減個(gè)人的一些權(quán)利具有后果主義上的正當(dāng)性。例如,在算法驅(qū)動(dòng)的路線導(dǎo)航實(shí)驗(yàn)系統(tǒng)中,算法所使用的數(shù)據(jù)都是在缺乏用戶知情同意的前提下采集的,而且,整個(gè)算法系統(tǒng)更為傾向選擇那些信息較少的用戶作為實(shí)驗(yàn)對象。

(三)人工智能算法的標(biāo)簽化效應(yīng)

人工智能算法具有極強(qiáng)的分類篩選能力和超乎想象的預(yù)測能力。它主要是通過選擇與各種行為具有密切關(guān)聯(lián)性的數(shù)據(jù)的顯著特征來工作的。因此,算法極有可能基于分類篩選機(jī)制而形成“大數(shù)據(jù)黑名單”。這些“黑名單”不恰當(dāng)?shù)貙€(gè)人或群體標(biāo)記為具有某種風(fēng)險(xiǎn)或傾向,進(jìn)而限制或排除他們的權(quán)利或機(jī)會(huì)。例如,美國有些法院利用Northpoint公司開發(fā)的犯罪風(fēng)險(xiǎn)評估算法COMPAS對犯罪人的再犯風(fēng)險(xiǎn)進(jìn)行評估。法官可以根據(jù)這個(gè)再犯風(fēng)險(xiǎn)分值來決定犯罪人應(yīng)受的刑罰。又如,Gogle算法通過過去的搜索行為模式,以非洲裔美國人相關(guān)姓名進(jìn)行搜索,要比以高加索人相關(guān)姓名進(jìn)行搜索顯示的犯罪信息多得多。這極有可能給某些個(gè)人或群體貼上標(biāo)簽,形成一種不好的“刻板印象”。

這種標(biāo)簽化對寬恕這一現(xiàn)代社會(huì)的基本倫理價(jià)值提出了重大挑戰(zhàn)。慈繼偉將人的生活邏輯分為“正義的邏輯”和“超越正義的邏輯”。“正義的邏輯”強(qiáng)調(diào)人與人之間的“等利害交換關(guān)系”和“互惠性”,以及建立在此基礎(chǔ)上的正義感,而“超越正義的邏輯”強(qiáng)調(diào)人有向善的可能性。它承認(rèn)了人們應(yīng)當(dāng)在尊重道德人格主體平等和價(jià)值多元化前提下對傷害行為作出一定的理解和容讓。然而,在人工智能算法中,一旦某個(gè)個(gè)體或群體具有了污名化的算法身份,就會(huì)一直被帶進(jìn)下一輪的運(yùn)算中。“基于算法身份的算法決策會(huì)產(chǎn)生關(guān)于個(gè)體的新推斷,并影響個(gè)體的行為,進(jìn)而形成更多的數(shù)據(jù),而這些新數(shù)據(jù)則會(huì)成為算法再一次對個(gè)體進(jìn)行分類、確定算法身份并作出推斷的數(shù)據(jù)基礎(chǔ)。如此一來,劣勢則會(huì)越累積越多。與此同時(shí),算法在劣勢累積影響下所作出的推斷與決策結(jié)果還將導(dǎo)致對少數(shù)群體或受保護(hù)群體的負(fù)面成見,即污名化與自我應(yīng)驗(yàn)預(yù)言的實(shí)現(xiàn)。”這種算法的標(biāo)簽化和污名化既沒有考慮個(gè)體或群體具有向善的一面,也沒有考慮人因過錯(cuò)而接受懲罰應(yīng)該是有期限的一面,從根本上否定了人有做錯(cuò)事的權(quán)利。

三、人工智能算法法律規(guī)制遇到的挑戰(zhàn)

(一)運(yùn)用法律主體制度規(guī)制人工智能算法的難題

算法自動(dòng)化決策在推動(dòng)社會(huì)進(jìn)步的同時(shí),也帶來一系列的社會(huì)問題和法律問題。人們試圖通過既有的法律主體性制度來解決這些問題。2017年2月歐盟表決通過的《歐盟機(jī)器人民事責(zé)任法律規(guī)則》提出了“非人類的代理人”的概念。這一概念的實(shí)質(zhì)是將人工智能作為一個(gè)有目的性的系統(tǒng),并在實(shí)質(zhì)上將工人智能體作為民事主體。是年,沙特阿拉伯給我國香港HansonRobotics公司研發(fā)的表情機(jī)器人“索菲亞”授予公民資格。我國制定的《新一代人工智能發(fā)展規(guī)劃》也提出“明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任”。這些制度構(gòu)想和法律實(shí)踐的核心就是要運(yùn)用現(xiàn)代法律主體制度,通過賦予作為算法載體而存在的人工智能體相應(yīng)的法律主體資格來解決財(cái)產(chǎn)權(quán)利歸屬、法律責(zé)任承擔(dān)等問題。這種法律主體性制度構(gòu)想體現(xiàn)了進(jìn)一步捍衛(wèi)現(xiàn)代社會(huì)主體性倫理基礎(chǔ)的努力,但是,它難以適應(yīng)人工智能算法運(yùn)行的基本邏輯。這種“生硬”的制度“嫁接”,既難以在法學(xué)理論上實(shí)現(xiàn)邏輯自洽,也難以對人工智能算法的健康發(fā)展進(jìn)行有效引導(dǎo)。

現(xiàn)代法律主體制度是建立在對人的哲學(xué)理解基礎(chǔ)上的。它強(qiáng)調(diào)人除了具有認(rèn)知、判斷和選擇等能力以外,還具備道德、良心、良知、倫理等要素。因此,法律主體制度是以人具有獨(dú)立的人格為前提的,并將人作為一個(gè)不證自明的法律目的。運(yùn)用法律主體制度來解決算法誘發(fā)的倫理問題與社會(huì)問題會(huì)存在諸多障礙。首先,人類設(shè)計(jì)算法和發(fā)明作為算法載體而存在的人工智能體的目的并不是為了創(chuàng)制一個(gè)目的性存在,而是要為人類生活服務(wù)。換言之,算法及作為算法載體而存在的人工智能體始終是一種工具性存在。盡管算法系統(tǒng)經(jīng)歷了從物理系統(tǒng)到仿生神經(jīng)網(wǎng)絡(luò)系統(tǒng)的發(fā)展,并不斷迫近人類的神經(jīng)認(rèn)知系統(tǒng),但是,它“沒有上升到有生命的狀態(tài),不具備生命所要求的能夠利用外界物質(zhì)形成自己的身體和繁殖后代,按照遺傳的特點(diǎn)生長、發(fā)育并在外部環(huán)境發(fā)生變化時(shí)及時(shí)適應(yīng)環(huán)境的能力”。而人自然生命的目的神圣性是法律主體制度建立的基礎(chǔ)。賦予作為算法載體而存在的人工智能法律主體地位,既會(huì)冒犯人的自然生命的目的神圣性,又顛倒了目的與工具的關(guān)系。其次,運(yùn)用法律主體制度規(guī)制算法,無法實(shí)現(xiàn)權(quán)利義務(wù)統(tǒng)一性原則。權(quán)利與義務(wù)相統(tǒng)一原則是現(xiàn)代法律的一項(xiàng)基本原則,也是法律主體的核心內(nèi)涵。賦予作為算法載體的人工智能體法律主體地位,是一種授予權(quán)利的行為。但是,既有的法學(xué)理論無法回答人工智能體獨(dú)立承擔(dān)相應(yīng)的法律責(zé)任的問題?!胺▽W(xué)家目前設(shè)想的方案是像機(jī)動(dòng)車強(qiáng)制保險(xiǎn)那樣為人工智能進(jìn)行投?;蛟O(shè)置某種基金,但這種責(zé)任仍然是人類的財(cái)產(chǎn)責(zé)任而不是AI的獨(dú)立責(zé)任。因此,‘主張人工智能具有主體資格......不具有現(xiàn)實(shí)性意義’,人工智能達(dá)到權(quán)利義務(wù)相統(tǒng)一的法教義要求幾乎不可能,體系性思考的缺失只會(huì)顧此失彼、不可能拼湊出一個(gè)法律上的新主體?!弊詈?,算法目前通過深度學(xué)習(xí)難以進(jìn)化出人的自由意志和情感。現(xiàn)代法律主體制度深受康德自由意志學(xué)說影響,并將自由意志和情感作為法律主體的必備要件。隨著科學(xué)技術(shù)的發(fā)展,算法的學(xué)習(xí)能力得到大幅度提高,并形成了一定的語言和思維能力。但是,要想在短期內(nèi)進(jìn)化出反思能力,具有同人類一樣的自由意志與情感則幾乎不可能。

(二)運(yùn)用透明性原則規(guī)制人工智能算法的難題

為了規(guī)制算法權(quán)力,揭開“算法黑箱”,人們愈來愈傾向于運(yùn)用透明性原則,因?yàn)橥该餍栽瓌t能夠彌補(bǔ)決策者與相對人之間形成的“數(shù)字鴻溝”,避免信息的過度不對稱導(dǎo)致技術(shù)劣勢一方依附于技術(shù)強(qiáng)勢一方,從而演變成數(shù)字經(jīng)濟(jì)時(shí)代的精英統(tǒng)治。美國聯(lián)邦貿(mào)易委員會(huì)認(rèn)為,信息掌握在消費(fèi)者手中,能夠提高其合理購買的決策能力,這是我們經(jīng)濟(jì)體系的基本原則。這對于經(jīng)濟(jì)的有效運(yùn)作來說,是絕對必要的。因此,美國政府及司法機(jī)關(guān)極力倡導(dǎo)與宣傳算法透明度的重要性,例如,美國聯(lián)邦貿(mào)易委員會(huì)技術(shù)研究和調(diào)查辦公室就強(qiáng)調(diào)算法透明度的重要性,并向FTC消費(fèi)者保護(hù)調(diào)查員和律師提供有關(guān)算法透明度的培訓(xùn)和技術(shù)專業(yè)知識。算法透明度主要包括算法源代碼的透明性和開放性;公布用于做出相關(guān)算法決策的輸入和輸出過程;以簡明易懂的方式公開輸入到輸出的中間過程,以便被決策對象充分知悉并認(rèn)同算法的正當(dāng)合理性等內(nèi)容。2017年,美國計(jì)算機(jī)學(xué)會(huì)公眾政策委員會(huì)公布了知情原則、質(zhì)詢和申訴原則、算法責(zé)任認(rèn)定原則、解釋原則、數(shù)據(jù)來源披露原則和可審計(jì)原則等六項(xiàng)原則。歐盟也積極加強(qiáng)透明度原則的實(shí)踐,并在歐盟《通用數(shù)據(jù)保護(hù)條例》中試圖通過賦予人們算法解釋權(quán)來確保透明度原則的實(shí)現(xiàn)。該《條例》第71條規(guī)定:“在任何情況下,該等處理應(yīng)該采取適當(dāng)?shù)谋U希ㄏ驍?shù)據(jù)主體提供具體信息,以及獲得人為干預(yù)的權(quán)利,以表達(dá)數(shù)據(jù)主體的觀點(diǎn),在評估后獲得決定解釋權(quán)并質(zhì)疑該決定?!边@種透明性原則實(shí)質(zhì)是現(xiàn)代信息公開制度在人工智能算法領(lǐng)域的援用。它雖然在防止算法技術(shù)異化方面起到了一定的作用,但仍然會(huì)受到算法性質(zhì)、公眾認(rèn)知能力和算法自身的可解釋性等因素的影響。1.就算法的性質(zhì)而言,各國法院傾向于認(rèn)為它是一種商業(yè)秘密。在 State訴Lomis案中,美國威斯康星州最高法院認(rèn)為,COMPAS評估算法屬于商業(yè)秘密,魯米斯提出的初審法院依賴COMPAS評估算法作出判決侵犯他的正當(dāng)程序權(quán)利和平等保護(hù)權(quán)的訴求不合法。在德國,聯(lián)邦最高法院也認(rèn)為,算法是公司的核心商業(yè)秘密(Geschftsgeheimnis),當(dāng)事人要求信用卡公司公開信用評估核心公式(Scoreformel)是不合理的。法院之所以要將算法看作是一種商業(yè)秘密,主要是基于人工智能算法運(yùn)作的效率邏輯考慮。算法的設(shè)計(jì)和運(yùn)行都需要大量資金投入,而且一旦公開透明,就極有可能出現(xiàn)“搭便車”現(xiàn)象,好的算法、收益率高的算法、行業(yè)領(lǐng)導(dǎo)者的算法可能會(huì)引起業(yè)界的效仿,從而會(huì)出現(xiàn)“羊群效應(yīng)”,加大順周期的風(fēng)險(xiǎn)。這極有可能影響算法公司對算法的開發(fā),阻礙科技的發(fā)展和進(jìn)步。2就公眾的認(rèn)知能力而言,絕大多數(shù)非專業(yè)人士都不具備讀懂算法語言的基本能力。透明性原則的核心是通過公眾的知曉和理解來防止決策的失誤和不公正??炊屠斫鈩t是公眾監(jiān)督的前提。人們依憑看懂和理解的信息,并結(jié)合生活中的常識判斷,能夠作出一個(gè)較為客觀公允的結(jié)論。然而,算法極強(qiáng)的專業(yè)性和嵌入性,極大地超越了普通人的常識判斷,絕大多數(shù)非專業(yè)人士根本無法看懂和理解算法。換言之,人工智能算法是一個(gè)自我封閉的“孤島”,要想理解算法,就必須具備相應(yīng)的知識體系和認(rèn)知能力。因此,運(yùn)用透明性原則來規(guī)制算法的效果不會(huì)十分理想。3就算法自身的可解釋性而言,它是運(yùn)用透明性原則規(guī)制人工智能算法的前提。某一事物只有具有可解釋性,才既能夠在公眾面前得到有效的開示,又能使專業(yè)技術(shù)人員對自身行為的正當(dāng)性進(jìn)行有效辯解。從本質(zhì)上講,算法是在特定的網(wǎng)絡(luò)架構(gòu)模式中,通過計(jì)算機(jī)語言進(jìn)行具體編程而組合成一套源代碼系統(tǒng)。簡單的算法具有可控性,是可以解釋的,但是,復(fù)雜的算法對于數(shù)據(jù)和硬件設(shè)施的依賴程度會(huì)很高,并且它們在不斷地進(jìn)行學(xué)習(xí)和自我進(jìn)化。這使算法得出的結(jié)論的可解釋性變得愈來愈孱弱。另一方面,對于涉及一些隨機(jī)因素的決策過程,即使將系統(tǒng)源代碼、輸入、操作環(huán)境和結(jié)果完全透明公開,也不排除算法結(jié)果可能會(huì)以一種不可檢測的方式被不恰當(dāng)?shù)毓潭ㄏ聛?。JoshuaAKrol等人以經(jīng)典彩票為例論證了這一觀點(diǎn)。他們認(rèn)為一種完美透明的算法,隨機(jī)數(shù)生成器每次都會(huì)生成不同的隨機(jī)數(shù)。這種算法結(jié)果是難以復(fù)制或驗(yàn)證的。這種技術(shù)上的難以復(fù)制性降低了透明性原則在規(guī)制算法方面作用的發(fā)揮。

(三)運(yùn)用數(shù)據(jù)權(quán)約束人工智能算法的難題

在人工智能算法中,數(shù)據(jù)與算法的關(guān)系極為密切,以致于“數(shù)據(jù)喂養(yǎng)著人工智能”成為一個(gè)基本的共識。計(jì)算機(jī)只有吸收大量的數(shù)據(jù),算法才能運(yùn)行起來,并得到學(xué)習(xí)和進(jìn)化。而算法又能夠?qū)?shù)據(jù)加以轉(zhuǎn)化和控制,從而形成一種“準(zhǔn)公權(quán)力”,這是算法異化的一個(gè)重要原因。因此,人們認(rèn)為運(yùn)用數(shù)據(jù)權(quán)的保護(hù)模式能夠有效地解決人工智能算法的倫理危機(jī)。例如,《歐盟通用數(shù)據(jù)保護(hù)條例》從個(gè)人對數(shù)據(jù)的自決權(quán)出發(fā)建構(gòu)了一套個(gè)人數(shù)據(jù)權(quán)利體系來約束算法行為。該條例第2條提出,通過保護(hù)數(shù)據(jù)流動(dòng)和數(shù)據(jù)處理過程中自然人所享有的數(shù)據(jù)權(quán)利來規(guī)范算法行為。為了實(shí)現(xiàn)這一目標(biāo),該條例規(guī)定數(shù)據(jù)權(quán)人享有知情權(quán)、要求更正權(quán)、要求刪除權(quán)和限制處理權(quán)等具體權(quán)利形態(tài)。學(xué)者們也認(rèn)為,中國應(yīng)當(dāng)盡快出臺(tái)保護(hù)數(shù)據(jù)和數(shù)據(jù)生產(chǎn)者合法權(quán)利的法律法規(guī),明確數(shù)據(jù)的產(chǎn)權(quán)主體,建立使用者付費(fèi)制度,防止資本對于公民數(shù)據(jù)和國家數(shù)據(jù)的濫用。這種制度設(shè)計(jì)和制度構(gòu)想,并不適合人工智能算法的運(yùn)行邏輯。因?yàn)椋斯ぶ悄芩惴ǖ那度脒壿嫼托手鲗?dǎo)邏輯產(chǎn)生了新的知識生產(chǎn)和治理模式。它模糊了數(shù)據(jù)權(quán)利的主體范圍、架空了個(gè)人數(shù)據(jù)保護(hù)的知情同意原則、阻礙著個(gè)人的更正權(quán)。具體來講,運(yùn)用數(shù)據(jù)權(quán)來約束人工智能算法存在以下難題:第一,數(shù)據(jù)權(quán)的內(nèi)容和歸屬界定困難。權(quán)利內(nèi)容清晰和歸屬明確是權(quán)利有效行使的前提,而算法運(yùn)用的數(shù)據(jù)非常復(fù)雜。它近似于一個(gè)倉庫、可以分為數(shù)據(jù)運(yùn)營層、數(shù)據(jù)倉庫層和數(shù)據(jù)產(chǎn)品層等層級。不同的數(shù)據(jù)層對數(shù)據(jù)的管理和使用方式也不同,相應(yīng)地涉及具體的權(quán)利內(nèi)容也較為模糊。另一方面,平臺(tái)數(shù)據(jù)的權(quán)利主體難以通過法律條文和法律教義的分析來明確,也難以基于正當(dāng)性與后果主義的分析來界定,因?yàn)槠脚_(tái)數(shù)據(jù)既可以被認(rèn)為是個(gè)人所有、平臺(tái)所有、個(gè)人與平臺(tái)共有,也可以被認(rèn)為是互聯(lián)網(wǎng)空間的公共數(shù)據(jù)。第二,算法技術(shù)可以繞開數(shù)據(jù)權(quán)主體。隨著算法學(xué)習(xí)能力的不斷增強(qiáng),它愈來愈能夠?qū)A康臒o結(jié)構(gòu)數(shù)據(jù)(包括百度搜索記錄、淘寶購物記錄、手機(jī)GPS信息等各種電子痕跡)進(jìn)行分析和處理。個(gè)人身份的已識別或可識別狀態(tài)往往成為數(shù)據(jù)分析的結(jié)果而不是起點(diǎn)。特別是到了數(shù)據(jù)倉庫層和數(shù)據(jù)產(chǎn)品層,算法所處理的數(shù)據(jù)距離數(shù)據(jù)源中的原始數(shù)據(jù)愈來愈遠(yuǎn),因?yàn)樗惴ㄔ谧罱咏紨?shù)據(jù)的數(shù)據(jù)運(yùn)營層就進(jìn)行了去噪、去重、提臟、業(yè)務(wù)提取、單位統(tǒng)一、砍字段等多項(xiàng)工作。因此,算法技術(shù)繞開了數(shù)據(jù)權(quán)主體,致使“從數(shù)據(jù)是否已包含個(gè)人身份信息入手來規(guī)制算法無法達(dá)到保護(hù)個(gè)人權(quán)益的目的”。第三,數(shù)據(jù)權(quán)是一種以個(gè)人為中心的救濟(jì)模式,難以應(yīng)對算法權(quán)力的復(fù)雜性。從本質(zhì)上講,運(yùn)用數(shù)據(jù)權(quán)制約算法權(quán)力的思路是一種以單個(gè)的個(gè)體為中心來對抗“準(zhǔn)公權(quán)力”的思想。這種思路忽視了算法權(quán)力的技術(shù)性和資本性兩大基本特性。

算法權(quán)力的技術(shù)性增加了普通民眾的認(rèn)知難度。算法權(quán)力的資本性,決定了普通民眾難以用數(shù)據(jù)權(quán)來制約算法權(quán)力。算法設(shè)計(jì)者和研發(fā)者往往是一支龐大的專業(yè)團(tuán)隊(duì),并且擁有雄厚的財(cái)力支持。無論是法官,還是律師都難以應(yīng)對專業(yè)化的算法問題。這種認(rèn)知上和財(cái)力上的懸殊,使個(gè)人數(shù)據(jù)權(quán)難以對抗日益膨脹的算法權(quán)力。

四、人工智能算法法律規(guī)制的基本路徑

人工智能算法獨(dú)特的運(yùn)作邏輯致使運(yùn)用法律主體制度、透明性原則和數(shù)據(jù)權(quán)等方式化解人工智能算法的倫理危機(jī)和社會(huì)危機(jī)的思路難以奏效。因此,應(yīng)當(dāng)調(diào)整傳統(tǒng)法律制度的規(guī)制理念,構(gòu)建符合人工智能算法運(yùn)作基本邏輯的規(guī)制路徑。

(一)人工智能算法法律規(guī)制的基本理念

1.從用戶注意力到用戶數(shù)字福祉

受效率主導(dǎo)邏輯的支配,算法設(shè)計(jì)者和開發(fā)者往往將注意力集中在吸引甚至迎合用戶上。這種偏好原則可能將用戶鎖定在“信息繭房”中,從而忽視了用戶的數(shù)字福祉(digitalwel-being)。數(shù)字福祉主要包括以下兩大內(nèi)涵:一方面是人人都可享受到數(shù)字技術(shù)帶來的紅利,最大化地實(shí)現(xiàn)普惠和賦能;另一方面是促進(jìn)個(gè)人對數(shù)字技術(shù)和網(wǎng)絡(luò)服務(wù)的高質(zhì)量使用,減小、防止數(shù)字技術(shù)對個(gè)人的負(fù)面影響。2017年,英國科學(xué)院和皇家學(xué)會(huì)明確提出將促進(jìn)數(shù)字福祉的日益增長和人類繁榮作為數(shù)據(jù)開發(fā)、利用和管理的首要原則。這種數(shù)字福祉的范圍要大于數(shù)據(jù)權(quán)的范圍,體現(xiàn)在算法及作為算法載體而存在的人工智能體在認(rèn)識、動(dòng)機(jī)、結(jié)果、組織評價(jià)等多方面滿足善的要求。它能夠在社會(huì)提出的倫理原則或指導(dǎo)方針與算法設(shè)計(jì)者或開發(fā)者提出的目標(biāo)技術(shù)之間進(jìn)行一種反思性的平衡,并應(yīng)該在特定數(shù)據(jù)技術(shù)的開發(fā)、部署和使用等各個(gè)關(guān)鍵階段都發(fā)揮核心作用。隨著網(wǎng)絡(luò)技術(shù)和算法技術(shù)的發(fā)展,人們愈來愈強(qiáng)調(diào)算法設(shè)計(jì)者和開發(fā)者應(yīng)當(dāng)依循“經(jīng)由設(shè)計(jì)的數(shù)字福祉(digital well-being by design)”理念,將對用戶數(shù)字福祉的保障和促進(jìn)融入產(chǎn)品和服務(wù)的設(shè)計(jì)中去。這種算法中嵌入數(shù)字福祉的做法在醫(yī)療保健、教育和就業(yè)、治理和社會(huì)發(fā)展以及媒體和娛樂等領(lǐng)域愈來愈得到運(yùn)用。特別是數(shù)據(jù)技術(shù)所具有的積極計(jì)算能力,促進(jìn)了道德規(guī)范在算法設(shè)計(jì)過程中的嵌入,因?yàn)樗⒃诜e極心理學(xué)研究的基礎(chǔ)上。

2.從二元結(jié)構(gòu)到三元結(jié)構(gòu)

傳統(tǒng)的法律規(guī)制手段還是建立在國家與社會(huì)、公權(quán)力與私權(quán)利的二元結(jié)構(gòu)基礎(chǔ)上的。它強(qiáng)調(diào)國家以自主性為核心的“專斷性權(quán)力”和個(gè)人基本權(quán)利所具有的排除公權(quán)力侵害的防御功能。具體到算法規(guī)制領(lǐng)域,它主要體現(xiàn)為試圖建立一套以結(jié)果責(zé)任認(rèn)定為核心的政府事后監(jiān)管模式和以個(gè)人為中心的權(quán)利救濟(jì)模式。這些方式和手段雖然在一定程度上能夠起到糾正算法偏差的作用,但是對于嵌入到算法技術(shù)過程中的更為隱蔽的算法偏差的作用并不大。這需要我們重新認(rèn)識國家與社會(huì)、公權(quán)力與私權(quán)利、行政權(quán)力與技術(shù)權(quán)力的關(guān)系,并建立一種“政府—平臺(tái)—商戶(消費(fèi)者)、公權(quán)力—社會(huì)權(quán)力—私權(quán)利的三元結(jié)構(gòu)”。三元結(jié)構(gòu)中的國家與社會(huì)、公權(quán)力與私權(quán)利不再是簡單的消極對抗關(guān)系,政府權(quán)力也不應(yīng)該是一種高專斷性權(quán)力。人工智能算法構(gòu)造了一個(gè)信息社會(huì),信息成為了權(quán)力的中心,產(chǎn)生一種信息權(quán)力,這種信息權(quán)力制約和阻礙著以科層制為核心的政府權(quán)力的運(yùn)作,并在事實(shí)上改變了政府權(quán)力的運(yùn)作形態(tài)和人們對權(quán)力的認(rèn)識?!?5〕 算法平臺(tái)具有的經(jīng)營權(quán)、財(cái)產(chǎn)權(quán)和知識產(chǎn)權(quán)等一系列私權(quán)利會(huì)在這種信息優(yōu)勢和技術(shù)優(yōu)勢下演變?yōu)橐环N“準(zhǔn)公權(quán)力”?!芭c以往工商業(yè)時(shí)代的壟斷企業(yè)不同,它們不再局限于身為某個(gè)領(lǐng)域、某個(gè)行業(yè)的巨頭,而是具有超強(qiáng)滲透、覆蓋能力的全方位‘霸主’;它們不再局限于經(jīng)濟(jì)目標(biāo)上的經(jīng)營管理,而是通過制定平臺(tái)規(guī)則、處理平臺(tái)糾紛、行使平臺(tái)監(jiān)管權(quán)等賦有了‘準(zhǔn)立法權(quán)’‘準(zhǔn)行政權(quán)’‘準(zhǔn)司法權(quán)’。”政府在算法規(guī)制過程中,也需要借助算法平臺(tái)、程序員和人工智能專家的信息優(yōu)勢和技術(shù)優(yōu)勢,實(shí)現(xiàn)合作性治理。因此,算法平臺(tái)企業(yè)、程序員和人工智能專家不僅是政府監(jiān)管的對象,也是政府監(jiān)管的參與者、決策者和執(zhí)行者。國家有關(guān)算法規(guī)制法律規(guī)范的制定和執(zhí)行都離不開他們的積極參與,而且這種參與的深度和力度要遠(yuǎn)遠(yuǎn)超過二元結(jié)構(gòu)中的公眾參與。

3.從依靠政府管控到政府克制

人工智能算法運(yùn)作的效率主導(dǎo)邏輯以及由此衍生出來的群組正義觀決定了算法治理過程中必須高度重視權(quán)利保護(hù)與科技創(chuàng)新之間的平衡問題。而法律規(guī)制因遵循集權(quán)邏輯、權(quán)利邏輯和客觀認(rèn)定事實(shí)邏輯而與人工智能算法運(yùn)作所奉行的基本邏輯存在較大差異。如果一味地運(yùn)用法律規(guī)制特別是運(yùn)用政府管制手段,勢必會(huì)以犧牲算法科技的活力和創(chuàng)造力為代價(jià),進(jìn)而影響算法技術(shù)的發(fā)展。例如,對于無人駕駛的刑法規(guī)制就應(yīng)當(dāng)采取克制與審慎的態(tài)度,因?yàn)榕鲎菜惴ㄟ€處于發(fā)展之中,算法技術(shù)之爭導(dǎo)致算法規(guī)范的爭議,目前碰撞算法對于事故參數(shù)還處于初步應(yīng)用階段,對于這種算法采取刑事規(guī)制無疑會(huì)阻礙算法創(chuàng)新。而且,算法自身也正在按照運(yùn)作的基本邏輯逐步衍生出一套約束和治理機(jī)制。例如,為了保護(hù)消費(fèi)者的身心健康,AndroidP、iOS12和Facebok等都設(shè)置了“屏幕使用時(shí)間”,以幫助用戶將手機(jī)和網(wǎng)絡(luò)使用時(shí)間控制在合理限度。算法企業(yè)也可以通過行業(yè)技術(shù)標(biāo)準(zhǔn)和倫理道德規(guī)范來減少或克服算法帶來的風(fēng)險(xiǎn)和危害。這些機(jī)制既能降低法律運(yùn)作的成本,又可以避免法律規(guī)制給技術(shù)創(chuàng)新可能帶來的負(fù)面效應(yīng)。因此,政府進(jìn)行算法規(guī)制時(shí),應(yīng)當(dāng)樹立權(quán)力克制的基本理念,堅(jiān)持多元主義的治理方向,并為技術(shù)治理、倫理治理和其他治理留下必要的空間。

另一方面,傳統(tǒng)政府管控手段的合法性正在受到人工智能算法專業(yè)性的挑戰(zhàn)。在傳統(tǒng)集權(quán)體制下,政府管控手段的合法性來源于其基于縱向?qū)蛹壥浇Y(jié)構(gòu)而形成的一種知識與信息壟斷。然而,在人工智能算法中,知識與信息的碎片化和分散化消解了傳統(tǒng)管控手段的合法性。更為重要的是,算法問題“可能會(huì)涉及到有著高度不確定性的未知事項(xiàng),所要求的不僅僅是從‘事實(shí)’到‘法律’的推理,還要求在復(fù)雜模型和統(tǒng)計(jì)學(xué)幫助下,在純技術(shù)‘事實(shí)’間的推演。面對法律和事實(shí)的混合問題,面對法律和科技的絞結(jié),法院很難肩負(fù)起對技術(shù)標(biāo)準(zhǔn)進(jìn)行司法審查的重?fù)?dān)?!边@種政府認(rèn)知能力不足的客觀現(xiàn)實(shí),需要權(quán)力保持必要的克制。

(二)人工智能算法法律規(guī)制的主要路徑

人工智能算法法律規(guī)制基本理念的轉(zhuǎn)變必然帶來法律規(guī)制路徑的變化。具體來講,人工智能算法的法律規(guī)制應(yīng)當(dāng)強(qiáng)調(diào)元規(guī)制治理,突出數(shù)據(jù)控制者的自我控制義務(wù);加強(qiáng)政府、平臺(tái)和社會(huì)三方的合作治理,通過第三方參與實(shí)現(xiàn)對算法的協(xié)同治理;完善算法責(zé)任分擔(dān)機(jī)制,建立算法安全風(fēng)險(xiǎn)的保險(xiǎn)制度等。

1.人工智能算法的元規(guī)制治理

按照鮑德溫等人的界定,元規(guī)制治理是規(guī)制對象在政府外在規(guī)制作用下,由規(guī)制客體轉(zhuǎn)變?yōu)橐?guī)制主體,從而采取具有內(nèi)控性質(zhì)的一種自我規(guī)制形式。這種規(guī)制形式具有政府規(guī)制和自我規(guī)制雙重面向。它既能防止自我規(guī)制出現(xiàn)自利性傾向,又能解決政府規(guī)制能力不足問題。在這一治理過程中,政府主要扮演著“掌舵者”的角色,它不斷地對規(guī)制系統(tǒng)進(jìn)行監(jiān)督與管理,并在發(fā)現(xiàn)問題時(shí),要求自我規(guī)制者及時(shí)制定應(yīng)對方案,對自身施加內(nèi)部式的規(guī)制。自我規(guī)制者則充分發(fā)揮其在專業(yè)技術(shù)方面的優(yōu)勢,并根據(jù)自身行業(yè)的特點(diǎn),制定相應(yīng)的規(guī)制方案。這既能減少規(guī)制上的知識障礙,又能增加規(guī)制執(zhí)行的靈活性,還能降低政府的規(guī)制成本。

就算法的元規(guī)制治理而言,應(yīng)當(dāng)強(qiáng)調(diào)通過激勵(lì)機(jī)制來促使數(shù)據(jù)控制者針對問題進(jìn)行內(nèi)控式的自我規(guī)制。在此過程中,數(shù)據(jù)控制者應(yīng)當(dāng)通過數(shù)據(jù)保護(hù)影響評估和“經(jīng)由設(shè)計(jì)的數(shù)據(jù)保護(hù)”等方式來履行數(shù)據(jù)保護(hù)義務(wù)。數(shù)據(jù)保護(hù)影響評估是對算法進(jìn)行的一種事先規(guī)制。它強(qiáng)調(diào)數(shù)據(jù)控制者對軟件產(chǎn)品和過程是否符合適用的法規(guī)標(biāo)準(zhǔn)、指南、計(jì)劃、規(guī)格和過程進(jìn)行獨(dú)立評估。為了強(qiáng)化評估的作用,只有那些通過專家、公共機(jī)構(gòu)和受算法決策影響的社區(qū)代表審查評估的算法,才能在一組實(shí)體之間共享或在公共站點(diǎn)上發(fā)布。在具體評估過程中,不但應(yīng)當(dāng)評估基于目的使用算法的必要性和相稱性,而且應(yīng)當(dāng)評估算法可能帶來的侵害自主權(quán)、差別性待遇、財(cái)產(chǎn)損失等風(fēng)險(xiǎn)。算法擁有者應(yīng)當(dāng)根據(jù)評估結(jié)果提出處理風(fēng)險(xiǎn)的預(yù)想方案。

“經(jīng)由設(shè)計(jì)的數(shù)據(jù)保護(hù)”是由歐盟《通用數(shù)據(jù)保護(hù)條例》提出來的。該《條例》第25條第1款規(guī)定:“考慮到行業(yè)最新水平、實(shí)施成本及處理的性質(zhì)、范圍、目的和內(nèi)容以及處理給自然人的權(quán)利與自由造成的影響,數(shù)據(jù)控制者應(yīng)當(dāng)在決定數(shù)據(jù)處理方式以及進(jìn)行處理時(shí)以有效的方式采取適當(dāng)?shù)慕M織和技術(shù)措施。”從本質(zhì)上講,該條款就是要將數(shù)據(jù)保護(hù)嵌入到算法的基礎(chǔ)架構(gòu)和具體實(shí)踐中。它為政府規(guī)制算法確定了基本目標(biāo),但保留了政府采取規(guī)制算法的具體措施的權(quán)力。當(dāng)下的算法規(guī)制應(yīng)當(dāng)進(jìn)一步強(qiáng)化“經(jīng)由設(shè)計(jì)的數(shù)據(jù)保護(hù)”這一措施,在兼顧算法行業(yè)特點(diǎn)的前提下,要求數(shù)據(jù)控制者采取具體的適當(dāng)措施來確保算法決策的科學(xué)性和公正性。

社會(huì)責(zé)任披露機(jī)制是人工智能算法元規(guī)制治理的重要組成部分。它通過在被規(guī)制者與規(guī)制受益群體之間建立激勵(lì)機(jī)制來推動(dòng)人工智能算法開發(fā)者和運(yùn)用者增強(qiáng)自我規(guī)制的能力,從而在市場上獲得更大的份額。這種信息披露機(jī)制要求“公司披露其社會(huì)責(zé)任表現(xiàn)能夠創(chuàng)造一種使利益相關(guān)者約束公司行為的情形。如果根據(jù)特定利益相關(guān)群體所期望遵守的行業(yè)規(guī)制標(biāo)準(zhǔn)來看,公司披露的社會(huì)責(zé)任信息是令人滿意的,那么它的后果可能是積極的。比如,公眾對公司聲譽(yù)的認(rèn)知可能會(huì)改善,對公司的投資可能會(huì)增加,或者公司將會(huì)獲得更大的市場份額。但如果評價(jià)是負(fù)面的,則可能會(huì)導(dǎo)致公司的聲譽(yù)受損,繼而帶來的是投資的減少以及市場份額的下降”。具體來講,政府監(jiān)管部門可以要求人工智能算法企業(yè)和平臺(tái)定期發(fā)布社會(huì)責(zé)任報(bào)告,強(qiáng)制披露風(fēng)險(xiǎn)活動(dòng),公開數(shù)據(jù)處理的目的、數(shù)據(jù)處理者的身份、數(shù)據(jù)接收者等相關(guān)信息。

2.人工智能算法的合作治理

隨著政府-平臺(tái)-商戶、公權(quán)力-社會(huì)權(quán)力-私權(quán)利三元結(jié)構(gòu)治理理念的確立,除了政府需要改變過去單向度的“命令加控制”的管控方式外,還需要構(gòu)建算法規(guī)制的合作治理路徑。在這種合作治理中,政府監(jiān)管機(jī)構(gòu)應(yīng)當(dāng)通過“提高標(biāo)準(zhǔn)化程度和自動(dòng)化程度”,使用“司法測試和新技術(shù)”來敦促算法相關(guān)企業(yè)遵守法律法規(guī)和其他內(nèi)控性質(zhì)的規(guī)范。社會(huì)第三方力量應(yīng)當(dāng)提供全自動(dòng)的算法風(fēng)險(xiǎn)分析和控制技術(shù)。算法平臺(tái)和企業(yè),應(yīng)當(dāng)嚴(yán)格履行防范算法風(fēng)險(xiǎn)的義務(wù),不斷調(diào)整信息技術(shù)系統(tǒng),制定個(gè)性化的內(nèi)部算法風(fēng)險(xiǎn)管理流程。在此,筆者將著重分析如何構(gòu)建社會(huì)第三方力量在算法合作治理中的參與機(jī)制。

首先,明確社會(huì)第三方力量的參與權(quán)限。算法往往涉及到設(shè)計(jì)者、開發(fā)者和平臺(tái)的經(jīng)濟(jì)利益,具有商業(yè)秘密的性質(zhì)。因此,第三方力量參與算法治理應(yīng)當(dāng)是有限度的。具體來講,社會(huì)第三方力量可以就訪問協(xié)議的嚴(yán)密性、商定數(shù)字管理的道德準(zhǔn)則、任命專人監(jiān)管信息、在線跟蹤個(gè)人信息再次使用的情況,允許用戶不提供個(gè)人數(shù)據(jù)、為數(shù)據(jù)訪問設(shè)置時(shí)間軸、未經(jīng)同意不得將數(shù)據(jù)轉(zhuǎn)賣給第三方等問題進(jìn)行監(jiān)督和審核。社會(huì)第三方力量也可以就是否執(zhí)行數(shù)據(jù)保護(hù)影響評估、進(jìn)行數(shù)據(jù)保護(hù)影響評估采用什么方法、數(shù)據(jù)保護(hù)影響評估是內(nèi)部操作還是外包、采取哪些技術(shù)上的和組織結(jié)構(gòu)上的措施能夠減少對數(shù)據(jù)主體的權(quán)利和利益的負(fù)面影響、數(shù)據(jù)保護(hù)影響評估是否能正確執(zhí)行等問題提出建議。社會(huì)第三方力量還享有就算法侵權(quán)行為提出申訴的權(quán)利?!稓W盟通用數(shù)據(jù)保護(hù)條例》第80條規(guī)定,社會(huì)第三方機(jī)構(gòu)可以代表數(shù)據(jù)主體就算法侵權(quán)行為提出申訴和行使司法救濟(jì)權(quán)。這在一定程度上能夠克服以個(gè)人為中心的救濟(jì)模式在算法認(rèn)知能力和權(quán)利救濟(jì)能力方面存在不足的問題。

其次,細(xì)化社會(huì)第三方力量的參與程序。(1)參與時(shí)間。應(yīng)當(dāng)強(qiáng)化社會(huì)第三方力量全程參與的基本理念,并在算法事先審查和評估階段就應(yīng)當(dāng)介入。例如,美國政府規(guī)定只有經(jīng)過社會(huì)第三方力量參與審查和評估的算法才是合法的算法,才能在實(shí)體間共享。《歐盟通用數(shù)據(jù)保護(hù)條例》規(guī)定數(shù)據(jù)控制者或數(shù)據(jù)處理者在進(jìn)行數(shù)據(jù)保護(hù)影響評估時(shí),必須征求數(shù)據(jù)保護(hù)官的意見。(2)參與決定權(quán)。由于算法技術(shù)的專業(yè)性和侵權(quán)行為的隱蔽性,單個(gè)個(gè)體的維權(quán)成本較高。法律試圖通過激活社會(huì)第三方力量來實(shí)現(xiàn)侵害雙方力量的平衡。因此,《歐盟通用數(shù)據(jù)保護(hù)條例》規(guī)定第三方機(jī)構(gòu)可以在接受數(shù)據(jù)主體委托和無須獲得數(shù)據(jù)主體同意兩種情況下向數(shù)據(jù)監(jiān)管機(jī)構(gòu)提出申訴和行使救濟(jì)權(quán)。(3)參與方式。社會(huì)第三方力量可以通過聽證、驗(yàn)證、檢查、提供咨詢意見等方式進(jìn)行參與。

再次,對社會(huì)第三方力量進(jìn)行監(jiān)督。除了應(yīng)當(dāng)加強(qiáng)社會(huì)第三方算法科技方面的職業(yè)倫理素養(yǎng)和法律思維能力外,還應(yīng)當(dāng)加強(qiáng)政府對他們的監(jiān)督。具體來講,政府除了應(yīng)當(dāng)對第三方機(jī)構(gòu)的資質(zhì)進(jìn)行認(rèn)定外,還應(yīng)當(dāng)聯(lián)合平臺(tái)和其他力量制定覆蓋數(shù)據(jù)投入、數(shù)據(jù)處理和數(shù)據(jù)產(chǎn)出全過程中的算法質(zhì)量標(biāo)準(zhǔn)。這些質(zhì)量標(biāo)準(zhǔn)應(yīng)當(dāng)成為社會(huì)第三方力量參與算法治理的行為標(biāo)準(zhǔn)。否則,第三方機(jī)構(gòu)可能因?yàn)槔嬉蛩囟鴾S為數(shù)據(jù)生產(chǎn)者的同盟者或擺設(shè)。

3.算法安全風(fēng)險(xiǎn)的保險(xiǎn)機(jī)制

算法系統(tǒng)的復(fù)雜性對傳統(tǒng)的以因果關(guān)系為基礎(chǔ)的法律責(zé)任體系形成了嚴(yán)峻挑戰(zhàn)。當(dāng)某個(gè)產(chǎn)品匯聚多種算法系統(tǒng)時(shí),要想找到損害結(jié)果與損害行為之間的因果關(guān)系,難度會(huì)更大。在未來相當(dāng)多的情況下,通過傳統(tǒng)產(chǎn)品責(zé)任來解決智能算法及智能系統(tǒng)致人損害問題愈來愈不可能。吳漢東預(yù)測,未來社會(huì)以過錯(cuò)責(zé)任為基礎(chǔ)建立的“風(fēng)險(xiǎn)分配”責(zé)任體系,將在某些領(lǐng)域不復(fù)存在。例如,對于算法引發(fā)的交通事故的認(rèn)定,歸責(zé)事由只有結(jié)果的“對與錯(cuò)”,而無主觀上的“故意”或“過失”。倘若讓算法及其智能系統(tǒng)的開發(fā)者或經(jīng)營者承擔(dān)無過錯(cuò)責(zé)任,就勢必加大產(chǎn)品的生產(chǎn)成本,阻礙算法技術(shù)的發(fā)展。因此,筆者主張逐步建立算法安全風(fēng)險(xiǎn)的保險(xiǎn)機(jī)制。作為算法載體而存在的人工智能體的生產(chǎn)者或所有者應(yīng)當(dāng)購買一定份額的保險(xiǎn),以分擔(dān)算法引發(fā)的安全風(fēng)險(xiǎn)。以無人駕駛汽車風(fēng)險(xiǎn)防范為例,傳統(tǒng)汽車發(fā)生交通事故的原因主要有車輛原因、人為原因和道路原因,而無人駕駛汽車發(fā)生交通事故的原因除了上述原因外,還有智能系統(tǒng)的原因。因此,我們應(yīng)當(dāng)針對汽車制造商設(shè)定一份智能系統(tǒng)的法制性保險(xiǎn),以分?jǐn)偹惴ò踩U(xiǎn)。

圖片 3.png

《數(shù)字法治》專題由華東政法大學(xué)數(shù)字法治研究院供稿。專題統(tǒng)籌:秦前松

 


編輯:海洋

已經(jīng)到底部