《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 其他 > 設(shè)計應(yīng)用 > 風(fēng)險等級化視角下行政算法的差序化公開
風(fēng)險等級化視角下行政算法的差序化公開
網(wǎng)絡(luò)安全與數(shù)據(jù)治理
王昊祿
中央財經(jīng)大學(xué)法學(xué)院
摘要: 當(dāng)從行政法秉持的行政公開性立場對行政算法予以關(guān)注并對其透明度規(guī)制進(jìn)行制度性回應(yīng)時,與其追求一個難以普遍適用的單一路徑,不如采用“差序化”監(jiān)管的理念,順應(yīng)自動化行政中算法的不同特點,在方法論上放棄統(tǒng)一適用的公開路徑,轉(zhuǎn)而透過對實踐的總結(jié)和歸類,以算法對權(quán)利的實質(zhì)影響程度為標(biāo)準(zhǔn),抽象出算法介入自動化行政的不同風(fēng)險等級,并對其適配相應(yīng)的公開要求,明確其公開程度與具體的公開方式,最大程度上規(guī)避自動化行政中算法實質(zhì)風(fēng)險的不確定性與法律規(guī)范所追求的普遍適用性之間的矛盾。
中圖分類號:D922.1;D922.1文獻(xiàn)標(biāo)識碼:ADOI:10.19358/j.issn.2097-1788.2025.07.010
引用格式:王昊祿. 風(fēng)險等級化視角下行政算法的差序化公開[J].網(wǎng)絡(luò)安全與數(shù)據(jù)治理,2025,44(7):66-73.
Differential ordering disclosure of administrative algorithms from the perspective of algorithm risk classification
Wang Haolu
Law School, Central University of Finance and Economics
Abstract: When paying attention to algorithms in automated administration from the standpoint of administrative openness upheld by administrative law and institutionally responding to its transparency regulation, rather than pursuing a single path that is difficult to be universally applied, it is better to adopt the concept of "differential" supervision, conform to the different characteristics of algorithms in automated administration, and abandon the uniformly applicable open path in methodology. Instead, through the summary and classification of practice, the paper abstracts the different risk levels of the algorithm′s intervention in automated administration based on the actual impact of the algorithm on the right, and adapates the corresponding disclosure requirements to it, clarifying its disclosure degree and specific disclosure methods, to avoid the contradiction between the uncertainty of the substantial risk of the algorithm in automated administration and the universal applicability pursued by legal norms.
Key words : administrative transparency; disclosure of government information; algorithm risk level; differential ordering disclosure; classified and hierarchical supervision

引言

在數(shù)字化浪潮的推動下,技術(shù)領(lǐng)域迎來了顛覆式的革命,這使得算法逐漸嵌入到各行各業(yè)的發(fā)展中。隨著數(shù)字技術(shù)的迅猛發(fā)展,人工智能、大數(shù)據(jù)和云計算等技術(shù)的應(yīng)用逐漸從私法領(lǐng)域擴(kuò)展到公法領(lǐng)域,“算法決策在私領(lǐng)域的日趨成熟為其應(yīng)用于公領(lǐng)域打下堅實的技術(shù)基礎(chǔ)和心理基礎(chǔ),通過算法技術(shù)輔助行政決策成為行政領(lǐng)域發(fā)展的可視化趨向——自動化行政?!保?]

自動化行政已成為現(xiàn)代政府治理和公共服務(wù)領(lǐng)域的一項重要趨勢。在人工智能時代,行政部門越來越多地通過使用智能算法來代替原本由人類參與的行政過程[2]。這種技術(shù)驅(qū)動的行政管理模式在帶來便利的同時,也引發(fā)了一系列法律、倫理和社會上的問題。由于算法的復(fù)雜性和專業(yè)性,公眾往往難以知曉其工作原理和決策過程,這會導(dǎo)致公眾對自動化行政產(chǎn)生質(zhì)疑和不信任,給行政透明度和公開性帶來挑戰(zhàn)。

行政透明要求行政機(jī)關(guān)在行使公權(quán)力過程中,向社會公開其決策、執(zhí)行和監(jiān)督的過程,接受社會的監(jiān)督,保障公民的知情權(quán)和參與權(quán),防止權(quán)力濫用。而算法因其本身的不透明性、自動性、高度的復(fù)雜性和模糊性等特征,使行政機(jī)關(guān)在運(yùn)用算法進(jìn)行決策時,難以向公眾公開其決策依據(jù)和過程,這在一定程度上背離傳統(tǒng)的行政程序正當(dāng)性原則,導(dǎo)致法律賦予相對人的陳述、申辯、說明理由、聽證等程序性權(quán)利被懸置,從而影響行政透明的實現(xiàn)。相對于那些隱藏在算法模型背后,未實現(xiàn)信息公開的“數(shù)字利維坦”而言,行政相對人在未獲知算法決策的作出過程和依據(jù)的情況下,只能被動接受由算法模型自動生成的決策方案。這意味著,處于弱勢地位的行政相對人在一定程度上已經(jīng)淪為一個個被高度透析的“微粒人”或高度透明的“數(shù)字化主體”[3]。由此可見,在自動化行政中算法的制定者與相對人之間橫亙著一道深深的數(shù)字鴻溝,這甚至可能加劇兩者之間的信息不對稱格局[4]。在此背景下,如何平衡效率與透明度,確保公眾能夠理解和信任自動化行政中的算法決策,成為了一個亟待解決的問題。

在自動化行政中,自動化系統(tǒng)運(yùn)行算法的過程相當(dāng)于法律運(yùn)行的過程,算法作為自動化行政中的技術(shù)手段,受實踐中實質(zhì)影響程度、風(fēng)險等級與應(yīng)用場景差異等影響,如何確定其公開方式與公開程度是當(dāng)下算法規(guī)制所面臨的復(fù)雜課題[5]。本文著眼于算法在行政法體系中的定位,嘗試從政府信息視角出發(fā)將算法納入行政公開框架;其次,以現(xiàn)有的算法公開方案為基礎(chǔ),提出并討論“差序化”的等級化監(jiān)管理念;再次,以自動化行政中算法的實質(zhì)影響程度為標(biāo)準(zhǔn)對其進(jìn)行分級;最后,在等級化的基礎(chǔ)上具體分析自動化行政中算法宜采取的公開程度。本文的基本立場是,為維護(hù)原有的法治秩序與行政透明性,自動化行政中算法的規(guī)制應(yīng)當(dāng)從行政公開原理出發(fā),通過自動化行政中算法的風(fēng)險等級化、場景的類型化適配不同的公開程度,以實現(xiàn)行政算法透明。通過構(gòu)建算法公開制度,制定算法透明度標(biāo)準(zhǔn),實現(xiàn)在自動化行政中算法公開領(lǐng)域的差序化監(jiān)管。


本文詳細(xì)內(nèi)容請下載:

http://m.theprogrammingfactory.com/resource/share/2000006616


作者信息:

王昊祿

(中央財經(jīng)大學(xué)法學(xué)院,北京100098)


Magazine.Subscription.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。