【ZiDongHua 之人文化天下收錄關鍵詞:法與自動化 行政自動化 自動化行政  機器學習 人工智能

思享 | 陳錦波:自動化行政合法嗎?

自動化行政合法性證成的基本邏輯

作者:陳錦波(1989-),男,福建福州人,法學博士,中國政法大學訴訟法學研究院副教授、人民法院司法改革研究基地(中國政法大學)研究員,碩士生導師,主要研究方向:行政法與行政訴訟法、網絡法。來源:《法學論壇》2023年第3期“學術視點”欄目。

本文導讀

政府治理的現代化需要信息化與法治化的深度融合,互聯網、大數據、人工智能等技術手段可以被用于優化革新政府治理的流程和方式,從而進一步提升政府依法行政之水準。國家因此將全面建設數字法治政府提升為了一項戰略性的舉措。然而,當今的數字法治政府建設已不僅僅是將傳統政務簡單的電子化或在線化,數字技術對傳統行政事項已經有了更深的介入——以機器學習算法為核心的人工智能技術在輔助行政機關作出行政決定甚至直接作出行政決定。但是,由于機器學習算法可以自我學習、具有黑箱特性且可能縮短甚至直接繞過人類來思考,因此它將給行政法治統合下的課責與監督機制帶來巨大挑戰。因此,我們不禁會發出這樣的疑問:自動化行政合法嗎?無論是關注,或是推進,抑或是阻止自動化行政實踐,在采取相關行動前,我們都需要首先對上述問題作出回答。

目 次

一、問題的提出與研究的進路

二、自動化行政踐行依法行政原則的可能路徑

三、自動化行政對正當行政程序原則的挑戰及其因應

四、自動化行政對于實現“行政最佳性”的助益 結語

摘要:自動化行政是行政機關借助自動化設備作出行政行為的情形,其本質是以機器學習算法為核心的人工智能技術對行政活動的參與。由于機器學習算法可以自我學習、具有黑箱特性且可能縮短甚至直接繞過人類來思考,所以它在直接或輔助行政機關作出行政決定時會對行政法治統合下的課責和監督機制形成一定挑戰。即便如此,自動化行政本身的合法性仍然可以被有效證成。一方面,機器學習算法對行政決定作出過程的參與,不會在根本上沖擊最能彰顯行政法治的“依法行政原則”和“正當行政程序原則”,這使得自動化行政具備了形式上的合法性。另一方面,機器學習算法還有助于實現“最佳行政”之目標,從而增進國家的良善治理,這可以在更深層次證立自動化行政的實質合法性。

關鍵詞:自動化行政;機器學習算法;依法行政;正當行政程序;最佳行政;形式合法性;實質合法性

一、問題的提出與研究的進路

自動化行政是行政機關借助自動化設備作出行政行為、行政程序中的特定環節或全部環節由人工智能代為處理,從而實現行政活動部分或完全無人化操作的情形。自動化行政現象在現實中已經多有發生。譬如,人力資源保障部門運用機器系統進行自動化行政審批,公安部門通過公共場所的人臉識別系統來輔助維持社會秩序,交警部門借助聲納定位系統來判定行駛車輛是否構成交通違法等。

當前的自動化行政,其有效運作在很大程度上依賴于設備自身所內嵌的機器學習算法。然而,由于機器學習算法可以自我學習、具有黑箱特性并且可能縮短甚至直接繞過人類來思考,因此機器學習算法在進行行政決定時可能會招致系列質疑。首先,在進行行政決定時,機器是否已經獲得了立法機關的有效授權?其次,即使機器此時確實因獲得法律授權而參與行政決定的作出,那么立法機關將公權授予非真人之機器的做法是否妥當?最后,機器學習算法的高速自動化運行及其黑箱特性,又是否會導致相對人原本所享有的程序性權利被克減?其實,公眾的上述質疑歸根結底是他們擔心機器學習算法在公共決策領域的運用,會導致機器學習所造就的“算法社會”猝然演變為“黑箱社會”,從而使得行政法治統合下的課責和監督機制落空。質言之,公眾認為自動化行政面臨著合法性困境。

那么,學界對這一問題如何認識?從有關自動化行政的既有研究成果來看,學者們或者是概括性地討論自動化行政所面臨的法律風險及其應對舉措,或者是對自動化行政的具體應用領域加以探究。然而,學界當前對“自動化行政是否合法”這一本源問題的理論關照卻較為缺乏。只有個別學者從憲法視角審視了自動化行政的權力正當性可能,絕大多數學者似乎理所當然的將該問題當成了討論的前提。而且,即便是在“自動化行政是否合法”的有限討論中,該學者也更多是將研究集中于對自動化行政在實體權力來源正當性的闡述上,而對自動化行政在程序方面所可能遭受的正當性沖擊較少涉及,更沒有對本文以下將論及的“最佳行政”視角加以探討。這使得該討論缺乏一個整全性的視域。有鑒于此,本文將嘗試對“自動化行政的合法性”這一基礎課題展開認真且系統地思考。對于這一問題,筆者的基本立場是:自動化行政不會從根本上沖擊行政法治。本文的目標即在于證成這一立場。筆者首先將會從最能彰顯行政法治的“依法行政原則”和“正當行政程序原則”入手,來證成自動化行政在形式層面的合法性。然后,筆者將會從行政自動化有助于“最佳行政”目標之實現,來進一步證立自動化行政在實質層面的合法性。

二、自動化行政踐行依法行政原則的可能路徑

依法行政原則是我國行政法上的一項基本原則。它的最基本含義,是要求行政機關的行政行為要嚴格依照法律來行使、受法的約束。依法行政原則包括法律創制、法律優先和法律保留等三項子原則。其中的“法律創制”,意指法律對行政權的產生和運作具有決定性的拘束力,行政機關不得逾越法律而行為??梢?,獲得法律的正式授權,是行政機關行使公權的最基本前提。那么,行政機關在運用機器學習算法進行行政決定時,是否遵循了依法行政原則的這一要求?對此,如果要作出肯定回答,則大致存在兩條解釋路徑:其一,機器學習算法在參與行政決定的作出時,獲得了依法享有公權力的行政機關的合法轉授權。也就是說,法律將相關權力授予了行政機關,并且準許行政機關將該權力轉授給機器。其二,法律對機器直接予以了授權。易言之,法律此時直接將相關行政權力授予機器,允許機器依據該職權進行行政決定。

(一)行政機關轉授公權給機器的禁止   根據依法行政原則,行政機關可以在法律明確授予的權力類型和權力范圍內從事相關的公共行政活動。只是,這些公共行政活動中是否包括行政機關將從立法機關處獲得的授權再次轉授給機器,以使機器行使公權的行為合法化的情形?

就我國的憲法權力架構而言,行政機關由立法機關產生,行政機關的行政職權來源于立法機關的授予。因此,行政機關要對立法機關負責,并受立法機關監督。立法機關將行政權授予行政機關的目的,是期待行政機關能夠依憑其專業上的優勢,順利完成行政任務,以保障社會的基本秩序并增進人民的福祉。而且,立法機關對行政機關的授權一般是以“劃定一般政策、適用該政策的公共機構和該授權的界限”的方式進行。同時,從法院的視角來看,立法機關對行政機關的這種授權應當直接、明確且符合公共利益的需要。那么,允許行政機關將行政職權轉授給機器的做法是否會偏離憲法配置各項國家權力的上述初衷?

實際上,如果行政機關可以不斷轉授權力給第三方,作為原初授權主體的立法機關將無法對行政職權行使者進行充分的監督。進而,公權被俘獲的可能性就將增大,公權行使者的公益立場和民主正當性基礎也會因此而被動搖。此外,對于隸屬代議民主式國家體制的我國來說,行政機關作為立法機關的意志執行機關,也只能嚴格依照法律的具體規定來行使行政職權,而不得將從立法機關處獲得的職權再行轉讓。而且,立法機關對行政機關的授權,實際上還暗含了民眾對行政機關能夠代表公益的基本信任。如果行政機關此時將享有的公共權力再行隨意轉讓,也將違背公眾的合理預期。

總之,行政機關一般不得將自身依法獲得的公共權力再行轉讓給機器。這意味著,機器因為獲得行政機關的轉授權而正當化自身之自動決策行為的可能性已經在事實上被消解。

(二)法律直接授權機器作出行政決定的可能性

既然獲得立法機關授權的行政機關不得再將權力轉授給機器,那么說明前述第一種解釋路徑無法成立。那么,我們能否證立第二條解釋進路?也即,立法機關是否以及能否對機器予以直接的授權?

歸根結底,探討立法機關是否直接授權給機器,這首先是組織法應當解決的問題。質言之,此處要探究的是:機器是否成為了合法的公權行使主體?從我國《憲法》《全國人民代表大會組織法》《國務院組織法》以及《地方各級人民代表大會及地方各級人民政府組織法》的條文規定來看,各法規范并未給機器可以行使行政職權提供相應的組織法依據。也即,立法機關并未對機器進行明確而具體的授權。易言之,現行有效的法規范,其指向的對象實際上只是具有生命體征之真人,而并沒有把機器作為公權享有主體而納入考量范疇。此時我們如果強行主張現有法規范已經對機器予以了直接授權,并把機器作為公權的合法行使主體,顯然過度偏離立法原意。簡言之,從實然角度看,機器當前并未獲得法律的直接授權。

只是,在新的時代形勢下,立法機關應否以及能否直接賦權機器以正當化機器作出行政決定的行為?大數據、人工智能都是信息時代的新興產物,機器學習更是被認為是一種新型人工智能,因此以往制定的法規范沒有將機器學習算法這一新技術納入考量當屬情有可原。但是,我們需要作進一步地反思:雖然從立法原意看,當初的立法者沒有明確規定機器人可以成為合法的公權行使主體,但在新形勢下是否就不可能對現行立法條文的內涵作適度的擴張?這實際上是有討論余地的。筆者認為,在機器學習技術發展態勢日益強勁的當下,法規范體系應當給予機器學習算法以更大的作為空間,甚至直接賦予其完全獨立的作出行政決定的權力。

首先,機器身為作出行政決定的法定主體并不存在理論層面的理解障礙。在法學理論中,“法人”作為一種法律上擬制的“人”已經被人們所廣泛接受。“機器人”和“法人”同樣不是具有生命體征的真人,既然“法人”可以作為法定的行為主體,那么我們就沒有理由將“機器人”特別排除在外。也許有人會指出,“法人仍然是由‘真人’組合而成,所以立法機關對‘法人’的授權仍然屬于對‘人’的授權。”這種認識曲解了法人制度設立的目的。實際上,在立法上承認法人具有主體性,并不是因為法人真的成為了具有生命體征和自由意志的人。相反,法人本身不可能具有精神意志,法人的主體性僅僅來自于法律的擬制。而對法人的這種法律擬制在本質上不取決于其組成部分是否是“真人”,而在于我們是否有這種現實需要。同理,立法機關基于時代情勢的需要也可以對機器的主體性進行這種法律上的擬制,以賦予機器進行行政決定的權力。質言之,法律對機器進行行政決定的直接賦權也不存在理論層面的解釋障礙。當然,需要說明的是,對于機器的定性,會影響到后續相應法律責任的承擔。因為在大陸法系國家的行政賠償制度中,公務員的違法侵權行為與公共設施設置和管理所導致的侵害,其侵權構成要件和救濟程序并不完全相同。具體而言,如果我們將機器系統視為類似于真人的“公務員”,那么相應侵權行為的成立將以機器的違法和有責為前提;但如果我們僅僅將機器系統視為一種“公共設施”,那么判定機器是否構成侵權則是以行政相對人的權益是否實際受損為要件。其實,機器系統本身的特點,決定了無論將機器嚴格地視為一類人或一種公共設施,都會面臨適用上的諸多問題。因此,學界當前對于如何定性機器仍然存有爭議。筆者認為,在現有條件下,將機器系統單獨予以類型化,并確立相應的責任承擔機制是較為穩妥的做法。

其次,學界目前反對將機器作為法定授權主體的重要理由還在于:公眾對法律授權由真人組成的私人部門進行行政決定的做法尚且有顧慮,更不用說讓他們接受由法律直接賦權機器進行行政決定的方案。然而,需要指出的是,機器相較于私人部門來說實際上更為可靠。這是因為私人對行政決定的介入常常摻雜有私人利益的考量以及個人的偏見,它將導致私人部門進行行政決定時可能會因過度維護私利而損及公益的實現。相反,由于機器學習算法此時是由公共部門來負責設計和植入,所以機器學習算法參與行政決定的作出就可以避免諸如私人部門進行行政決定時所面臨的問題,進而保證所作行政決定的客觀公正性。當然,機器進行行政決定,其結果的客觀公正性建立在對“公共部門能夠公正無偏私處理公共事務”的推定之基礎上。觀察政治運作現實可知,在大多數情況下,我們對公共部門的這種推定能夠成立。而且,即使公共部門在少數情形中對公益初衷有所偏離,民主國和法治國下的諸多監督機制也能對公共部門的該偏離行為進行有效矯正。這也是人民選擇出讓部分權力而交由公共部門來統一行使的最原初目的。質言之,只要公共部門秉持公益之目的而對機器設計和植入合理的算法和程序,機器基于此而作出的行政決定就能保證其客觀公正性。而且,實踐已經證明,由機器來進行行政決定還能極大提升行政機關的工作效能。所以,我們沒有理由不順應信息革命的時代趨勢而去選擇機器學習算法這種更為高效便捷的行政決定輔助手段。

再次,就立法實務而言,全國人民代表大會在2019年、2021年和2022年持續發布的《第十三屆全國人民代表大會第二次會議關于2018年國民經濟和社會發展計劃執行情況與2019年國民經濟和社會發展計劃的決議》、《第十三屆全國人民代表大會第四次會議關于2020年國民經濟和社會發展計劃執行情況與2021年國民經濟和社會發展計劃的決議》和《第十三屆全國人民代表大會第五次會議關于2021年國民經濟和社會發展計劃執行情況與2022年國民經濟和社會發展計劃的決議》都對“數字政府建設”作出了明確部署。此外,中共中央、國務院于2021年印發的《法治政府建設實施綱要(2021-2025)》也明確指出要“全面建設數字法治政府”??梢?,最高國家權力機關已經具有推動和加強數字政府建設(包括機器參與行政決定)的明確立法意圖,黨中央和國務院也對數字政府建設有了明確的戰略部署。在此背景下,我們對組織法以及各單行法律法規中提及的各種“行政主體”之文義作目的論擴張,將“機器”囊括進各“行政主體”的概念范疇之中,這顯然既貼合立法目的,又符合時代需求。

最后,雖然我們承認法律授權機器進行行政決定的可能性,但法律對機器的授權模式并非不加擇取。在授權模式的選擇上,法律對機器的直接授權比行政機關對機器的轉授權更為可行。這是因為,一方面,直接授權模式相較于轉授權模式具有更夯實的民主正當性和公益性基礎。正如前述,要想作出合法的行政決定,機器必須如傳統行政機關一樣具備必要的民主正當性和公益性底蘊。這種民主性和公益性的獲得,在形式上需要有法律的授權。而在轉授權和直接授權這兩種法律授權模式中,直接授權模式顯然可以給予機器學習算法在做行政決定時以更強的民主和公益底色。另一方面,機器學習算法的特性,決定了直接授權模式更有利于國家通過法律加強對機器學習算法的監督。公眾對機器決策并不完全信任,他們希望國家能夠對機器學習算法施加必要的管控。而在法律對機器的兩種授權模式中,轉授權模式只能是由行政機關在機器進行行政決定時對機器學習算法進行事中監管,但由于機器學習算法具有自我學習特性、黑箱屬性以及高速自動運行的特征,這種事中監管將很難達至良好的效果,甚至這種事中監管都可能會讓行政機關找尋不到合適的介入時機。相反,借助直接授權模式,由法律在機器參與行政決定的作出前就對機器植入相應的目標和要求顯然更為可行。

總之,雖然立法機關在當初制定相關法規范時還沒有賦權機器的意圖,但為順應信息革命的時代趨勢,在立法機關尚未著手修改相關法律前,可以先結合最高國家權力機關的《決議》精神和黨中央、國務院的戰略部署,對原有立法條文的內涵作目的論擴張,從而給予機器學習算法以適當的法律授權,使得機器能夠在一定空間內作出適切的行政決定。而當條件成熟時,立法機關則需要在各組織法和各單行法律法規中對機器的法律主體地位予以明確認可。此外,在對機器權力授予模式的選擇上,相較于轉授權模式而言,立法機關對機器的直接授權更符合機器學習算法的本質特性。

(三)機器作出行政決定的限度   立法機關可以且應當對機器作出行政決定的行為予以法律授權,以推動政府治理體系和治理能力的現代化。但是,這并不意味著該法律授權不受任何約束。立法機關應當對授權機器進行行政決定的范圍和方式作出必要限定。當然,這種范圍和方式的具體限定進路應根據不同行政事項的不同特點和不同重要度來作進一步的區分。

首先,對于羈束行政事項,機器學習算法可以依照法律的授權進行自主化的行政決定。這是因為羈束行政事項一般不涉及行政主體在行政決定中的自由裁量,只要相關事實被正常地涵射到法律所設定的構成要件,那么得出的結果將是唯一的。也就是說,只要人們按照法律的確切規定對機器進行行政決定的相關要件做事先設定,那么不管是由機器還是由真人來做該行政決定,其結果都將是相同的。對于此類事項,行政官員顯然沒有必要親力親為。這在比較法上也有例可循。例如,根據《德國聯邦行政程序法》第35a條的規定,羈束行政事項即屬于可以適用完全自動化的行政事項。當然,由于技術本身可能存在瑕疵,這將導致機器學習算法偏離預先設定的運行軌道。因此,在利害相關方提出,或者行政機關工作人員發現機器學習算法的決策結果具有明顯錯誤時,行政機關應當負責矯正該錯誤結果。

其次,對于裁量行政事項,行政機關應根據該事項的不同重要度而予以區別對待??傮w而言,對于一般行政事項的裁量,法律可以直接授權機器來行使;但對于重要的行政裁量事項,法律還是要將該事項的最終判斷權保留給行政機關工作人員。至于何為重要的行政裁量事項,“特別權力關系”領域的“重要性理論”也許可以給我們提供一個參照思路。“特別權力關系”中的“重要性理論”,它根據公權所涉公民權利的重要性程度來判斷該公權是否應當接受司法審查。在“重要性理論”看來,凡是涉及公民基本權利的事項均為重要性事項。這種界定標準的優點在于,它可以最大限度地保護公民所享有的基本權利。但是,我們同時也會發現,按照這種標準篩選出來的重要事項之范圍將極為廣泛。運用有限的司法資源來保護如此寬泛的社會事項,顯然并非國家的最優制度選擇。而且,在行政領域,保護公民權利也從來不是現代國家的唯一任務。實際上,行政機關在追求行政合法和公民權利保護的同時,還極為重視自身行政效能的提升。質言之,在將機器學習算法引入行政決定領域時,我們雖仍應強調該活動的合法律性,但為了同時彰顯機器學習技術在提升行政機關工作效能方面的積極作用,對機器學習算法的規制顯然不能過于嚴苛,否則技術之功效將消弭殆盡。因此,并非公民所有的基本權利都不能由機器來處置。我們在機器作出行政決定領域引入“重要性理論”時,應當對其中的重要事項之范圍作進一步的限縮。那么,公民的哪些基本權利可以被剔除出“重要事項”的范疇?結合學理和我國現行憲法的規定,我們大致可將公民的基本權利歸納為以下六類:(1)平等權;(2)政治權利;(3)精神自由;(4)人身自由和人格尊嚴;(5)社會經濟權利;(6)獲得權利救濟的權利。憲法學界在討論對上述基本權利的限制時,一般對限制公民的社會經濟權利之做法較為包容,而對限制公民其他類型的基本權利更為謹慎。這主要是因為,相較于其他基本權利來說,經濟性基本權利的可量化度以及受損后的可補償性更高。因此,對經濟性基本權利進行更多的限制更為可行且更容易為公眾所接受?;谕瑯拥目紤],在涉及機器學習算法對公民社會經濟權利的裁量決策時,法律可以賦予機器學習算法更大的作為空間。也即,法律可以授權機器對公民的社會經濟權利事項進行裁量決策。

最后,對于行政裁量領域中的重要性事項,法律不應當將之直接委諸于機器學習算法。也即,當需要對經濟性基本權利以外的公民基本權作行政裁量時,法律仍然應當將該項職權保留給行政機關的工作人員來行使。當然,行政機關此時仍然可以借助機器學習算法來對相關行政決定的結果進行預測,以輔助和驗證人為決定之結果的科學性與合理性。易言之,在行政機關對行政裁量的重要性事項進行決策時,機器學習算法并不最終決定相關行政決定,機器學習算法此時的功用僅僅在于增強人類的判斷力。

總之,自動化行政并不會對依法行政原則構成根本性的沖擊,但這建立在法律對機器予以必要授權的基礎上。同時,在轉授權和直接授權這兩種法律授權模式中,直接授權模式更加符合機器學習算法的特性。當然,即便法律直接授權機器作出行政決定,這種授權在范圍和方式上也仍然有其限度。具體來說,對于羈束行政事項和一般裁量行政事項,法律可以直接授權機器進行決策;但是,對于涉及公民社會經濟權利以外的其他重要裁量行政事項,法律卻不能將之委諸機器來處理,而應將處置該類事項之公權保留給行政官員。

三、自動化行政對正當行政程序原則的挑戰及其因應

對正當行政程序原則的遵循,是行政機關進行行政決定時所應滿足的最低程序性要求。雖然學界在具體界定正當行政程序原則的內涵上還存有分歧,但學者們大體同意正當行政程序原則至少包括對行政機關的如下要求:其一,行政機關作出行政決定時應當說明理由;其二,行政決定的作出程序應當公開透明;其三,行政機關應當保證行政相對人有機會作合理的陳述和申辯,且相對人的該陳述申辯意見能夠被行政機關公正地聽取。那么,自動化行政是否會導致行政機關在踐行正當行政程序原則的上述要求時有所怠惰?

(一)自動化行政可能克減的程序利益

機器學習算法的自我學習、黑箱運作和高速自動化等特性,決定了行政機關在運用機器學習算法進行行政決定時將會對傳統行政法中的正當行政程序原則構成一定挑戰。

首先,自動化行政不利于行政機關說明理由制度的貫徹實行。機器學習算法的運轉呈現出高速且自動化的特征,它會縮短人類思考的過程甚至直接繞過人類來思考。此外,機器學習算法的自我學習和黑箱特性還會使得機器作出相關行政決定的理由難以解釋且難以預測。這意味著行政機關運用機器學習算法來作行政決定時,在說理上會不夠充分。這些都將削弱該行政決定的可接受性。當行政相對人無法理解相關行政決定而行政決定作出機關本身也解釋不清自身為何作出該項行政決定時,行政機關和行政相對人之間的溝通成本就會增加,這也極易引發甚至升級公權行使者(行政機關)與公權作用對象(行政相對人)之間的矛盾。

其次,行政的自動化將降低行政決定作出程序的公開透明度。機器學習算法具有自我學習和黑箱特性,這導致人們(很多時候包括行政機關在內)很難理解該行政決定是經由什么樣的程序而作出。一般而言,程序包括方式、順序、步驟和時限等要素。在機器學習算法參與行政決定的過程中,一般不會出現時限延遲的情況;但此時相關行政決定的作出方式、作出順序和作出步驟卻可能會被極大簡化,這直接影響到行政相對人程序參與權的實現。易言之,機器學習算法的特性決定了行政相對人將很難對行政決定的方式進行選擇,也很難參與到行政決定的相關步驟中去。

最后,上述的行政相對人對行政程序的缺乏參與,也將影響到行政相對人陳述和申辯等相關程序性權利的行使。也即,行政相對人在面對可能不利于自身的行政決定時,將沒有機會就自己行為的合法性與合理性向行政機關作必要的辯解和理由陳述。而對行政機關來說,其在沒有充分聽取行政決定利害相關方的意見前,就倉促作出行政決定,這也不免顯得過于武斷。“兼聽則明,偏聽則暗”,這一古老諺語所內嵌的公正裁判意旨也將無法獲得實現。

可見,行政的自動化確實會在一定程度上削弱行政機關所作行政行為的合法性韻味,也會減損行政相對人一定的程序性利益。對于自動化行政所提出的上述挑戰,我們應該如何應對?

(二)機器學習時代行政相對人程序利益損失的法律填補   自動化行政對機器學習算法的運用確實面臨著合法性危機。但是,作為順勢而生的新興科技,機器學習算法顯然又不能被輕易地否棄。因此,法學人要做的,是在不拋棄機器學習算法的前提下,促使正當行政程序原則在行政的自動化這一過程中合理的歸位,以填補行政相對人因此而遭受的程序性利益之損失。這一目標的實現,需要我們對機器學習算法采行過程化的監管措施。

首先,行政機關應當向機器學習算法“投喂”高質量的數據集且保證公眾對機器學習算法的必要知情權。一方面,機器學習算法能夠順暢且合法運作的基礎,在于其內部擁有數量龐大且質量優良的數據集。數據是算法的燃料,一旦控制了向機器所“投喂”的數據,就等于從源頭對機器學習算法進行了必要的管控。我們應當保證機器學習算法所依賴的這些數據是完整、準確和結構化的。只有保證這些數據沒有被“污染”,才能確保機器學習算法下的行政決定具有更高的科學性。另一方面,在對機器學習算法進行事前監管的過程中,國家還應當對算法的設計過程附加一定的要求,且保證公眾相應的知情權。國家在對機器學習算法的設計者施加算法在設計時所應滿足的規格、測試、信息披露以及算法倫理等方面要求的同時,還應當將機器學習算法的設計目的和策略議程、機器學習算法所內嵌的諸種考量因素以及這些考量因素在行政決定中的占比程度等以合理的方式在事先向社會公眾作必要的說明。

其次,國家可以為機器作出行政決定的事項設置必要的程序性管控規則且賦予行政相對人一定的程序性權利,以實現對機器學習算法運作的事中監督。行政機關可以通過組建一個由行政官員、技術人員和法學專家等專業人員所共同組成的獨立機構或專家委員會,來制定機器作出行政決定時所應遵循的程序性規則。此時專家委員會或獨立機構可以依據事先制定的這些規則對機器學習算法進行監控,一旦發現機器學習算法偏離該規則預設的前進軌道,專家委員會或獨立機構就可以隨時中斷或停止該機器學習算法的運行。也即,人類應當保證可以在任何時候拒絕機器所選擇的規則,可以隨時改變算法的規格,甚至完全“拔掉插頭”而終止機器學習算法的運作。當然,我們同時要警惕對機器學習算法的這種專業規制因過度強調規制主體的精英化而背離社會公共利益,要防止社會精英利用技術資源優勢來將他們自身與后代設計成高人一等的“超人”。

再次,國家還應當建立針對“機器進行行政決定”的事后監督機制。這主要是因為機器學習算法具有自我學習、黑箱運作和高度自動化等特性,所以雖然人類為其植入了選定的數據且設置了事中的控制程序,但是機器學習算法的運行仍然可能偏離人類預期的發展軌道。所以,人類要想真正掌握對機器的最終控制權,就有必要對機器學習算法進行一定的事后控制。一方面,這種事后控制機制可以通過前述專家委員會或獨立機構對機器作出行政決定的回溯性事后審查來實施。也即,專家委員會或獨立機構一旦發現機器學習算法支配下的行政決定具有法定的可撤銷情形,就應依法追溯性撤銷該行政決定的法律效力,以便矯正機器學習算法所作之不合法行政行為。另一方面,對機器學習算法的事后監督還可以通過賦予行政相對人以必要的算法解釋請求權來加以實現。具體來說,算法解釋請求權是指行政相對人所享有的要求行政機關說明“為何運用該機器學習算法會最終導向該項行政決定”的權利。在法律授權機器進行行政決定的情形中,行政機關實際上已經執掌了相應的“算法權力”,原本處于優勢地位的行政機關此時變得更加強勢。為了保證相對人能夠有足夠的力量和武器來抗衡行政機關并進一步對行政權進行監督,立法機關同時賦予行政相對人以相應的“算法解釋請求權”就成為必然。

最后,國家還應施加給行政機關以相應的算法影響評估義務,以督促行政機關在機器學習算法輔助行政決定作出的過程中能夠適時且科學地預判該機器學習算法所可能帶來的諸種風險。國家給行政機關所施加的這項義務,其目的是為了彌補單純權利保護路徑的局限性,且突出算法控制者本身的風險責任意識,以最終增進機器學習算法的可控性。

其實,機器進行行政決定所可能給行政相對人帶來的程序利益的減損,是我們在國家信息化背景下追求更高效行政所必然要付出的代價。此時,理性人應當做的是去找尋我們所受損失與我們所獲收益之間的平衡點。就此,美國聯邦最高法院在馬修斯訴埃爾德里奇案(Mathews v. Eldridge)中的做法可以為我們的思考提供一些借鑒。該案的主審法官認為,判斷行政機關的行為是否符合正當程序原則需要綜合考量三個因素:一是,可能受到行政決定影響的私人利益。二是,因為錯誤程序而剝奪這種私人利益可能導致的風險,以及對私人施加程序保障可能帶來的價值。三是,行政機關采取替代性程序所可能帶來的財政負擔和其他行政負擔。我們在機器作出行政決定的情形中,也可以對是否向行政相對人提供特殊程序保障作具體如前的“成本—收益”考量。當然,行政機關在決定不給予行政相對人特殊程序保障時,其所可能導致的不良后果,還可以通過觀察行政相對人申請對行政決定進行復查的比率高低來加以判斷。對于機器學習算法下的行政決定,如果相對人對其不服而尋求救濟的比率并不高于其他類型的人為行政決定被復查的比率,那么就說明行政相對人并沒有對機器學習算法下的行政決定表示出特別的反感。這將從一個側面表明機器進行行政決定對相對人程序性權益的侵害可能并沒有人們所想象的那么嚴重,同時也可以為樹立機器學習算法在行政決定中的正面形象而正名。

總之,公眾對“自動化行政將可能給行政機關帶來程序上的合法性挑戰”的質疑是有一定道理的。然而,就此而完全否定自動化行政,顯然過于武斷。實際上,由于自動化行政中所運用的機器學習算法可以避免人類主觀偏見或主觀錯誤的引入,這反而能夠增進人們對相關行政決定之程序正當性的預期。而且,即使是面臨人們對自動化行政所可能違背正當行政程序的質疑,我們也有前述的應對辦法。

四、自動化行政對于實現“行政最佳性”的助益

“行政合乎法律”是行政機關從事行政活動時的基本追求。但在面對紛繁復雜的行政實踐時,學者們漸漸發現單純依靠法律規范來治理是無比的疲軟和乏力。易言之,狹義“合法行政”這一單一視角已經無法滿足行政實務的需要。在此背景下,有學者頗為精辟地提出了“合法行政”和“最佳行政”的雙重分析視角。在該分析架構中,行政的合法性考量首先登場,它為行政活動設置基本的規范條件和制度架構;而最佳性視角則用以觀察法律和政策本身的不足,并適時提出改進方案。進而,行政的合法性和行政的最佳性形成良性互動。實際上,狹義上的“行政合法性”意指“行政的形式合法性”,而此處的“行政最佳性”則指向“良好行政”這一意涵,它屬于“行政的實質合法性”之范疇。

筆者在前文已經說明,自動化行政并不會對以“合法性”為基底的傳統行政法理論造成根本性的沖擊。以下,筆者將進一步闡述自動化行政在“最佳行政”方面所可能給行政機關帶來的助益,以及實現這一目標的法律保障機制。

(一)“最佳行政”的理論構成

傳統行政法學界恪守依法行政原則,主要著眼于“行政行為是否合法”的病理性分析。但在真實的行政實踐中,這種單一的狹義“合法性”觀察視角已不斷呈現出規制不足和執行欠缺等問題。究其根本,這是由于法律這一單一學科已經無法獨立應對日益紛繁復雜的行政事務。相反,這些實踐中的問題迫切需要多學科的知識和理論來共同關照。也正因為如此,“最佳行政”的分析視角才得以產生。

相關學者從行政法學的基本研究對象(公共行政)切入,來搭建“最佳行政”的分析架構。根據公共行政學的經典論述,公共行政的構成要素可用“三途徑說”來加以概括。也即,公共行政目標具體可通過三個途徑來實現:一是,管理途徑。它主要強調行政活動的效率性、效能性和經濟性。二是,政治途徑。它意在彰顯行政活動的代表性、回應性和責任性。三是,法律途徑。它側重說明行政活動的適法性。在上述三種公共行政目標實現途徑中,法律途徑可納入狹義“合法行政”的領域,而管理途徑和政治途徑則可歸為“最佳行政”的范疇。

“最佳行政”在基本價值理念和核心關切點上都與狹義“合法行政”有很大不同。其一,在主體層面,與狹義“合法行政”主要著眼于授權的法定性不同,“最佳行政”以行政任務為導向,更加注重行政任務與組織形態的匹配。其二,在行為層面,與狹義“合法行政”重視對行政行為合法性的司法審查不同,“最佳行政”更多關注立法和行政層面的政策選擇和制度設計,更加關心如何綜合使用諸種行政手段和政策工具來達成行政目標。其三,在程序設置層面,狹義“合法行政”強調行政機關的行政行為要嚴格遵照法定行政程序的要求,而“最佳行政”則更加希望通過行政程序的創新設計,使得行政決定的作出具有更強的民主性、效率性和可接受性。其四,在司法監督方面,狹義“合法行政”視域下的法院是消極而中立的,但“最佳行政”視角則期待法院能夠發揮其政策形成功能,以反哺行政過程。

總而言之,“最佳行政”的本質追求實際上在于:在復雜的行政事務紛涌而至時,政府保有更優的治理結構以保證其實現既定的行政目標,并最終達成行政的實質合法性。那么,回歸到自動化行政本身,我們此時需要追問的就應當是:機器進行行政決定是否有助于踐行“最佳行政”的基本價值理念?

(二)自動化行政助力實現“行政最佳性”的現實進路   自動化行政不僅不會在根本上沖擊傳統的行政法治原則,而且自動化行政所內嵌的機器學習算法還會給行政機關的工作成效帶來諸多助益。

首先,行政機關可以借助機器學習算法實現科學決策。行政機關通過對機器學習算法的運用,可以對社會情勢作出科學預測,從而達至對公共事務的精準治理。“機器學習的核心就是預測:預測我們想要什么,預測我們行為的結果,預測如何能實現我們的目標,預測世界將如何改變。”雖然傳統國家行政很多時候會投入巨大的人力、物力和財力資源,但公共治理的效果有時卻并不能達到行政機關的合理預期。這當然與公共行政事務的繁雜性密切相關,但相關治理手段較為滯后顯然也是重要原因。大數據、機器學習等技術的產生與運用,給行政機關提升自身之治理效果帶來了時代性的契機。這些信息技術可以為行政機關篩選出應當重點治理的領域,從而確保行政機關能夠將有限的行政資源投放到真正需要加強治理的區塊。需要指出的是,由于機器學習算法運作的基礎在于數據,所以數據的質量和數量實際上最終決定了機器學習算法的精確度。所以,機器學習算法有時即便不能實現100%(如只有99%)的科學預測率,也不意味著在此準確率(如99%)下的行政決定是失敗的。相反,這說明行政機關在現有條件下已經達到了它的最好治理水平。質言之,行政機關此時的行政決定盡管不是完美的,但卻是最優的。

其次,行政機關可以憑借機器學習算法實現高效決策。“工業革命使手工業自動化,信息革命解放了腦力勞動,而機器學習則使自動化本身實現自動化。”機器學習算法的高度自動化,將大大縮短行政決定的作出時間,而這種優勢在多階段和交叉并行的行政行為過程中表現的尤為明顯。以國有土地使用權出讓行政協議的簽訂為例:相關行政事項必須先列入規劃部門的立項計劃,然后經由住房與城鄉建設部門審批,最后由國土資源部門對協議進行蓋章確認。經歷這一復雜的行政程序后,該國有土地使用權出讓協議才算最終簽訂完成。這是一個系統而費時的過程,但在機器學習算法的介入下,上述事項都將可在瞬間處理完畢。易言之,機器學習算法使得復雜而繁瑣的行政過程變得快速、簡單且高效。

再次,機器學習算法可以幫助行政機關探尋到解決疑難問題的可行方法。一般來說,算法都包括輸入和輸出兩個環節。以往算法的運作過程是:程序員將數據輸入計算機,然后計算機內置的算法憑借這些輸入的數據導出最終的結果。而機器學習算法則有所不同,它是將一般算法的運行過程直接顛倒過來:程序員向計算機輸入的是數據和想要達成的結果,而計算機最終輸出的卻是算法。也即,程序操作員可以借助機器學習算法而得到勾連“數據”與“結果”之間關系的其他算法。質言之,機器學習算法可以制作其他算法。這就為行政機關處理復雜行政事項探索出了可行的方法和路徑:行政機關只要輸入相關的數據和想要達至的行政目標,就可以探尋到能夠實現這一行政目標的可行方法。

最后,機器學習算法可以幫助行政機關和行政相對人走出信息超載的困境。信息時代,不管是行政機關還是行政相對人,都直面巨量的數據。這一方面確實給他們創造了更大的選擇空間,另一方面卻也給他們帶來了信息超載的困擾。易言之,巨量數據大大超越了人類的可負載能力,這將延長人們的決策時間、減損人們的決策質量且降低人們決策的滿意度。因此,如何從巨量數據中快速而準確地擇取到自身真正需要的信息,成為行政機關和行政相對人所共同面臨的現實難題。而機器學習算法的出現,將可以幫助行政機關和行政相對人走出上述困境??傮w而言,機器學習算法可以幫助人們迅速過濾掉不需要的信息,并摘取出自身真正需要的信息。這不僅增進了行為人的選擇自由,也大大降低了行為人篩選信息的成本。具體到行政活動領域,對于行政機關而言,一方面,精確而有用的數據將有助于政府信息公開制度功效的發揮,更為透明負責的政府之建設得以可能;另一方面,行政機關可以利用這些更為精確的數據來實現對公共事務的科學治理,從而實現行政成本的降低和行政效能的提升。而對于行政相對人來說,機器學習算法在行政過程中的運用,將可以保證相對人能夠從行政機關處獲得自身真正需要的信息,從而合理安排自身的生產和生活;同時,這也能更好的滿足公民對憲法賦予他們的知情權這一基本權利的期待,使得公民得以更充分的展開對行政機關的監督,從而督促行政機關依法行政。

總之,借助機器學習算法而實現的行政自動化不僅有助于行政機關更加快速、精準與明智的作出行政決定,也更有利于公民實現其依法所享有的諸項權利。

(三)自動化行政在增進“行政最佳性”時所需的法律保障機制

自動化行政在增進“最佳行政”方面所具有的諸多優勢,是我們在結果層面所做的評估。那么,如何保障行政自動化能夠切實增進“最佳行政”這一優勢的發揮?筆者認為,這是一項從技術和法律兩個層面都需要作出努力的事業。技術層面的舉措是科學家(特別是算法科學家和計算機科學家)應該重點關注的事項,而法學家們的任務則在于通過一系列法律制度的設計來保障機器學習算法的順暢運行。盡管如前所述,機器學習算法在行政決定中的運用并不會在根本上對傳統行政法律原則形成沖擊,但是公眾對行政機關依賴技術進行行政決定的擔憂并非沒有任何根據。所以,法學學者們仍然應當提醒行政機關謹慎行事,防止行政機關因不當使用機器學習算法而遭致合法性質疑。

首先,機器學習算法在行政決定中的運用需要解決組織權力來源和決策的民主性問題。我們會發現,機器學習算法在行政決定作出過程中的運用,往往需要行政機關對決定事項進行編碼,對相關行政決定的成本和收益作更為細致的量化分析。但在以往,這些行政決定事項都是由行政機關進行定性判斷。機器學習算法的引入所帶來的這一變化,需要我們反思如下問題:究竟誰才有權將這種定性的價值判斷問題轉化為成本比率的定量分析問題?誰又有權在機器進行行政決定所面臨的困難與可能提升的準確度之間作出具體的衡量和判斷?這是行政機關在進行相關量化工作時所面臨的規范性問題,故而只能由法規范來予以回應。

其次,國家需要在程序法制度的設計方面作出更多努力,以防止行政的自動化導致相關行政決定逸脫法規范意旨。行政機關應當保證其給機器植入的算法符合公益需求,從而不帶有任何人為的歧視和偏見。同時,在運用機器學習算法來做行政決定時,行政機關還應當不時考察算法中數據錯誤率與行政決定被撤銷率之間的關系,以判斷機器進行行政決定是否足夠成功。此外,行政機關還應當尋找和組建中立的專家組,對行政機關運用機器學習算法進行行政決定的合法性和有效性做中立而客觀的過程性判斷;如果專家組認為相關行政決定可能偏離既定目標,可以隨時暫?;蚪K止該行政決定的作出或使得該行政決定得以被溯及性的撤銷。

再次,行政機關不應當隨意介入個人隱私領域。運用機器學習算法進行行政決定的前提,是行政機關掌握有大量的數據(特別是行政相對人和其他公民的數據)。由于借由公民個人的數據可以清晰地勾畫出公民的網絡肖像和行為軌跡,這顯然已經關涉公民的個人隱私,因此國家此時應當對公民施加足夠充分的保護。即便是對時常以公益代表自居的行政機關,國家也不能允許其隨意對公民的相關數據進行不當利用。具體而言,國家應當對行政機關在運用機器學習算法而收集、存儲和使用公民數據的行為作出相應地規范:行政機關不在必要的時候,不得收集公民個人的數據;對于必須收集的公民數據,行政機關應當妥善進行保管和儲存;同時,各行政機構之間因公務需要而共享公民的個人數據時,還應當確保該數據在傳輸時的安全。

最后,在機器學習時代,行政機關除了在干預行政領域應當遵循一定的法規范要求外,在給付行政領域也有依法行政的空間。行政的自動化必然會使得原本很多由真人從事的工作被機器所取代。這將直接導致相關勞動群體失去工作的機會,關涉勞動者在憲法層面的就業權,也涉及到行政機關給付行政職能的發揮。這雖然是社會信息化后必然會出現的結果,但政府在其中并非毫無作為的空間。在當前的時代情勢下,行政機關應當發揮其宏觀調控和行政指導的公共行政職能,將公眾就業方向更多的轉移到機器學習算法的設計這一技術的前端,而非一直固守在技術運用的末端。只有這樣,我們才能克服公眾對機器學習將導致大面積失業的恐懼,也才能有效防止人類淪為機器作用的客體。   總之,自動化行政會給行政機關科學而高效地進行行政決定帶來諸多助益。但是,行政機關在此中仍然應當審慎行事,并設計相應的法律機制來保障自動化行政能夠切實助力“行政最佳性”的實現,從而防止發生行政機關決策因逸脫法規范要求而可能引發的合法性危機。

結語

自動化行政活動在現實中已經多有發生,其內在的技術支撐在于以機器學習算法為核心的人工智能。“機器學習是100萬年傳奇中最新的篇章:有了它,不費吹灰之力,世界就能感知你想要的東西,并依此做出改變。”隨著機器學習時代的來臨,行政機關借助機器學習算法而實現的自動化行政將成為未來的一個趨勢。但由于機器學習算法可以自我學習、具有黑箱特性且可能縮短甚至直接繞過人類來思考,因此它也引發了公眾對于“人將被機器所控制”的深刻擔憂甚至恐懼。然而,機器學習算法對行政機關行政決定作出過程的合理參與,并不會對傳統行政法治造成根本性的沖擊,自動化行政仍然符合形式合法性的要求。同時,自動化行政還會讓行政機關所作出的行政決定更加科學、高效和明智,從而實現“最佳行政”之目標,這就在更深層次證立了自動化行政的實質合法性。當然,這并不意味著我們可以對機器作出行政決定的行為聽之任之,行政機關的行政決定仍然應當在權力來源、程序設置、公民個人隱私保護以及公眾就業引導等方面合乎法規范的要求。我們要防止行政機關因不當使用機器學習算法而致使相關行政決定陷入合法性危機。最后,需要指出的是,行政的自動化必然會使一些法律價值遭受減損,但這是國家在引入新技術和力圖提高行政效能時所必然要付出的代價。而對于國家來說,這其中會涉及到“成本—收益”的總體考量;同時,這也是國家推行信息化大戰略時在公益和私益之間進行結構性平衡的結果。