作者 |電子科技大學公共管理學院講師 賈開

  編者按

  4月4日,剛剛成立9天的谷歌先進技術外部諮詢委員會(ATEAC)宣佈解散。這一被視爲“AI倫理委員會”的機構是谷歌公司探討AI倫理問題的有益嘗試,但因爲部分成員的背景問題,最終出生即夭折。這表明,如今算法治理面臨的不僅僅是技術上的挑戰。那麼,在人工智能背景下,應該如何創新算法治理、推動算法向善?本期騰研識者賈開審時度勢、深入分析,並給出三條建議,力圖保持算法治理的創新性與時代價值。

  2017年9月,《人民日報》連發三篇評論,對基於算法而向用戶自動推薦個性化內容的互聯網業態提出了批評。眼球經濟導致推薦內容的低俗性、虛假性,片面強化用戶偏見與喜好而使得整個社會可能陷入“信息繭房”的極端性,一味迎合用戶而使得智能平臺走向媚俗化並最終可能阻礙創新的危險性,共同構成了對於當前正蓬勃發展的算法推薦相關業態的深刻反思。

  事實上,不僅僅是算法推薦,我們日益生活在一個“算法社會”之中。搜索引擎對於用戶搜索內容的排序算法,商業銀行對於貸款申請者的還款風險評估算法,機場車站對於大規模人羣的特徵識別算法,都是已經被普遍使用並深刻影響我們日常生活的典型案例。

  由此引發的問題在於,對於伴隨技術發展而出現的新業態,《人民日報》的警示性評論是否預示着算法在極大提高人類社會運行效率的同時,也會帶來普遍性的治理挑戰?更具體的,算法治理究竟是指什麼?面對當前挑戰,我們又該如何推進治理機制的創新以應對這種變化,尤其是如何通過公共政策框架的重構以平衡發展與規制的二元關係?這便構成了本文所要討論的三個問題。

  一、AI時代,算法治理扮演什麼新角色?

  雖然“算法”這一概念在現實生活中耳熟能詳,但其定義在學界卻並沒有形成高度共識。不同理解的差異源於“算法”本身在事實上的模糊性與複雜性。一方面,算法被認爲無處不在,其在不同場景下管理、分類、約束乃至決定整個社會的運行;但另一方面,算法卻往往被描述爲高深莫測或難以捉摸,我們並不能明確界定一個實體對象或工作流程來解釋算法的運行。在佐治亞理工學院教授伯格斯特看來,算法就像“黑洞”,我們能清晰感受到它的影響但卻並不能對其內部一窺究竟。

  正因爲此,試圖對算法做出一般性的定義不僅困難,也是一個不可能完成的任務;而不同學科按照各自的理解與興趣對算法的不同側面展開研究則可能是更爲實際的途徑。沿襲這一思路,本文重點關注算法影響社會運行的規則屬性,並試圖從規則的形成與應用出發,探究算法影響社會運行的機制與過程。在此視域下,算法治理的對象將不僅聚焦作爲其載體和結果的計算機代碼,而同時包含影響這一載體和結果形成的所有相關因素,尤其是人工智能第三次浪潮背景下大數據的影響。

  就算法的規則屬性來看,萊辛格教授提出的“代碼即法律”無疑是研究的起點。在萊辛格教授看來,“代碼即法律”的意義在於迴應了網絡自由主義者對於“網絡烏託邦”的想象,指出網絡空間雖然能夠避免政府幹涉,但其卻被置於市場主體這隻“看不見的手”的完美控制之下,而後者正是通過算法來塑造網絡空間的運行規則並進而對人類社會產生影響。

  萊辛格教授的洞察開啓了社會科學對於算法的研究興趣,不過伴隨着技術演化與業態發展的進程,算法本身的生產過程,及其對於人類社會的影響機制與結果都發生了巨大變化。就前者而言,在以機器學習爲代表的第三次人工智能浪潮興起的背景下,算法不再僅由商業公司(甚至不由人類)所生產並控制,算法的自我生產能力決定了其作爲“規則”的複雜性;就後者而言,網絡空間與現實空間的不斷融合使得線上線下的邊界逐漸模糊,原本侷限於網絡空間的算法規則開始對現實空間產生越來越多的影響。

  上述兩方面轉變的重要性可從“波蘭尼悖論”中得到更清晰的體現。邁克爾·波蘭尼曾指出,“人類知道的遠比其能表達出來的更多”。事實上,我們雖然能很容易記住一張面孔、辨別一個聲音,但卻並不能很好地闡述或解釋我們爲什麼可以實現這一功能。在第三次人工智能浪潮興起之前,傳統算法的生產過程實際上就是人類表達自身的過程。對於傳統算法而言,其往往需要設計者明確某項工作的實現流程並事無鉅細地規定好計算機在給定條件下的給定動作。

  “波蘭尼悖論”在指出人類表達能力缺陷的同時,也指出了傳統算法生產過程的侷限。但以機器學習爲代表的第三次人工智能浪潮的興起,則突破了“波蘭尼悖論”的束縛,機器學習算法可以通過基於大數據的自我訓練、自我學習過程完成參數調整與模型構建,也即完成算法的自我生產過程。儘管人類仍然參與其中,但機器學習算法已然擺脫了需要依賴人類表達能力的侷限,從而極大地提升了算法能力並擴展了其應用範圍。

  網景公司創始人馬克·安德森2011年曾在《華爾街日報》上發表文章,描述了各個產業朝向數字化轉型且其生產與服務過程被廣泛嵌入軟件的趨勢,他將這一變化稱之爲“軟件正在吞噬世界”。機器學習算法對於“波蘭尼悖論”的突破,將加速這一進程的發生,最終使得“軟件吞噬世界”成爲更快到來的現實。算法作爲社會運行的基礎規則將由此扮演更爲重要的作用,算法治理研究在此背景下才凸顯其時代意義。

  二、治理新議題:不可解釋隱憂、自我實現困境與主體性難題

  既然將算法治理置於以機器學習爲代表的第三次人工智能發展浪潮的背景下,那麼自然地,機器學習算法本身的原理與性質自然也會影響到算法的應用,並可能在其應用過程中帶來風險。一般而言,當前最普遍應用的機器學習算法是建立在對於已標註人類知識的大數據集的訓練基礎上,由此形成由該大數據集若干共性特徵所組成的規則集,進而被用於模式識別、信息預測、數據生成等各個領域。不過正因爲此,我們同樣不難發現機器學習算法的應用侷限性,其至少體現在以下三點:[1]

  首先,機器學習算法對於規則集的歸納依賴於預先界定的明確的輸入數據、輸出結果和評價指標,因而其更適用於具有明確任務界定的應用環境,但卻很難被應用於不具有明確目標或者工作產出績效不明確的人類活動之中。

  再者,機器學習算法對於規則集的歸納,更多建立在對於輸入大數據集的相關性分析基礎上,而非直接建立不同變量之間的因果聯繫,因而其更適用於能夠接受一定誤差且滿足“一秒反應原則”[2]的工作,但卻無法處理依賴大量背景知識並要求較長邏輯推理鏈條的環境。

  第三,機器學習算法在客觀上要求輸入大數據集與其應用環境具有概率上的分佈一致性,否則算法基於輸入大數據集所歸納出的特徵“規則集”將很快過時,並因而難以指導對於當前和未來的預測或分析,這一特性在劇烈變動的環境中體現的尤爲明顯。

  正是因爲侷限性的存在,當我們將算法普遍應用於人類社會不同領域時,便必然會帶來諸多治理挑戰,而這又具體表現爲不可解釋隱憂、自我實現困境與主體性難題這三個方面。

  首先,不可解釋隱憂主要關注算法因其生產和應用過程不能爲人所理解而可能帶來的算法黑箱、不可監督、難以追責等治理議題。需要注意的是,算法的不可解釋性並非完全因爲其作爲商業祕密而受到公司或個人的刻意隱瞞,更深刻的原因一方面在於算法本身的複雜性,即使其設計者也很難清楚解釋整個算法的運行過程;而另一方面則在於第三次人工智能浪潮背景下機器學習算法本身相對於人類表達能力的脫離,不僅其基於大數據集的自我學習、自我訓練過程不爲人所知,甚至是其最終形成的規則集也往往不能轉換爲可爲人所理解的自然語言。

  如果算法本身是完美的,那麼因不可解釋隱憂所導致的治理問題便也不足爲懼;不過恰恰相反的是,經驗性結論卻表明算法永遠都存在漏洞和缺陷。面對這樣的潛在風險,由於不可解釋隱憂的存在,我們並不能將相關責任完全置於算法設計者身上,這便自然帶來監督與問責的難題。尤其是當將算法應用於公共決策領域之時,監督與問責機制的缺失將使得不可解釋隱憂可能導致決策錯誤的風險變得不可接受,而這也將自然阻礙技術的發展與應用。

  第二,自我強化困境聚焦算法因依賴大數據學習過程而可能出現的固化、偏差、歧視等治理議題。算法基於“大數據集”而通過自我訓練、自我學習以形成“規則集”的過程,實質上是對於過往人類社會模式特徵的總結並將其用於對於未來社會的感知與決策,這在提高人類社會運行效率的同時,也將不可避免地複製並延續當前社會的既有格局與特徵,從而不利於變革與創新的發生。後者便被稱爲算法的“自我強化困境”。

  與此相關的治理議題又可進一步細化爲三種類型。首先,算法對於人類行爲特徵的精準識別在有利於爲不同個體提供差異化、個性化服務的同時,也將強化個人偏好並甚至可能催化極端傾向。再者,人類社會的不確定性與複雜性在客觀上決定了“大數據集”的不完備性,數據缺失導致算法所形成“規則集”的偏差將可能進一步強化既有的社會不公現象。事實上,人類社會既有的“數據鴻溝”現實可能導致部分人羣的數據缺失,並因此使得他們進一步被隔離在“算法社會”之外。最後,機器學習算法基於社會整體“大數據集”而形成“規則集”並應用於具體場景的過程,暗含着以整體特徵推斷個體行爲的基本邏輯,這便可能造成“算法歧視”問題,特別是在將算法應用於決策領域時其潛在風險尤甚。需要強調的是,算法歧視的嚴重後果還不僅止於此,它甚至可能造成“自我實現”的惡性循環。當一個最初沒有高犯罪風險的黑人受到“算法歧視評估”並因而遭受錯判時,其很可能因此對社會產生敵意並最終走上犯罪道路,從而反過來證明算法最初評估的“正確性”。

  第三,主體性難題涉及算法作爲人類社會運行規則而在一定應用場景下替代人類行爲所引發的治理議題。

  長久以來,圍繞“算法(尤其以搜索引擎的排序算法爲代表)是否應受言論自由保護”的激烈爭論便是此類議題的集中體現。如果說對於傳統算法而言,我們還可以將其類比爲報紙並假定其背後是人類思想的表達(報紙編輯可被視爲人類思想的表達);那麼對於第三次人工智能浪潮背景下的機器學習算法而言,算法的自我生產能力已經使得這種假設不再成立。機器學習算法基於大規模數據集形成的“規則集”並不依賴於人類的表達能力,這樣的技術突破不僅意味着人類行爲自動化程度的又一次提升,也反映了算法生產過程及其應用結果與人類行爲本身的分離。考慮到傳統治理體系都是以人類行爲因果關係作爲制度基礎,機器學習算法的成熟與普及將不可避免地帶來算法治理的主體性難題。

  三、當未來已來,如何創新算法治理?

  在兼顧發展的前提下,如何有效控制治理風險成爲算法治理相關公共政策創新的主要內容。考慮到人工智能背景下算法的普及應用尚未完全鋪開,相關的政策建議還不能細緻到具體領域,而更多應着眼於宏觀環境的引導與塑造。本文提出三方面建議。

  首先,要加快普及人工智能認知教育,使人們能夠科學認識算法應用帶來的可能進步及潛在風險,在避免盲目樂觀的同時形成客觀預期,以減少技術發展及應用過程中的不必要障礙,並同時促進應對治理挑戰的相關政策創新。儘管存在諸多風險與挑戰,我們仍然要認識到人工智能背景下,算法的普及應用對於人類社會整體的福利提升。例如相關研究表明,基於算法的自動承保系統比人工審覈能夠更準確地預測違約,並因而在此基礎上可以幫助往常難以被納入金融服務體系的貸款申請人提高借款批准率[3]。

  正因爲此,重要的或許不是要求算法在應用過程中不能存在任何的偏差或歧視,而是以更爲實際的態度評估其是否相比於當前社會運行機制有所提升。事實上,考慮到算法的不可解釋隱憂問題,算法的設計者、使用者往往也並不清楚算法偏差或算法歧視的存在;在此情況下,更有效的治理方式並非片面地要求算法本身的透明與公開,而是調動利益相關方的積極性,從算法被影響者的角度觀察、考量算法的應用結果。實現後者的前提便需要公衆對於人工智能認知的提升乃至普及。

  再者,要加強算法倫理的討論與研究,推進自然科學領域與社會科學領域相關專家的對話與交流,並圍繞算法的開發與應用共同起草、形成具有約束力的倫理指導原則。算法應用過程中所引發的治理挑戰當前還處於發展階段,在具體政策體系尚不完善的情況下,通過算法倫理的引導有助於在不限制技術發展可能性的同時緩和並控制相關風險。2017年1月,美國計算機協會專門發佈了算法治理倫理原則,涵蓋利益相關者責任、救濟機制、算法使用機構責任、鼓勵可解釋算法研發、數據治理、算法審查要求、實時檢查責任等七個方面。儘管在這些倫理原則的指導下,要求建立算法審查制度或算法正當程序制度的政策提案尚未獲得共識,但倫理原則的形成與宣傳仍然有助於促進相關研究者重視算法研究及應用過程中的潛在風險,並共同探索相應的治理措施。

  最後,要根據算法應用的成熟程度及其影響的範圍大小,以不超過其當前發展水平及未來發展可能性的客觀理念,分領域、分優先級地制定相關公共政策。在人工智能第三次浪潮的影響下,公共管理領域當前圍繞人工智能及算法治理相關政策的討論雖然同樣注意到了潛在的風險與挑戰,但多是以對未來充滿樂觀想象的態度提出假設式、前瞻式的政策建議。不過正如本文對於機器學習算法基本原理的闡述所揭示的,其應用本身存在多方面的侷限性,因而在可預見的未來中其仍然僅能在某些特定領域中得到廣泛應用;而如果考慮到某些領域的應用還需要人類制度的劇烈變革,那麼在短時間內,機器學習算法的應用範圍可能將更爲有限。

  舉例而言,自動駕駛汽車的廣泛應用不僅需要技術的成熟,同時還需要交通法規、歸責機制、保險條例等一系列社會制度的同步變革;相比之下,在機場、車站使用人臉識別算法替代人工以作爲身份驗證方式的應用場景,將更爲迅速地普及開來。後者可能引發的風險與挑戰自然應該成爲當前政策的關注重心。正因爲此,分領域、分優先級地圍繞算法的不同應用開展政策研究並制定相關治理政策,可能是更爲現實、也更爲有效的公共政策創新思路。

  -- END --

  本文爲刪減版,全文發表於《中國行政管理》2019年第1期。

  參考文獻:

  1.Brynjolfsson, E., & Mitchell, T. (2017). What can machine learning do? Workforce implications. Science, 358(6370), 1530-1534.

  2.LeCun, Y. 2018. Learning World Models: the Next Step towards AI. IJCAI.

  3.Gates, S. W., Perry, V. G., & Zorn, P. M. (2002). Automated underwriting in mortgage lending: good news for the underserved?. Housing Policy Debate, 13(2), 369-391.

  我好看嗎?

相關文章