原文首發於462期《法治週末》12版

原題:人工智能,可以成爲法律上的“人”嗎

智道欄目 主持人:於興中

摘要

只有人類纔可以理解權利與責任的意思,機器並沒有這種理解能力,它們在解釋學這個學科並不活躍,而且它們永遠不會

資料圖

阿爾法狗圍棋挑戰賽激發了有關人工智能的奔湧思考。人們開始討論,我們應如何看待智能機器,是否要賦予它們法律人格?機器可以獨立訂立合同嗎,是否可以取得並持有財產?

人們似乎認爲,從技術角度出發,當機器行爲(或智能化水平)與人類接近,甚至難以區分的情況下,應肯定機器行爲的法律效力。但限於傳統理論和現行法律只將自然人、法人和其他組織列爲法律主體,於是主張承認人工智能法律主體資格的聲音成爲了主流。

1

人工智能離法律上的“人”有多遠

關於何時或者如何給人工智能設定法律主體資格的討論由來已久。

在這場爭論中總會涉及到一份條件清單,如人工智能的自由意志、自主性要件等。普遍的看法是,當一個人工智能體滿足這些條件後,才能被歸類爲與人類同等的真正認知行爲者。只是迄今爲止,即便在人工智能的研究領域裏也沒有形成一個廣泛可接受的定義,“還不能總體概括出什麼樣的計算機程序可以被稱之爲人工智能”。

雖然如美國計算機科學家斯圖爾特·拉塞爾、彼特·諾米格也曾提出四類人工智能的定義:像人一樣思考、像人一樣行爲、理性思考以及理性行爲。但嚴格地說,這也只能是人工智能的技術目標。

簡單地以機器“長得是否像人”或者“表現得是否像人”作爲評判其能否獲得法律主體地位的標準要件,不僅容易因概念的含混不清導致可操作性不強,還可能會陷入法律與科學技術雙重認識不一致的泥潭。人工智能認知狀態的理論化標準確實應作爲一個問題來探討(而且問題分歧還很大),但它不能爲審視人工智能的法律主體資格提供一個很合用的基礎,主要的原因在於這些標準都太抽象了。

2

爲何人工智能不應享有法律主體資格

在討論人工智能機器的主體定位時經常碰到的一個問題是,面對現在法律框架中諸如“獨立意思的表示”“權利能力”“行爲能力”等標準要件時,人工智能應如何解釋貼合?

部分主張賦予機器以“法律人格”觀點的立論基礎是某些機器人已經具備了獨立意思表示的能力。在此類論點中需要注意的問題是,“獨立意思的表示”並不適宜作爲機器人獲得主體資格的特徵標識。原因在於,“獨立”的概念不明確,存有疑點。

所謂的“獨立意思表示”是相對於誰的獨立,獨立於機器的使用者,還是獨立於機器的程序設計者?原有法律框架中的獨立之意是行爲主體自我決定,但套用到機器人卻未必合適,因爲要看這個“獨立”是針對於誰來說。機器人是由一系列的算法來指揮行爲,算法所設計的行爲完全可能是獨立於使用者的。例如,當使用者命令汽車以170碼的速度行駛,但汽車基於原有算法的計算,完全可能拒絕該指令(如原有程序設定最高時速不可超過120)。所以如果機器只是按照預先設定的程序行事,獨立的說法似乎並不完滿。

其實,“獨立意思表示”“權利能力”等概念只是法律爲完成特定區分效果而採用的技術手段。手段本身並不能回答原因問題,將結果混淆爲原因是一種謬誤。所以,如要追問智能機器是否符合法律主體的標準,不是簡單地將“權利能力”“責任能力”等現有的法律概念套用到機器上,而需要進一步追問第二個問題,在面對人工智能機器時,法律所持有的目的是什麼?

耶林說:“目的,是全部法律的創造者。”每條法律規則的產生都源於一種目的,一種事實上的動機。主體資格雖然是一個法律概念,但不應忽視概念背後所攜帶的具有強烈實用主義色彩的目的。這倒並不是說要將人與機器劃分爲對立的兩個面,而是需要更精確地表達,法律在人工智能機器人的立場上,應是鼓勵人工智能的設計者和製造商們開發出符合人類特定需求的產品,並能控制人工智能可能造成的風險。

例如,在討論機器人“作品”的版權問題上,我們所應持有的目的是鼓勵設計者去創造“會創作作品的機器人”的行爲,而不是鼓勵機器人創作作品。之所以需要保護產權也應該是保護機器人設計師額頭上的汗水,而非機器人的。因而沒有必要以認定人類版權規則的“獨創性”標準去解析機器人的創作行爲。我們不能將機器與現有的法律主體(如自然人)進行特徵比較,進而由於特徵相似去主張承認機器的“主體資格”。是否賦於機器以法律人格,應根據特定法律目的(效果達成的需要),正如“法人”概念的誕生一樣,“全都是依(因應目的而選擇出來的)法律判斷而人爲地加以規定”。即使它與“自然人”並沒有多少共同的特徵相似點。法律概念是爲人而存在的——他們是實現人之目的的手段,而不是倒過來。

3

法律應持何種立場

機器只能被設計成遵守法律,卻不能理解法律。雖然幾乎所有探討人工智能問題的研究中都會提到美國科學家和科幻作家伊薩克·阿西莫夫的“機器人三定律”。但客觀地說,這套原則的指引對象仍然是人類,而非機器。因爲機器只按照算法行事,法律概念、邏輯的設置是與人類相關聯的,可以說只有人類纔可以理解權利與責任的意思,機器並沒有這種理解能力,它們在解釋學這個學科並不活躍,而且它們永遠不會。

其次,有觀點認爲人們之所以懼怕機器,是因爲目前機器並不受法律約束。所以眼下當即議題便是,要將機器也列爲法律主體從而受制於法律。這樣的說法存有疑點。這是因爲法律不可能對機器人本身的行爲層面產生影響。這不僅在於上述所說的機器無法理解法律,還在於約束機制的錯位。真正能控制機器行爲的是機器的設計者,立法者並不具備瞭解深層技術的知識儲備。

也就是說,我們是希望通過法律來控制機器人的設計者、製造商以及使用者的行爲層面,並且解決在機器人行爲後所產生的法律責任分擔問題。法律不可能對機器人本身的行爲層面產生影響,如不可能因爲法律對機器人確立了過失賠償責任制,就能提升其在行爲時的“注意水平”。也不可能對機器人犯罪行爲判罰徒刑或死刑,因爲刑罰的威懾效應對機器人來說沒有半點的意義。因此有必要再次重申,能對機器人行爲機制產生直接影響的是程序的設計者,而法律應通過對設計者這類的主體施加影響,從而間接對機器人行爲產生作用。

此外,機器也無法獨立承擔行爲的後果,因而會影響最終責任分配的效率。雖然在2016年歐洲議會向歐盟委員會提出的報告中,曾建議“確保至少最複雜的自動化機器人可以被確認享有電子人(electronic persons)的法律地位,有責任彌補自己所造成的任何損害,並且可能在機器人作出自主決策或以其他方式與第三人獨立交往的案件中適用電子人格(electronic personality)。”這份報告雖然被不少研究引經據典爲支持賦予機器法律人格的論證依據,但由於該報告中並沒有就該法律主體設計相應的責任能力規則。如果機器沒有承擔責任的能力(獨立的財產等),那麼不論是侵權或是違約帶來的賠償責任等,其實都需要鏈接到其他主體上來完成最終的責任分配。

—END—

相關文章