當地時間4月8日(北京時間4月9日),歐盟委員會發布了一份人工智能(AI)道德準則,提出了“值得信賴”的人工智能應當滿足的7個條件。下一階段,歐盟委員會將啓動AI道德準則的試行,邀請工業界、研究機構和政府機構對該準則進行測試和補充。

  《經濟學人》曾表示,美國和中國已經是毋庸置疑的AI超級體,而歐洲可以率先制定規則來限制AI系統可能造成的危害。許多人希望歐洲能建立AI行業的全球標準,就像其建立的新數據隱私法GDPR一樣。

  七大條件

  歐盟在技術監管方面佔據全球領先地位,去年引入了具有里程碑意義的數據隱私法GDPR,同時瞄準大型科技公司的反壟斷行爲以及避稅問題,而目前人工智能的道德準則是歐盟最新的監管方向。

  歐盟召集了52名專家組成的小組,提出了他們認爲未來AI系統應該滿足的七大條件:

  受人類監管:AI不能侵犯人類的自主性。人類不應該被AI系統操縱或威脅,人類應該能夠干預或監督AI的每一項決定。

  技術的穩健性和安全性:AI應該是安全和準確的。它不應該輕易受外部攻擊的影響,它應該非常可靠。

  隱私和數據管理:AI收集的個人數據應該是安全的、私有的。它不應該讓任何人接觸,也不應該輕易被盜。

  透明度:用於創建AI系統的數據和算法應該是可訪問的,應確保AI決策的可追溯性。換句話說,運營商應該能夠解釋他們的AI系統是如何做出決策的。

  多樣性、非歧視性和公平性:人工智能提供的服務應面向所有人,無論年齡、性別、種族或其他特徵。同樣,系統不應該有任何偏向。

  社會和環境福祉:人工智能系統應該是可持續的(即它們應該對生態負責)並“促進積極的社會變革”。

  問責制:應建立機制,確保對AI系統及其成果負責和問責。

  目前這些要求不具有法律約束力,但它們可能對歐盟未來起草的所有法律造成影響。歐盟希望成爲AI倫理領域的領導者,並通過《通用數據保護條例》(GDPR)表明,願意制定影響深遠的法律,以保護公衆的數字權利。

  今年夏天,歐盟委員會將與相關方合作,確定可能需要額外指導的領域,並確定如何更好地執行和核查。2020年初,專家組將納入試點階段的反饋意見。

  AI倫理探索

  最早關於機器人的倫理規定是科幻作家阿西莫夫上世紀設計的防止機器人失控的“機器人三定律”:機器人不能傷害人類;它們必須服從於人類;它們必須保護自己。後來還加入了“第零定律”:機器人不得傷害人類整體,不得因不作爲使人類整體受到傷害。

  但是隨着人工智能不斷髮展,“機器人三定律”中的許多問題都有待進一步細化。

  全球知名的艾倫人工智能研究所首席執行官埃齊奧尼,兩年前在一次演講中呼籲更新“機器人三定律”。他還提出,人工智能系統必須遵守適用於其操作人員的所有法律條文;人工智能系統必須明確表示它不是人類;未經信息來源明確許可,人工智能系統不能保留或披露機密信息等。

  在過去的兩年時間裏,有大量的AI研究人員開啓對AI倫理的思索。

  2016年9月,Amazon、Facebook、Google、DeepMind、Microsoft和IBM等幾家全球大公司共同成立了PartnershiponAI,研究和制定人工智能技術的最佳實踐,促進公衆對人工智能的理解,並作爲一個開放平臺來討論人工智能對人和社會的影響。

  2017年7月,中國政府發佈《新一代人工智能發展規劃》時就指出,建立人工智能法律法規、倫理規範和政策體系,形成人工智能安全評估和管控能力

  去年年底,加拿大和法國聯合成立了一個國際小組,討論如何負責任地使用人工智能。

  目前,在國家層面上關於AI的規則制定並不平衡,有的國家已經優先制定了機器人和人工智能的規則,甚至還通過立法來管理自動駕駛汽車,但大多數國家還沒有着手去做。

  歐盟委員會指出,技術、數據和算法不分國界,爲此,其將繼續加強同日本、加拿大以及新加坡等志同道合國家的合作,並繼續在包括七國集團(G7)和G20在內的國際場合討論和倡議中發揮積極作用。

  IBM歐洲主席頁特(Martin Jetter)對此表示,歐盟委員會此次出臺的指導方針“爲推動AI的道德和責任制定了全球標準”。

  執行摘要

  人工智能是這個時代最具變革性的力量之一,它可以爲個人和社會帶來巨大利益,但同時也會帶來某些風險。而這些風險應該得到妥善管理。總的來說,AI帶來的收益大於風險。我們必須遵循“最大化AI的收益並將其帶來的風險降到最低”的原則。爲了確保不偏離這一方向,我們需要制定一個以人爲中心的AI發展方向,時刻銘記AI的發展並不是爲了發展其本身,最終目標應該是爲人類謀福祉。因此,“可信賴AI”(Trustworthy AI)將成爲我們的指路明燈。只有信賴這項技術,人類才能夠安心地從AI中全面獲益。

  “可信賴AI”由兩部分組成:1)它應該尊重基本權利、相關法規、核心原則及價值觀,確保其目的合乎倫理道德;2)它使用的技術應該非常穩健、可靠,因爲即使是出於好意,如果沒有成熟技術的加持,技術也會帶來意想不到的傷害。這些指導原則構成了”可信賴AI”的基本框架:

  “可信賴AI”框架

  Chapter I:確保人工智能的目的合乎道德,規定了人工智能發展應該遵守的基本權利、原則和價值觀。

  Chapter II:關於實現”可信賴AI”的指導原則,同時強調AI發展目的的道德性和技術穩健性。這部分列出了”可信賴AI”的要求,以及實現這些要求所需的技術和非技術方法。

  Chapter III:提供”可信賴AI”的具體但非詳盡的評估列表實施要求。該列表將根據具體的用例進行調整。

  與其他有關AI倫理道德的文件相比,這份準則的目的不是爲AI增加一份核心價值觀和原則清單,而是爲AI系統的具體實施和操作提供指導。

  該準則面向開發、部署或使用AI的所有利益攸關方,包括公司、組織、研究人員、公共服務單位、機構、個人或其他實體。該準則的最終版將提出一種機制,是否認可這些這些準則將由利益攸關方自行決定。

  需要指出的是,制定這些準則並不是爲了替代任何形式的決策或監管,也不是爲了阻止其出臺。這份準則應該不斷更新,以適應技術和知識發展的要求。

  “可信賴AI”的實現

  這一部分爲”可信賴AI”的實施和實現提供了指導,指出實現”可信賴AI”有哪些要求,在發展、部署、使用AI的過程中有哪些方法可以滿足這些要求,從而充分利用由AI創造的機遇。

  1.“可信賴AI”的要求

  實現”可信賴AI”意味着需要在AI系統和應用的具體要求中加入一般、抽象的原則。以下是從Chapter I的權利、原則和價值觀中衍生出的十條要求。這十條要求同樣重要,但實施過程中需要考慮不同應用領域和行業的具體背景。

  問責機制

  數據治理

  爲所有人設計

  人工智能自治的治理(人的監督)

  非歧視

  尊重(增強)人類自主性

  尊重隱私

  穩健性

  安全

  透明

  《準則》還對每一項要求進行了進一步解釋。例如,在「問責機制」這項要求中,《準則》指出,問責機制的選擇可能非常多樣,從金錢補償到過失調查,再到沒有金錢補償的和解。如一個系統誤讀了藥品報銷申請,錯誤地決定不予報銷,系統所有者可能會被要求做出金錢補償。其他要求的詳細內容請參考原文。

  這一清單按字母順序對要求進行排序,以表明所有要求同等重要。Chapter III還提供了一份評估清單,以支持這些要求的實施。

  2.實現“可信賴AI”的技術和非技術方法

  爲了滿足上一節中提到的要求,開發過程的所有層面(包括分析、設計、開發和使用)都可以採用技術和非技術方法(參見圖3)。對實施這些要求和方法的評估,以及對流程變化的報告和論證應該持續進行。事實上,考慮到AI系統不斷髮展,以及在動態環境中運行,實現“可信賴AI”可以看作一個持續的過程。

  雖然這份準則中的方法列表並不詳盡,但它旨在列出實施“可信賴AI”的主要方法。爲了提高AI系統的可信度,這些方法應該基於第一章中定義的權利和原則。

  圖3顯示了權利、原則和價值觀對系統開發過程的影響。這些抽象的原則和權利被具體化爲對AI系統的要求,該系統的實施和實現要由不同的技術和非技術方法支持。此外,考慮到AI技術的適應性和動態性,繼續堅持原則和價值觀要求將評估(evaluation)和論證(justification)流程作爲開發流程的核心。

相关文章