編者按:


“中國正處於一個十字路口。” 5 月 8 日,中國學者雷瑞鵬、邱仁宗等人在 Nature 上發表評論文章,做出預警,政府必須做出重大改變,以保護他人免受魯莽的人類實驗的潛在影響。


自去年 11 月,南方科技大學副教授賀建奎宣佈其創造了經基因組編輯的一對雙胞胎後,中國的科學家和監管者在不斷進行反省。前述文章即是最新一例。


事實上,隨着新興技術的快速發展,確實帶來一些不道德或非法使用的可能性。例如人工智能領域出現的算法歧視,合成生物學可能被濫用於製造武器等。


新興技術的這些特點,決定了“技術先行”或“幹了再說”的辦法,可能不再適用。而且,在市場壓力下潛在的利益衝突,科學家的自我約束也容易失靈。爲此,DeepTech 邀請雷瑞鵬、邱仁宗撰文,探討如何解決中國在新興技術領域的道德治理難題。


自從賀建奎在去年 11 月 26 日宣佈,被他做了胚胎基因組編輯的雙胞胎女孩已經出生,震驚令人震驚全世界之後,中國的科學界、生命倫理學和科學技術倫理學界和,以及監管機構一直處於反思之中。


現在大家正在“痛定思痛”,思考這個“痛”怎麼來的,怎麼纔可以避免再發生這種令人“痛”的事件。我們認爲,從根本上說,我們還沒有在國家層面建立保護人類受試者的倫理基礎設施或倫理治理體系,這包括制訂有法律效力的有關保護人類受試者的法規或條例系統,建立有效優質的機構倫理審查制度,建立有效優質的能力建設制度,以及有效的質量控制制度,包括對機構倫理審查委員會和省市倫理委員會的檢查、考查和評估制度。


我們的國的家衛生健康委員會和食品藥品監督管理總局已經制訂了我們認爲比較好的規範和管理辦法,但對它們實施的監督較差;機構倫理審查委員會質量參差不齊;能力建設薄弱;以及缺乏檢查、考查和評估。即使有了改善,它們實際上僅在這兩個政府部門管轄範圍之內,在這兩個管轄部門此之外的研究機構以及和越來越多的私立研究機構也許對這些部門規章,就置若罔聞了。將這些部門的規章成爲國務院(中央政府)的條例,在國務院下建立保護人類受試者的權威機構也許是我們應該做的事情之一。


從賀建奎事件我們考慮到的一個問題是,對於像基因編輯這那樣的新興技術,沒有注意其倫理問題的特殊性,因而也沒有建立專門針對它們的監管機制。新興技術(emerging technologies)是指基因技術(如基因編輯)、人工智能技術、機器人技術、大數據技術、幹細胞和再生醫學、合成生物學、神經科技、微電機系統、異種移植技術、納米技術、增強現實技術、3D 打印刷等。


這些新興技術的主要特點之一是它們有可能對人和社會帶來巨大受益,同時又有可能帶來巨大風險,威脅到人類未來世代的健康以及人類的生存例如人工智能可使人類從一般的智能活動擺脫出來,集中精力於創新發現發明,然而同人類一樣聰明甚至超越人類的人工智能系統,一旦失去控制,可能對人類在地球的存在帶來威脅。合成生物學的研究和廣泛應用可幫助人類用多快好省的方法解決困擾人們已久的糧食、營養、燃料、藥物和疫苗的生產問題,然而如果合成出傳染力強、引起的疾病嚴重、傳播迅速,且對疫苗有免疫力的病毒,則可能使數千萬人喪失生命。


這些新興技術特點之二是它們的不確定性。不確定性使是我們對所採取的幹預措施可能引起的後果難以預測,影響後果的因素可能太多,太複雜,相互依賴性太強而不能把握。例如用於管理電網、核電站等重要設施的人工智能軟件可能發生難以預測的差錯。賀建奎所做的生殖系基因組編輯是典型的不確定性例子。我們將卵、精子、受精卵或胚胎中的基因組進行編輯後,,我們難以精確發現基因組編輯是否損害了正常基因,更不能把握基因組經過修飾的胚胎發育成人後是否能預防艾滋病病毒感染。即使她們終身沒有感染艾滋病病毒,那麼是能否是確認是基因組編輯的後果,她們對其他疾病尤其是傳染病是否有易感性,她們整體的身體狀況是比沒有經過編輯的孩子是好還是糟遭,她們未來的後代孩子的身體狀況以及未來的孩子的後代的身體狀況怎樣?對這些問題我們都無法回答,因爲缺乏必要的信息。在這種情況下我們無法對生殖系基因組編輯進行必要的風險-受益比評估,也不能對提供胚胎的遺傳病患者(即未來孩子的父母)提供必要和充分的信息,使他們能夠做出有效的知情同意。新興技術往往具有雙重用途的特性,即一方面可被善意使用,爲人類造福;另一方面也可被惡意使用,給人類帶來禍害。例如合成流感病毒可用來研製疫苗,也可用來製造武器。


新興技術主要特點之三是,會提出一些我們從來沒有遇見過的新的倫理問題。例如人工智能軟件對於我們人類做出涉及未來的決策能夠起很大的積極作用,可是人工智能的決策是根據大數據利用算法做出的,算法能在大數據中找出人們行爲的模式,然後根據這種模式預測某一羣人未來會採取何種行動,包括消費者會購買何種商品,搜索何種人可擔任企業的高級執行官,某種疾病在某一地區或全國發生的概率,或在某一地區犯過罪的人有沒有可能再犯等等,然後根據這種預測制訂相應的幹預策略。然而,模式是根據數據識別出來的,而數據是人們過去的行爲留下的信息,根據從過去行爲的數據識別出的行爲模式來預測人們未來的行爲,就有可能發生偏差或偏見。例如在美國多次發現算法中的偏差,結果顯示種族主義和性別歧視偏見。安保機構往往根據算法來確定黑人容易重新犯罪,儘管實際上白人罪犯更容易重新犯罪。由於在大數據中往往將“編程”、“技術”等詞與男性聯在一起,“管家”等詞則與女性聯在一起,因此人工智能的搜索軟件往往推薦男性做企業高級執行官等等。再則,人有自由意志,一個人過去犯過罪,他可以選擇今後不再犯罪。


新興技術的這些特點,決定了我們發展它們的政策和戰略不能採取“技術先行”或“幹了再說”的辦法。反之,我們應該“倫理先行”。這要求我們在啓動研發之前先要在對其倫理問題探討的基礎上,制訂一套初步的、暫行的倫理規範和管理辦法。


最近國家衛生健康委員會發布的《生物醫學新技術臨牀應用管理條例(徵求意見稿)》是很好的,但對每一項新興技術都制訂一個倫理指南或倫理準則可能更好。這種規範是暫時性的,因爲制訂這些規範時我們缺乏充分的信息,而且新興技術具有不確定性,我們可以隨着科研的發展,及時進行評估,修訂我們的規範。因此,在這個階段規範不宜採取立法的形式,而以部門規章爲宜,因爲需要與時俱進,及時修改,以便不脫離科技發展的實際。隨着我們積累的知識和數據增多而隨時加以修改、完善(類似摸石頭過河)。


不少科學家和科學共同體願意進行自我監管,這是非常積極的現象。但科學家和科學共同體必須理解,自我監管是不夠的。因爲:其一,科學家往往需要集中精力和時間解決創新、研發和應用中的科學技術問題,這是很自然的和可以理解的,可是這樣他們就沒有充分的精力和時間來關注倫理、法律和社會問題;其二,現今科學技術的倫理問題要比例如哥白尼、伽利略甚至牛頓時十分複雜得更多,而倫理學,尤其是科學技術倫理學或生命倫理學也已經發展爲一門理性學科,它們有專門的概念、理論、原則和方法,不經過系統的訓練是難以把握的;其三,現今的科技創新、研發和應用都是在市場情境下進行,這樣科學家就會產生利益衝突,沒有外部監管,只有自我監管,就會出現“既當運動員,又當裁判員”的情況。外部監督有兩類:政府對新興科技自上而下的監管,這是最爲重要的,這就要建立一套監管的制度,自上而下的監督也包括人民代表機構和政治協商機構的監督,這是我們缺少的;自上而下的監督就要對違規者問責、追責、懲罰,再也不能讓違規者不必付出違規成本。另一類監督是利益攸關方的自下而上的監管,利益攸關方包括人文社科諸學科相關研究人員、有關的民間組織和公衆代表。


堅持透明性原則,建議建立開放的公衆可及的中央信息平臺,凡從事基因編輯研究和應用的任何單位,都必須將下列情況向中央信息平臺提供:從事基因編輯研究和應用的機構情況(人員、設備);基礎研究使用人胚胎的情況(胚胎情況、數量、結局);動物研究情況(什麼動物、多少、所獲數據);臨牀試驗情況;臨牀應用情況(包括創新療法);與基因編輯研究和應用合作的 IVF 機構情況;對非人動植物基因編輯情況。賀建奎曾聲稱做過無數次的動物實驗,但一次實驗也沒有公開報告過國。對違規者的調查處理結果也應在發表在這中央信息平臺上,僅僅通過新華社報告一下初步調查結果,既無細節,又無相關單位和人員的姓名,初步調查結果之後再也沒有聽說進一步的結果,這種做法不符合透明性原則,必須加以改正。


作者:

雷瑞鵬,華中科技大學文學院、生命倫理學研究中心教授

邱仁宗,中國社會科學院哲學研究所研究員


關注 DeepTech 

發現改變世界的新興科技

(微信號:deeptechchina)


點擊閱讀原文了解題跋派↓↓↓

相關文章