資本實驗室·今日創新觀察

聚焦前沿科技創新與傳統產業升級

當我們購買節能燈泡時,會按燈泡的功率來選擇:3W,5W,11W……;當我們購買電水壺時,會按容量來選擇:1.2升、1.5升、1.7升……。也許在20年後,你會面臨另一個場景:當你走進一家機器人商店,比較各種機器人型號時,你最感興趣的指標可能是他們的HIU值,選4.6的,12.4的,還是24.0的?

HIU?那是什麼鬼?


自人工智能概念誕生之日起,關於人工智能的討論甚至爭論從未停止。隨着近幾年該領域的快速發展,爭論也愈演愈烈。

爭論無外乎兩種觀點:一是認爲人工智能是可控的,只是人類的一種工具。代表人物有著名的機器人制造專家羅德尼·布魯克斯;另一種觀點則認爲人工智能可能最終會導致人類毀滅。像埃隆·馬斯克和史蒂芬·霍金則是這種觀點的支持者。

在討論這一問題時,我們可能忽略了一個問題:我們目前沒有任何有效的方法來測量機器人的效能。如果沒有有效的測量方法,我們又怎麼知道人工智能會是一個真正的威脅呢?

人們曾經發明智商評測體系來衡量個體的智力水平,儘管這種測試存在很大的缺陷,結果也並非精確,但爲區分人類智力水平提供了一種方法和思路。

同理,人工智能是否也應該具有一套評測體系?人類的智商評測體系是否適合人工智能?如果不適合,那又該用什麼方法?目前有很多科學家和未來學家正在尋求人工智能的效能測量方法,如美國未來學家Thomas Frey就提出了HIU(人類智能單位,Human Intelligence Unit ,簡稱HIU)的概念。

據Thomas Frey說,他提議以“單個人類智能單位(1 HIU)”爲基礎,爲人工智能創造一個測量標準。當然,他認爲這只是一個粗略的嘗試。

機器人聰不聰明,得看他/她的HIU高不高?

受到瓦特用馬力來測量蒸汽機的動力的啓發,Thomas Frey提出了HIU的概念。由於馬力是一種力的一維測量,而人類智能是一個複雜的、多維的個體屬性的結合,包括了思考、推理、毅力、動機、情感價值觀、記憶、恐懼和脆弱,這也決定了智力量化會發展成一個“無窮+1”問題,因爲這裏面有太多的倫理和情感因素,而這些是無法用簡單的數字就能解決的。

未來在選擇機器人時,是需要簡單服從指令的工具就好,還是需要一個擁有全面技能的夥伴,HIU評級將成爲一個高價值的參考工具,用於幫助你決定選擇哪種型號。

量化智能


毋庸置疑,衡量一匹馬所產生的力量要遠比量化複雜的人類智慧要簡單的多。

機器人聰不聰明,得看他/她的HIU高不高?

那麼,對於人工智能,我們到底要測量什麼?執行效率,計算速度,還是計算技巧?像這樣的測量在比較中會有什麼價值呢?例如,怎樣去比較一個洗衣機器人、一輛自動駕駛汽車和人工智能Watson?

在神經生理學中,突觸是指神經元之間或神經元與效應器細胞之間相互接觸、並藉以傳遞信息的部位。Thomas Frey認爲通過對一段時間內的突觸傳遞進行比較,可以創造一種更好的方法來評估一個人對一個項目的貢獻。

據神經學家Astra Bryant所說,普通大腦的神經信號傳遞大約每秒860億次到17.2萬億次。一個處於深度冥想狀態的人神經信號傳遞數量最低,而一個經歷了完全頓悟的人神經信號傳遞數量最高。

HIU評估系統以一個人在一小時內做出的決定和計算的平均數爲基礎,儘管存在一些優點,但這種對大腦的評估方式和對馬力的評估差不多,因爲評估過程失去了對激情、獨創性和想象力等無形價值的測量。

人類自身就存在很多的缺陷和問題,而我們卻希望創造出的每個人工智能是完美的,能夠獨立生存的。這就引出了很多哲學問題:

1)有缺陷的人類如何製造出無缺陷的人工智能?

2)製造所謂的“完美”人工智能是最理想的嗎?

3)人工智能會成爲彌補人類不足的最佳方式嗎?

4)人工智能最終會代替我們對其它人的需要嗎?

按鈕盒理論


在人工智能圈中,經常討論的一個理論是按鈕盒理論(The Button Box Theory)。如果一臺電腦被設定爲在其每完成一次任務後,按一個按鈕讓其“感覺得到獎勵”,最終這臺電腦會尋找更有效的方式來獲得獎勵。

首先,這臺電腦會尋找一些方法來規避完成任務的需要,並找出自動按下按鈕的方法。最終,它會尋找方法來消除對這個按扭的威脅,包括那些有權拔掉電源的程序員。由於不能與計算機講道理,人們相信機器最終會崛起,並與人類對抗。

機器人聰不聰明,得看他/她的HIU高不高?

這一場景是很多科幻電影情節的關鍵。在這些情節裏,智能機器在未來與人類作戰。然而,關於這些機器將會以某種方式學會先發制人的理念,充滿了假設缺陷,而且他們的利益也會使他們對世界上任何其它的利益視而不見。

大膽的預測


實際上,社會的每一次進步都集中在獲得更多控制權的理念之上。

我們都明白突然遭受壞運氣時是什麼感覺,這種感覺我們都不喜歡。我們爭取控制是對生命的最糟糕時刻的應對反應。如果我們能有更多的控制,就不會有什麼壞事發生在我們身上。

人工智能有望解決這一困境。我們不僅爲每一種危險都創造了規避機制,我們還修正每一個問題,並實現大規模的自立。

最終我們成爲了獨立的有機體,擁有着超高的智力水平,以及我們無法想象的能力,並融入到我們周圍的環境。

然而,所有的場景也正是從這裏開始崩塌。

自立將會導致孤立,我們對彼此的需要將會消失。沒有了需要和依賴,就不會有進步。沒有了修正每一個不足的驅動力,我們的目標感就會開始消失。

如果智力得不到應用,再聰明也沒有意義。就像一個永遠不會使用的永動機,其存在就沒有了什麼目的。

正因爲如此,Thomas Frey認爲很容易做出預測:所有的人工智能最終都會以失敗告終。它要麼因其缺陷失敗,要麼因其過於完美而失敗。無論如何,隨着時間的推遲,它終會失敗。

然而,僅僅因爲人工智能最終會失敗,並不意味着我們不應該追求這些目標。因爲在追求這條路的旅程上,我們會創造出許多非常有價值的應用。

狹義的人工智能應用會以無數的方式興起,即使是廣義的人工智能,也會在未來幾十年創造無法估量的價值。但認爲解決所有的問題是一件好事,也是一種妄想。

未來,交給未來去解決


有時,我們美好的意圖會如海市蜃樓一般自己出現,幫助指引我們到一個我們從未想過要去的領域。

儘管Thomas Frey提出了一種新的測量單位HIU。但隨着分析的展開,我們會發現人類智能和人工智能處於不同的層面……或者,他們就是處於同一層面?

沒有依賴,就不會有人類智能。可能會有別的什麼,但不會是人類。

不完美恰恰是一種奇怪的完美。

衡量人工智能的潛在危險時,要善用它,就如利用它做壞事一樣危險。

我們最終會不會有某種形式的HIU,或我們是否必須要知道更多才能回答這個問題?就像一列尚未離開車站的火車一樣,這件事情還要許久纔會發生。(編譯/導讀:王進 原作者:Thomas Frey)

相關文章