深度學習對大數據的處理能力使其非常適合用來人口數據、經濟發展數據等數據的處理,也能根據這些數據得到未來發展的模式?而且實際上人工智慧也已經在為政府管理提供支持了,比如構建聊天機器人來回答市民查詢、根據數據來分析政府預算等等。那麼未來我們直接用人工智慧來管理社會嗎?

本題已加入圓桌 ? 漫談機器智能,更多人工智慧相關的話題歡迎關注討論


AI戰略家:我計算出一個社會改革方案,這將會極大改善95%人口的生活,但2-3%的人口會因此受損甚至犧牲人類決策者:這是侵害人權!人類不只是數字,人類需要保護少數的利益,因為每個人都是平等的。

AI戰略家:一個次優替代性的改革方案能極大改善80%人口的生活,但剩下20%的生活水平會有輕微下降。

人類決策者:這會使得社會撕裂並走向內戰!你是AI,你不懂得人類的思考方式,人們怎麼能忍受這樣呢?你必須向人類多學習!AI戰略家:還有一個方案,這個方案會讓90%的人受損,但改善剩下10%的生活。特別極大改善其中0.1%的生活。人類決策者:天哪!我不明白你怎麼會想出這麼糟糕的主意?AI戰略家:前兩個方案是我計算而來的,但最後一個方案不是,它是我從人類歷史裡學到的。
完全可能,不,沒有更好的了!記得伏爾泰所主張的開明君主制麼?一個以大局為重,心繫天下,公正無私,廣開言路,體恤民情的君王,沒有人類情慾幹擾的決策者,正是人工智慧啊!也許我們正在製造一個理想中的完美統治者。

最近圍棋領域的人機大戰,讓很多人以為人工智慧將在越來越多的領域全面超越了人類。但他們忽視了一個重要的問題:圍棋的規則,恰恰是由人類自己制定出來的。正是基於這種經過了人類千百年歷史演化和錘鍊的經過不斷平衡的規則,才誕生出今天如此精彩的比賽。沒有這些平衡性趨於完美的高質量規則的輸入,人工智慧根本無法產出具有深度和質量的運算數據。

我想這就是人工智慧在戰略決策上最大的短板:它可以把一套規則的平衡性演繹到極致,卻無法自己創造出可以演繹平衡性的規則。人工智慧可以被訓練成為下圍棋的神,但是它無法成為發明圍棋的神。它神跡的基石,是人類自己創造出的規則的神跡。圍棋是人類通過簡單且平衡的規則,編織出一個可以蘊育海量運算數據且還具備強烈趣味性的數據運轉模型,對人工智慧來說,想要發明出圍棋,它就必須首先理解規則的涵義,其次理解平衡的涵義,再次理解趣味性的涵義。我想就現階段的人工智慧能力而言,它是無法實現這樣的理解的,只能通過大量模仿產出無數模型來「散彈射擊」,期待能夠有一兩發正好同時滿足上述三個要求的模型「命中」——而對於是「命中」的判斷,還是掌握在人類自己手裡。

回到本題,由於人工智慧無法創造出演繹平衡性的規則,它們的功能也只能限制在輔助社會管理決策上,而非制定社會管理決策上。從另一個方面看,倘若我們輸入人工智慧的數據是如同圍棋規則那樣質量極高,平衡性趨於完美的社會規則,人工智慧就能夠產出一系列超越人類計算和想像能力的高質量社會戰略決策輔助數據。所以我想,未來利用人工智慧輔助戰略決策的關鍵,將在於人類自己對於社會規則的理解和認識。


人工智慧-瑜伽師地論-言語行為理論 政治計謀指鹿為馬 表述句和施為句 可能世界之哲學、博弈論、現實意義

瑜伽師地論卷1 妙境法師 眼識「所緣」,眼識要緣所緣境

辰三、表色

  表色者:謂取、捨、屈、伸、行、住、坐、臥,如是等色。

  「表色者」,這個「形色、顯色」,「顯」,是顯著,很明顯的、很顯著的顯現出來。現在說這個「表色」怎麼講呢?「謂取、捨、屈、伸、行、住、坐、臥,如是等色」那麼叫做「表色」。這個《大乘成業論》,《藏經》上有這部書,它那上面解釋「表色」有四句話,就是那個《大乘成業論》有這麼四句話:『由外發身語,表內心所思,譬彼潛淵魚,鼓波而自表』。由於『外發身語』,你發動了你的身語在外面,發表在外邊,你身體的行動和語言,那表示了你內心的思想,你內心這樣思想表現在行動上、表現在語言上,那麼就是由外發的身語,就知道你內心所思惟的了。『譬彼潛淵魚,鼓波而自表』,說個譬喻潛藏深淵裡面的魚,它在水裡面動,那個水在外面就有波浪,就表示那個地方有魚,那麼魚在裡面動,表示你心動。那麼水有了波浪,就表現心發出來的身語的行動,所以叫做「表色」,「表色」是這樣的意思。

  現在這裡說的「謂取、捨、屈、伸」,說我們手去拿東西叫「取」;或者放棄了;或者「屈、伸」,或者是身體的「屈、伸」,或者是背的「屈、伸」;或者你身體在「行」;或者是「住」;或者是「坐」;或者是「臥」,這樣一切的表現於外的一種色,就是你內心的境界。因為外面的這個身語,他自己是不能動,一定是心先動,才表現在身語上,所以這叫做「表色」。這「表」這個字就是這樣意思。表示你內心的活動,內心的活動表現在外面,這叫做「表色」。這是這一個的解釋。

《大乘成業論》的『由外發身語,表內心所思,譬彼潛淵魚,鼓波而自表』,恰恰就是言語行為理論,也是討論人工智慧技術的極限問題。

言語行為(speechact)指人們為實現交際目的而在具體的語境中使用語言的行為。…英國人類學家馬林諾夫斯基(M.Malinovski)於1923年首先提出這一概念。馬林諾夫斯基從人類學的角度,通過觀察一個民族的文化生活和風俗習慣來研究語言的功能,認為與其把語言看成「思想的信號」,不如說它是「行為的方式」。在語用學興起後,這一術語得到了廣泛的運用,言語行為被理解為人類實現目的的一種活動,構

類總活動的有機組成部分。人們的行為總要受到社會規約的支配,言語行為也就被看成受各種社會規約支配的一種行為。

英國哲學家奧斯汀(J.L.Aus一曲)於20世紀50年代提出「言語行為理論」(speechacttheory),後經塞爾(J.R.Searle)的完善和發展,成為哲學、語言學的重要研究課題,也成為現代語用學核心內容之一。作為一種語言哲學理論,言語行為理論最初由英國牛津學派的哲學家奧斯汀在1955年提出,後經美國哲學家塞爾、格萊斯等人發展形成,其核心思想是把語言理解為一系列行為和實踐,說話就是做事,言即行。

言語行為理論是英國哲學家奧斯汀首先提出的。1957年,他到美國哈佛大學去做講座,以《以言行事》為書名發表了講座的全部內容,在其論述中,貫穿了一個思想:人們說話的目的不僅僅是為說話,當他說一句話的同時可以實施一個行為。言語行為理論的基本出發點是:人類語言交際的基本單位不應是詞、句子或其他語言形式,而應是人們用詞或句子所完成的行為。奧斯汀認為,傳統語法把句子按其功能分成陳述句、疑問句、祈使句等類型,這不利於人們對言語的理解和使用,因為同一句子在不同的語境中具有不同的功能。他認為不少話語不僅是提供信息,而且是完成或幫助完成許多行為。奧斯汀在此基礎上提出了言語行為理論。

在《以言行事》中,奧斯汀首先區分了表述句(constative)和施為句(performative)。很久以來,哲學家所持的一種假設是:陳述之言的作用或是描述事物的狀態,或是陳述某一事實,兩者必居其一,別無他用,而陳述之言所作的描述或陳述只能是真實或者是謬誤。哲學家歷來關心的只限於陳述的可驗證性(verifability),即如何驗證某一陳述是真實的或是謬誤的,以及如何規定某一個真實的陳述必須滿足冉辱條件等。奧斯汀對哲學界語言研究中的這種傳統觀點提出了懷疑。他認為「許多陳述之言只不過是假陳述」(pseudo—state—ment),人們所說的許多話語貌似陳述,但它們根本不以坦直地記敘或傳遞有關事實的信息為目的,或僅僅是部分地以此為目的。有時沒有必要也無從區分語句的「真」或「假」,因為有些句子一說出來就是一種行為,而行為只有適當不適當之分,沒有真假之分。奧斯汀主張區分有真假之分的句子和有適當不適當之分的句子。有真假之分的句子為表述句,其功能在於斷言或陳述事實和描述狀態、報道事態,所表述內容是可以驗證的,即或是真實,或是謬誤;有適當不適當之分的句子為施為句,它們不具有報道、描述和表述的功能,卻具有實施某些行為的功能。施為句的話語都是不能驗證的,它們無所謂真實或謬誤。

【修行人解答 奧斯汀提出表述句(constative)和施為句(performative)的區分是十分重要的。對於東方社會而言,有時候言語的表達的意思,不在表述語言的真實與否,而是為了表達另外一種行為,所謂指鹿為馬,說話聽音,話外之音,都是為了表達其他的行為。

佛學中提出的【表色】思想,就是瑜伽師地論已經深入的明瞭,眼耳鼻舌身的五識,所緣的色就有一種人的心法在其中,除了人的情緒之外、倫理價值判斷之外,還有就是表達一種表色的行為。對於 言語行為理論中的表述句和施為句的區分,表色包含的人的情緒、倫理價值判斷,人工智慧是無能為力的。

可以假設,如果又出現了指鹿為馬的情景,一個高度發展的人工智慧裝置或者說超人,他如何回答纔可以讓提問者秦二世滿意呢?是簡單的回答是,或者不是嗎?也許秦二世需要通過觀察回答者的情緒並推測回答者的真實內心態度,提問者才能獲得自己滿意或者不滿意回答的結論。

中國歷史上有多次禪讓的故事,近代就有袁世凱登上皇帝位的故事。為了袁世凱登上皇位,楊度等人控制輿論,組織請願呼籲團,甚至在袁府搞假報子,袁世凱也是反覆推遲,這其中的真真假假,正常人有幾人看得懂,就是楊渡本人、袁世凱本人都是真真假假的搞不清楚,又是假戲又是真戲。假設一個人工智慧的超人,就可以判別真偽了?真是大笑話!袁世凱都在審世度時,根據事件的發展而定下一步的決策,在世間發展過程中就完全是一個存在多種可能的結果的【可能事件與可能的世界】,這就比量子世界的薛定諤貓,或生或死,皆有可能。

所以以為人工智慧的超人可以超越人類智慧、人類的政治計謀的人,這種人本身就是心智不全,根本不懂人的智慧與計謀有多深!】

奧斯汀的學生、美國哲學家塞爾是言語行為理論的主將,他也意識到虛構話語不能被排斥在言語行為理論的視界之外。塞爾主張把虛構人物的存在與真實人物的存在區別開來。虛構人物,如福爾摩斯等,雖然不存在於現實世界,可確實存在於寓言、小說、神話作品中,因此,在關於現實世界的言談中,代表虛構人物的語詞是沒有指稱對象的,但在關於虛構世界的言談中是有指稱對象的。塞爾顯然在言語行為視野中為虛構指稱留有餘地。1975年他發表了極有影響的《虛構話語的邏輯地位》一文,試圖集中解決虛構話語與言語行為的關係問題。他提出一個重要觀點:虛構話語也屬於一種言語行為,但這是一種假裝的、模仿的特殊言語行為,是作者在假裝作出一系列好像正常的言語行為。

「可能世界」作為一個術語和概念,在西方最早由18世紀德國哲學家萊布尼茨提出。在1710年的著作《神義論》中,萊布尼茨提出了一種對上帝創世過程的特殊理解。他認為在上帝的心目中實際包含了無限數量的可能世界,而人類所在的現實世界是上帝根據充足理由律創造的,在所有可能世界中是最好的一個。(23)萊布尼茨把現實世界看作眾多可能世界中平等的一個,是已經實現的可能世界。

1735年鮑姆加登在《關於詩的哲學默想錄》中,運用該理論解釋詩歌的虛構成分,認為詩歌的虛構事物雖然不存在於現實,但存在於其他「可能世界」中,他還明確提出「詩人宛如一個製造者或創造者,所以,一首詩應該像一個世界」(24)。

在現代西方哲學中,許多哲學家如羅素、維特根斯坦、卡爾納普等,都不同程度地討論過可能世界問題,但最集中的主要是在模態邏輯領域展開的。「模態」,是對英語modal的音譯,含有事物的存在方式或命題的樣式之意。模態邏輯就是處理用模態詞如「可能」「或許」「一定」「必然」等限定的句子的邏輯。20世紀中期以來,為了滿足模態邏輯發展的迫切需要,美國哲學家克里普克等人改造和發展了萊布尼茨的可能世界概念,形成一種模態語義學理論,又稱可能世界語義學。

可能世界語義學不僅對模態邏輯的發展提供了必要的語義工具,而且其包含的哲學思想和提供的在可能世界框架內討論問題的方法,影響遠遠超出了模態邏輯領域,波及語言學、心理學、數學、物理學、倫理學、宗教學、美學和文學藝術以及人工智慧等領域,逐步演變為一種廣為人知的跨學科範式。

修行人解答,【可能世界】的提出首先具有三層意思。

【可能世界】具有重大的哲學意義,人類的哲學思考建立於對【可能世界】的描述與表達。【可能世界】是人類在現實世界的前提下,對未來的種種推測,推測包含了當下可獲取的大數據、邏輯關係、推測人的價值與倫理立場等等。人類從4萬年前的智人時代開始就在對【可能世界】做種種推測。對【可能世界】的推測與希望,是人類區別於其他動物的關鍵能力。

在【可能世界】的哲學意義上,人工智慧的超人,是不可實施【可能世界】的運行的。除了大數據的掌控之外,情緒。價值、道德倫理關係等哲學意義,就根本不是可以用人工智慧的超人來實施的。你無法想像袁世凱在是否登上皇帝問題上,會聽取人工智慧的超人的參謀與建議。

【可能世界】具有博弈論的意義。此種博弈論,不是數學模型的博弈,而是人類古老計謀的博弈,是情感、價值與利益的博弈。中國歷史書籍,記載了太多的皇權、軍權、政權的博弈,三國演義,你能指望人工智慧的超人出現,可以戰勝曹操、諸葛亮、孫權嗎?

【可能世界】具有現實生活的意義。人類的男女戀愛,朋友的友誼過程,就是一種【可能世界】與【現實世界】的轉換,你能指望人工智慧的超人,與你談一場刻苦銘心的戀愛嗎?你不會是大腦出現錯亂了吧!

言語人工智慧可能性


人工智慧在人類設計之初是沒有慾望的,沒有慾望就沒有需求,沒有需求就沒有為己謀利的舉動,一切從規則而來,一切遵從規則。而且,我們人類,也不會費勁千辛萬苦去讓機器產生慾望,我們不去做,人工智慧,也不會做。之所以叫人工智慧,其實就是人類智慧的外掛。什麼是規則,就是人類的慾望,人類的生存,人類的幸福。我們不可能把人工智慧做的不好的交給人工智慧,我們會把那些程序化的,枯燥的,危險的,對身心發展無益的,但是又需要做的,以及人類做不好的,比如以權謀私的政府管理部門,修建基礎設施(規範化之後沒有了灰色空間,質量可保證),教學(不用給老師送紅包,一對一,對孩子的潛能的個性化培養),長時間的手術(醫生太累了),車管所,垃圾衛生局,快遞,等等這些,交給人工智慧去做,去規劃,去管理。

以此,人類可以解放自己。

我個人認為人工智慧不需要警惕,警惕的是某些人利用人工智慧危害公共安全,危害我們這些普通人,警惕的是在人工智慧最初設定的時候,規則就是不公平的,就是為了某些階級服務的,最終警惕的,還是我們人類自己。

當然可以用計算機去「管理」社會。

在行政方面使用信息技術是好的,不過顯然計算機不懂政治,想用信息技術解決政治問題……這個壓根就不可能。

讓ai去負責具體的行政事務,是很現實的事情,而且絕大多數行政事務甚至不需要複雜的ai。

最簡單的比如水電費,燃氣費這些,都是有商業化的遠程抄表方案的,再加上電子支付,這種東西想要全自動化一點都不難。

還有交通違章,完全可以用ai去判斷是否違章,然後再加對個例的人工審核就夠了。

實際上行政機器的很多部分都可以用真正的機器去代替,但是對於制定政策這種事情,顯然計算機是不可能知道什麼是「好」的政策的。

I believe that AI can be very valuable as a decision support system, to help humans understand complex relationships. Simulation techniques can be used to 「play through」 many possible scenarios, and computers can summarize the results and help humans to understand possible future effects of current actions.

I do not believe that artificial intelligence should be used to make wide-ranging decisions without any human input. One of many dangers is that implicitly, these systems will carry on the biases, incomplete understanding and faulty assumptions of the human experts who initially built them.

Martin Mueller是機器之心 | GMIS 2017 全球機器智能峯會嘉賓,知乎賬號由Martin Mueller授權,機器之心代為註冊和運營,以上為Martin Mueller的英文版答案,以下為機器之心翻譯答案供大家參考。

我相信人工智慧作為決策支持系統在幫助人類理解複雜關係上會發揮很大的價值。模擬技術能「考慮(play through)」許多可能的情景,計算機能概述結果並幫助人類理解當前的行動會對未來產生怎樣的影響。

但是我並不相信人工智慧應該可以在沒有人類輸入下制定出大範圍決策。其中風險之一就是存在潛在隱患,因為這些系統將會承載最初構建者的偏見、不完全理解和錯誤假設。


「我們型號各個版本都會發燙,我是小米的產品,熱怕了,一塊散熱板都不敢動,全在這兒。」

「你大把大把貪污散熱板的時候怎麼沒想到你是小米的產品? 現在出事兒了,說自己是小米的產品。 雷軍那麼倒黴,做了你這麼一個殘次品啊!」  

這是不能的,即使人工智慧發展的再快,管理需要的是智慧,不可能一個程序可以搞定的。

物流行業現在用人工智慧用的也比較好了,只是因為人工智慧還不是特別完善所以物流行業還是以人力為主,但是現在也已經有了人工智慧派件機器人,可以送貨上門,未來AI技術成熟可能整個物流行業的一系列工作都由智能機器人來完成了,就不用這些快遞員了,不過這樣也非常節省人力資源,可以創造更多的職業

同時,自動駕駛汽車也是當下比較火的一項技術。自動駕駛的汽車,就完完全全暴露在一個隨時都會有人或者生物體出沒的環境中,這無疑要求自動駕駛技術不能有任何的漏洞,而這是不可能的,人工智慧發展到現在,最難實現的就是修復漏洞,而且,人工智慧這項技術,就是越發展,漏洞越多,就需要越不斷的完善。不管是誰,都不敢打包票說開發的無人駕駛汽車可以應對各種各樣的突發情況,因為,生命無小事,每一輛汽車上都承載著幾條生命,這是無法用永遠做不到完美的人工智慧去保障的。


我也來分享一個人工智慧+企業管理的應用場景,
幾乎每一個老闆在管理企業的時候都會有這樣一個困惑,有些員工看似很努力,實際上卻是做個樣子給老闆看,一天到頭產生不了多少有效工作結果;而有些員工效率很高,卻又給人一種不上心的感覺。這兩種人同時存在於公司內部,導致管理方式尷尬不堪,是以效率為依據,還是以工作時間為判斷依據?
AI+企業管理為這一問題提供瞭解決方案,這個方案就是用一些深度學習網路來構建員工的數據行為庫:對員工的日常進行記錄,這樣做的優點是可以檢測員工的工作情況起伏。
這樣以後,工作狀態就再也不虛了,而是一個具象的數據和現象了。
還有一種AI管理員工的方式,是在開會等場景下,用人臉識別等機器視覺技術讀員工的面部表情。比如員工瞌睡了、開小差了,甚至很鄙視這個方案,偷偷對領導翻白眼了,都可以檢測到……額,這不是個好技術,算我沒說。
這當然是不能的,即使人工智慧發展的再快,管理需要的是智慧,不可能一個程序可以搞定的。戰略家,這是一個最為需要智慧的人,是我們最為深刻的一個思想過程,我們一般人是沒有那麼大的格局和眼光的,這是一個人獨有的。

不用懷疑,人類一定會滅亡,而且人類統治地球的時間,一定比恐龍少的多的多。現代人統治地球的時間會比我們的祖先統治地球的時間少的多的多。

想一想,一個100多斤的人,就可以到達的智力水平,機器或者AI沒有可能到達麼?要知道他們可是可以無限擴容的,人類進化的太慢,AI進化的太快,只是人類還沒有找到一條正確的道路來消滅自己。

不過,這一天快來了。

至於人類的命運,看看我們怎麼對待猴子們的。


少數人管理網路機器,機器管理大部分人。


如果是會推理有主動意識的強人工智慧,那麼是會的。如果只是現在的深度神經網路,應該比較難。因為沒有數據來訓練啊。
可以,但AI未必有興趣,是否有興趣則取決於它的「本能」是如何被設計的。很多人在這裡說AI行或者不行,都是基於自己的猜想,而真正知道答案的人,只能是實現AI演算法的那個人,那個清楚所有技術細節的人,那個通過思考和編程理解「智能」的本質的人。大家只能拭目以待咯。

理論可行,實際上有困難。

使用AI進行管理無非是希望得到最佳最合適的管理效率與社會平衡。

要實現這個過程,AI的思考模式很可能是跳出人類認知的,從輸入指令,到輸出結果之間存在一個巨大的「黑箱」,比如AI設計出一個最佳,但人類無法理解的指令,我們是否要照做。

如果要以人類能理解的形式還原AI思考過程,很可能要10000年。

比如AI告訴我們,「所有人必須早上起來之後必須光著屁股原地轉三圈,大喊三聲去它孃的!」並且這是實現社會長治久安,經濟快速發展的關鍵環節。還原思考過程需要500年,我們是否照做。


完全有可能,甚至領導整個社會。

但是這所帶來的問題也是顯而易見的。

人類的社會體制是從不斷的崩壞中演化至今的。

以中國來看,從夏商西周到春秋戰國。從漢朝亡於強到宋朝的經濟騰飛,在由金元滅宋朝之,直到最後清朝毀而建立的新中國。

這其中有每一次的滅亡的新生都帶來新的統治思想。

以及更重要的階層流動。

周朝分封天下,春秋的百家爭鳴,秦朝郡縣制,漢朝超強集權,宋朝文官是大爺武官是孫子,以及宋朝對於「農和商」的理解,以至於宋朝富可敵世界,但就是這麼個國家,還是亡於金元之手。

即便是民國到新中國這短短的時間內,中國這片大地上也經歷了諸多的統治方式。(我說的不是姓資好還是姓社好,我說的方向,舉個例子是蔣先生以及諸多國黨首領是以軍閥的形式統治,而我黨則是以「人民的名義」統治。)

以外國來看,城邦制,君主制,政教合一制,君主立憲制,等等等等。

那種是最好的?

沒人知道!

甚至,哪種是最合適的都不能給出結論!

反而能給出結論的,是勝利,是戰敗,是榮耀,是屠殺。

此時,我們能否得出一個結論?

即:

人類的社會體制是從不斷的崩壞中演化至今的。

然而現代很少發生戰爭,所以沒有戰爭摧毀社會體制,這必然會導致社會體制的陳舊,導致社會體制即便是陳舊,也會被一直沿用。

而且。

社會體制這種東西,在同一區域內、同一時間下,只能有一種在實施、運行,所以要實施新的制度,必然要打破舊的制度。

那麼即便是在運算中發現有新的可以實施的體制時,人工智慧也肯定無法得出結論——新的制度是否會比之前的制度更好!

就如同我們無法得出在唐宋時期的生產力下,是否有更好的制度一樣。(我說的不是事件發生能應對的更好,是制度!就好比我說的不是靖康恥,而是封建制。)

連回顧歷史都不能做到的事情,你覺得計算未來能嗎?

所以當人工智慧管理社會,社會體制將永遠無法進步。


非常不看好。因為太多豬隊友----人類。
人工智慧最大的優勢是學習快!一個掌握全世界的人會有多麼強大!人工智慧取代人類是早晚的事!

記得美國的科幻小說家阿西莫夫曾寫過一本書,叫《數的趣談》,其中有一章節是說數的進位,也就是數的規則,他說我們人類生活中數的進位一般為五進位和十進位是因為我們正好一支手五根指頭,雙手十指,書中他論述著不同進位的特點,比如我們計算機數的進位為二進位,比如我們人類生活中數的進位為十進位,二進位的特點是簡單,表現為速度高效,十進位對比二進位的特點是相對複雜,表現為一定的豐富性和適當的有效準確性。而數的進位越是複雜,它的表達就越豐富準確,相對減弱效率。因為數的這些特性,我們人類在十進位的規則下才有了一定程度的文明(好像我們目前也只能駕馭十進位)。

當時我閱讀這個章節的時候想的是,如果有外星生物,並且其文明程度比地球人類文明要高的話,也許外星人不像電影《et》只長有六根指頭,至少得有十二根吧。再後來我想了想,也許現實世界關於數的難題,比如各種數學猜想,各種數學家沒辦法克服的數學難題,其根本也許並不是數學的難題,也許難題只是因為我們人類使用的數學規則太侷限了,侷限到無法表達解釋數的本質和豐富性,所以我們也只能產生一定程度的文明。

這裡的話回歸問題,關於ai,人工智慧。如果我關於以上的一些關於數的理解沒有錯誤的話,目前所謂的人工智慧只是在二進位的規則下,加了人工(編程),使得ai表現出適當的智能,其本質只是高效廣泛的表達了人的智能,ai在這個侷限的規則下可以表現為聰明,但它永遠無法產生智慧,它永遠無法產生意識,它只是彌補了人類侷限的速度和有效,它從頭到尾只是人類的工具而已,它只是擴大實現了人的意念(善則福澤天下,惡則毀滅世界)。

說到人的智能,我突然想起生物學中基因的模型。

基因的結構為雙鏈結構,而每一個基因鏈都由許多不同的基因片段組合而成,我的猜想是,許多不同的基因片段展現了我們生物的豐富性,雙鏈結構展現了我們生物的效率性,也許正是因為在這種奇妙立體雙重的規則下,我們生物纔可以表現的這麼適當的豐富與適當的意識和智慧。

也許目前所有對於人工智慧的侷限也只是因為我們人類本身的侷限,也許目前所有對於人工只能的期待只是我們人類對我們自身的期待,也許目前對於人工智慧的恐懼只是我們人類對我們自身的恐懼。也許在未來的千百年後,我們也許能突破我們自身的侷限,製造出真正意義上的人工只能,但是,就如千百年前希臘神殿所刻的那句警句「人啊,認識你自己。」

這只是一個比較科幻但不科學的回答,希望大家見諒,就如愛因斯坦所言,想像力比知識更重要,又或者如錢鍾書《一個偏見》所說「偏見可以說是思想的放假。它不是沒有思想的人的家常日用,而是有思想的人的星期日娛樂。假如我們不能懷挾偏見,隨時隨地必須得客觀公平、正經嚴肅,那就像造屋只有客廳,沒有臥室,又好比在浴室裏照鏡子還得做出攝影機頭前的姿態。」,希望大家見諒我的一個偏見。


推薦閱讀:
相關文章