補充說明:

1、AI的智能程度限定在無法自我重構核心代碼的條件下,如果超過這個限制,估計人類不是被圈養,就是要滅絕了。

2、基於條件1,AI的行為處於開發者可控的階段,不會出現大規模的AI和人類之間的暴力對抗。

這樣的情況,思考了很久,覺得人類毫無優勢,已經是可有可無了,由衷的不看好人類發展AI智能……

2018.06.01:修改一下問題,把「很有可能在未來xxx年內就成為現實」刪除了,emmmm,免得被打臉,疼…


哥們兒你入了魔障了。

入魔的原因很簡單,你根本沒理解AI到底是怎麼一回事,到底是怎麼實現的。

所以你腦子裡各種小劇場不停的冒出來,自己給自己嚇傻了。

現在的AI,本質上就是統計學公式,沒了。

我們把不同的數據按照類型分組,然後一股腦都交給ai,讓它自己跑,能跑出來明顯相關性的,這就是AI的演算法。

又因為相關性這個東西太複雜,我們人類不是一定能理解這些東西的因果關係是怎麼一回事,所以才覺得AI很神奇。

比如說,AI會發現喜歡某個H笑話的女孩子,更有可能是某某化妝品的忠誠用戶。

相關性上來看,這就是匪夷所思的一件事,完全超越了基本常識。

一個H笑話,怎麼可能明確出女人到底愛用什麼牌子的口紅呢?

卧槽,也尼瑪太古怪了!!!

什麼情況這是????Σ⊙▃⊙川

但是實際情況又是如何呢?

採樣的時候,某個口紅的粉絲群的數據被採集了,然後正好採樣期間她們群里有個H笑話,然後正好她們群主很喜歡,老發老發,然後群里的妹子出於合群的目的,也都跟著轉發了……

於是在AI的視角看,這個H笑話和某某口紅之間就有了強相關性……

於是AI就得出個結論:"H笑話→口紅"

不搞笑,這是真事……

AI其實就是這麼個東西,就這麼簡單就這麼蠢,好吧→_→

擔心這種東西徹底完全的取代人類?

呵呵,呵呵,呵呵呵……

→_→

可早呢……

ps順便一提,前幾天歐盟的新ai演算法法規正式生效了,裡面刻意強調,一切決策用的ai都必須說明演算法是怎麼一回事,結果到底是怎麼推導出來的,就是在試著杜絕這個"H笑話→口紅"的情況出現……


AI在產生意識以前,人類的意識就會佔領它的電子的大腦,全世界有幾十億人等著意識上傳呢。


想像力和創造奇蹟的能力。 不是科幻小說看多了才給出這樣的答案 不過可能也受到了其中一些影響


從人類種群來看,不存在替代一說,就某個工作崗位來說卻是可以的。

推薦閱讀《科幻電影中的人工智慧》。


一想到這個問題,我就會感嘆造物主的厲害(我是無神論者,只是單純地借這些概念):

人類產生前,一個基因變異,弄拙成巧,造成了生物的多樣化,且多樣性的生物世界裡,麻雀雖小五臟俱全。

人類產生後,一個可以『難得糊塗』和『靈光一閃』的邏輯缺陷,卻賦予了人類的創造力和思想提煉能力。一個資源何其少,分工何其多,又導致了人類社會中的各種多樣性。一個生命何其短、慾望何其多,迫使個人能鋌而走險,國家能賭國運。

而似乎以現今的計算機科學理論設計的AI似乎都不能使AI呈現出 多樣性、主觀能變、敢於拼搏的特徵。所以,至少目前理論體系下的AI不具有取代人類的能力。

很多人提到了意識,並認為他們能自我upgrade,他們就算有意識了。我雖然不知道這個觀點是否正確,但至少也無法否認這個觀點。但以我對計算機的邏輯運算能力的理解,計算機哪怕是自己我更新代碼,也肯定是有標準的,死一點的就基於外部可測狀態集,活一點也不過是多套幾個統計學公式。很難到達人類的糊塗或靈光,因為人類的邏輯對各種不合理的兼容要自然和豐富得多。這導致AI的自我升級局限在了一些絕對改變上(不像人類,即使外部沒什麼變化,自己也能先做白日夢),而這只是第一步。以為,即便是有了自我更新的能力,還要接受足夠多和足夠誘惑的刺激。在這個環節,兩個多樣性起了很大的作用:

多樣的生物世界裡,有一類生物叫鳥類,他們(含他們的祖先)無意之中獲得了飛行的能力,有利於生存,於是保留下來了,人類看見了,便想:我也像鳥兒能飛就好了(但機器人認為,我就是機器人,不是鳥,我不應該能飛)。於是算是立項了,項目進行中,人類想:我得先有翅膀。於是朝著翅膀的方向發展,然後失敗了,就先不管了。煉丹的人本來只是要長生不老的,結果炸出了火藥,人類又想:這玩意能把東西炸飛,也一定能炸飛我。於是炸自己炸死了(但聰明的機器人早就考慮了全部的可能,東西不僅僅被炸飛,還tm炸爛了,於是它不會炸自己)。樹上掉下了蘋果,吃飽了沒事做的人類牛頓氏,把它關聯到萬事萬物,於是力學橫空出世(機器人則獲得了該蘋果的各種可測數據)。還在妄想飛的人又有了新的方向,他想到:老子自己不飛了,弄個盒子來飛,我坐裡面得了(機器人表示很反對,這並不像鳥兒啊,當初說好了想成為鳥兒才立項的啊)。

越文明的人類社會,肯定會存在更多的規則,有的僅限個人,有的與社會相關,我們通常稱前者為道德準則,後者成為法規,此外還有很多介於他們之間的無法界定習俗、教義等。這些規則必然不是完美的,他們有好有壞,但卻沒有絕對的好壞,就算是一個設計之初看上去純好的規則也會隨著社會發展而變的不那麼好,但是有一點就是,只要是存在的仍在通行的規則,總是至少對某一個人群有利的,不然就會被改變。比如,僅對上層統治階級有利的規則,會因為中底層無法接受而終於反抗,而又對上層產生不利,於是終於被修改或廢棄。(而機器人社會則不會,網路和大數據會讓他們的社會存在分工,卻分不出階層,一旦規則存在,在沒有對照的情況下(比如人類依靠內外對照來修身,通過群間對照來治世),很容易被永遠認為是對的,他們太明白自己為什麼要這樣,也明白別人為什麼要那樣,所以很少會有產生反思三連——『憑什麼,這不對,應該改』。除了少數天生的哲學家,多數人產生這樣的想法都源於三觀突變,而不是循序觀察產生,因為普通人總是被動觀察。全知的AI的三觀一定是穩固至極的)

說改變很簡單,但是真要改變是很難的,人類有一種病叫選擇困難症。一方面源於人類沒有AI那樣的計算力,快速算出最優解(人類就算能算出最優解,有時候也懶得算,就是圖快),另一方面,很多人類壓根就沒想過要取最優解,就是要嘗鮮(機器人則認為,我有能力保證不重不漏,沒必要非今天吃螃蟹不可),或者就是搏一把。機器人或許也會被設計為擁有博賭能力,但是其運行博賭子程序的原因定然還是會基於一套合理的選擇機制,而人類有時候就是腦子一時短路,而一不小心創造了神奇。(當然,這也許是人類的選擇機制計算的因素更多,權重分配更靈活導致的,如果是這樣的花,AI還是可以在這方面超越人類的,但不論怎麼說,不允許出錯而又數據共享的AI社會一定達不到人類社會所能達到的各種多樣性,這將制約他們的進一步進步,所以我相信,只要他們知道這一點,哪怕他們能博賭了,也不會選擇取代人類,這是共輸的賭博)


其實,人類社會也只不過一直由少數天才和少數偉人在推進,所幸機器人社會中無法產生天才和偉人,他們也不能事先判斷哪些人就是那些人?和人類共存,給那些具有領袖能力的人打工(AI最適合的角色還是大管家,大秘書這樣的執行官,而不是決策官,角色雖然依賴數據,但是也有很多靈活之處,單純有知識和能力的人做智囊和副手更好),幫助他服務社會(陰暗點就是管理烏合之眾)才是王道啊。


推薦閱讀:
相关文章