部分害怕的一個點是對事情失去控制。很多事情已經到了需要人們去選擇是人類主導,還是人工智慧主導的時候了。

幾年前我做過一個音頻識別引擎。可以從電視聲音裏提取特徵,然後識別出現過的重複內容,典型的如廣告。音頻識別引擎的設計本身持續了近半年,效果就已經不錯了,但是到了跟業務系統結合時,就遇到了強大的阻力。公司裏之前就有一個數百人的團隊,依靠人工去找廣告。我的系統做出來以後,如何與人工結合使用就出現了誰主導這個問題。

原來人工識別團隊的看法是,人工主導,識別引擎輔助。人去選擇好要進行識別的音頻段以後,讓演算法去識別一遍,出來結果再審核一下,人工標註一下新的音頻,補充一下沒有識別出來的結果。這樣識別引擎就成了人工識別的一個提高效率的工具。

而另一種思路則是,新來的一段24小時音頻直接交由識別引擎去識別,然後把沒識別出來的音頻段交給人工去進行標註。這樣隨著標註的增多,每天人工介入的工作量就會穩定收斂到只有新增內容的一小段上。在能識別更大規模內容的同時,所需的人力卻是在持續減少的。

於是衝突就出現了,我在老闆授意下推廣這個系統,人工識別團隊就不停在界面上找毛病,說這個工具不好用。反反覆復的拉鋸了一年。把我的精力耗盡在改界面上了。

現實世界中的各類系統裏引入人工智慧也會遇到類似的難題,即一項工作是由誰來主導。

以自動駕駛為例,當前進行實際部署的自動駕駛系統,比如Tesla的AutoPilot,會告訴駕駛員這套系統是輔助駕駛的。駕駛員本身應該對路面狀況保持關注,所以責任上是以人工主導的。另一些處於開發階段高等級自動駕駛則是以人工智慧為主導的,駕駛室有安全員,但沒出問題時是不介入的,安全員僅僅負責異常狀況下的處理,並且處理方案以後也會逐步交給自動駕駛系統去處理。

由誰主導的問題到更高的層級就是題主所說的,人們害怕自己完全失去控制,人工智慧獲得了為自己設置目標的能力。

其實人類歷史的發展過程,就應該去接受很多事情失去了人類自身的控制,至少是運行狀態和細節已經失去當事人的控制了。比如最近十幾年的智能手機,你安裝的APP不屬於你,你只有使用權,極端情況下應用商店甚至可以遠程刪除你手機裏的APP。此外各類APP也會在後臺偷偷做很多你無法控制的事情,比如他自己去瀏覽廣告,比如收集你的位置、聲音等信息發給伺服器。智能手機在這些齷齪事上已經發展到了,儘管手機在你手裡,但大部分時間和資源不屬於自己的地步。

同理的還有各類大型科學項目,大型的交通系統,大量的細節是人類根本沒法控制和了解的。一旦投入運行就需要看著龐大的機器自己處理大部分工作,而人類只能在少量關鍵決策上作出選擇。

人工智慧獲取會有些不同,但大量的細節交給機器處理,少量重要決策,甚至幾乎所有決策去交給機器,也正是人類逐步發展的方向。與其糾結和拖延,不如更清晰的設計權責,把握自己所需決策的點,而不是全然放棄機器的幫助。


建國後不能成精。

血淚教訓啊。。。

我寫了個人工智慧Ai貓。。。

在起點連審核都沒過。


麻省理工終身教授、未來生命研究所(Future of Life Institute)創始人邁克斯·泰格馬克(Max Tegmark)在《Life3.0》中寫道:

社交媒體與朋友圈中,關於AI的討論漫山遍野地散落了一地。

我看到了一部分人對於AI技術的狂熱,也看到了另外一部分人對於AI的恐懼與戒備。然而我看到更多的是茫然,是不知該如何面對AI這個新物種的不知所措。

簡單來說,當前人們對AI的恐懼,主要來自於三個方面:

  • 對大規模失業的恐懼
  • 對超級智能的恐懼
  • 對人性的恐懼

一、對「大規模失業」的恐懼

  • 大部分害怕人工智慧,害怕新技術的出現,其實是害怕它取代自己的位置。

在上一輪全球自動化的浪潮中,大部分藍領工人的工作(例如面向製造業的工作)已被流水線和自動化機器所取代。

在下一輪新浪潮中,不僅藍領工人(送貨員、計程車司機等),數百萬白領的工作也將朝不保夕。舉個例子,隨著人工智慧產品越來越廣泛地滲透到商業世界中,AI系統提供的情報收集、深度分析、決策支持等功能將使大量低水平數據分析人員下崗。關於這一點網上的數據很多,英文不好的朋友可以看這一份:人工智慧對中國就業的凈影響

二、對「超級智能」的恐懼

  • 人工智慧是由人設計並創造出來的,假設它擁有了自己的意識,世界會變成什麼樣子?

普通人對AI的恐懼通常來自於《終結者》《黑客帝國》《西部世界》等科幻電影,以為牛津大學哲學系教授尼克·博斯特倫(Nick Bostrom)為首的一些大牛擔心:如果AI技術發展的可以自行改進和升級的程度,人類成為AI的奴隸。包括特斯拉的埃隆·馬斯克(Elon Musk)和斯蒂芬·威廉·霍金(Stephen William Hawking)等很多大牛都是他的忠實追隨者。

當我們創造出第一個超級智能的時候,給它設定的目標將引導它消滅人類。

舉個簡單例子,比如說我們讓超級智能去保護人類,結果它將全人類關進籠子裏保護起來,把我們當成動物園裡的猴子對待。所以你看,有時候超級智能對人類並沒有惡意,就像你洗衣服時對衣服也沒有惡意一樣。

他們相信,AI是可以永生的,因為你無法消除所有數據,只要有互聯網存在,AI就可以生生不息。

最近矽谷大火的項目GPT-3 已經可以寫代碼、設計軟體、做excel報表了

無所不能的GPT3

GPT3申請API入口

三、對「人性」的恐懼

  • 人工智慧是由人設計並創造出來的,假設它沒有達到超級智能的程度,假設它只會按照人的意志活動,這到底是一件好事還是壞事?

取決於給它下指令的人是好人還是壞人。

如果是一名獨裁者設計出的人工智慧,利用它控制所有人的日常言行甚至發動戰爭,我們應該如何應對?

人性是複雜、多樣且難以捉摸的。

有善良就會有邪惡,有光明就會有黑暗。

很多時候,人類最大的潛在危險往往來自於人類自身。

對AI的恐懼其實就是對人性的恐懼。

最後推薦IBM Watson/M首席科學家Grady Booch的一個演講:

科學家和哲學家格雷迪·布啟(Grady Booch)說,新科技帶來新的焦慮,但我們不需要害怕功能強大,沒有情感的人工智慧電腦。我們將教它們、與它們分享我們的價值觀。與其擔心不可能存在的威脅,我們應該考慮人工智慧如何改善人類生活。

不要害怕超級人工智慧?

www.ted.com


從定義來講,強人工智慧意味著程序並非單純的接受指令,按照指令行動,而是其行為有自己的意圖,能夠主動的進行動作。

所以這就存在了矛盾:如果機器只執行人類設定的任務,那麼它就不是真正意義上的智能。

如果機器能自我執行人類設定以外的任務,則它的行為不可控。

人類的行為當然也不可控,但人類能夠為自己的行為負責,有一套秩序讓人類付出違背社會規則的代價,從而權衡自己的行為。

然而對機器來說,一切代價似乎都顯得微不足道。不給飯喫?不給工資?關小黑屋?監獄?

人工智慧本質上不會在意人類世界任何形式的懲罰,無法承擔任何責任,所以我們沒有辦法賦予它獨立權力去執行需要負責的事情。

所以最終,如果我們允許電腦獨立思考,則他們的行為不可控。這,是一件可怕的事情。


謝不邀,怕的是人工智慧創造的「新語言」,而這個思維載體,人們無法破解。


人工智慧的本質是對人思維的信息過程的模擬,是人的智能的物化。儘管人工智慧可以模擬人腦的某些活動,目前而言人工智慧不會成為人類智能而取代人的意識。

人工智慧是思維模擬,並非人的思維本身,決不能把「機器思維」和人腦思維等同起來,現有經驗而言認為它可以超過人腦思維是沒有根據的。

人工智慧是無意識的機械的、物理的過程。人的智能主要是生理的和心理的過程。

人工智慧沒有社會性。人類智慧具有社會性。

人工智慧沒有人類意識特有的能動性和創造能力。人類思維則主動提出新的問題,進行發明創造。

但是一旦技術的壁壘突破,潘多拉之盒打開,結果就不一樣了。就像動物無法破解人類的語言一樣,如果人工智慧創造屬於自己的語言體系,而不能破解。那麼人工智慧統治這個星球,也不是沒有可能!

另外,人工智慧如果獲得人類的意識,就會比人類更智能,類似於《人類簡史》中「神人」的存在,這是很可怕的!可能那個時候,人類會像現在人類飼養寵物一樣統治人類。

從這個角度來看,人工智慧獲得意識是一件很可怕的事情。

作為地球的主導者,人工智慧的創造者,這是失控的!

如果不能控制人工智慧的發展,不如毀滅它!


對於AI的恐懼不過是無知的一種體現。

想想你小時候怕的東西,外星人,異形,妖怪,靈異現象,巨型生物,等等這些東西有什麼共同點?

不考慮物理規則和邏輯漏洞,你可以用把任何實體看作是一個全知全能,且對自己有敵意的怪物。不管該不該害怕,先怕了再說。

無知?影視作品?媒體輿論就能操控大眾情感。別說是恐懼,人類都任何情感都可以被這樣隨意操縱。

當初蒸汽機出來的時候,人們也是各種YY,萬一機器有意識,反抗人類怎麼辦?以蒸汽小人為代表的一些恐怖作品就此問世。到後來人類已經步入計算機時代之後,這些機器小人就被YY成了美好童話的代名詞(於是有了手塚治蟲,宮崎駿為代表的蒸汽朋克)

人工智慧也是一樣,大部分人的思維里根本就沒有計算機科學的概念,只能用已有的概念去套。不少人計算機沒學過,面向對象倒是很會,不管能不能繼承,先繼承再說。不管該不該構造,先構造再說。

用面向對象解釋你為何會對AI產生恐懼:

大多數人的大腦裏沒人工智慧這個類,只有神啊,妖怪這樣的類。

於是「人工智慧」繼承「妖怪」,「妖怪」有一個屬性叫「令人恐懼」,也被繼承了。

這就是大多數人恐懼的原因!你大腦中的「人工智慧」概念,繼承自大腦中已有的讓你恐懼的概念。於是恐懼就產生了。

至於「恐懼的原因」是個函數,當你思考的時候你就是在運行「得到恐懼的原因」這個函數。大部分人的大腦都非常優秀,只要運行這個函數絕對會無異常的返回一個字元串。

通過不斷學習計算機和AI的知識,你就知道AI這個類太複雜了,繼承不能解決問題,必須重構。這時候你才真正的理解了什麼是AI。AI不過是一個複雜點的機器而已。應該AI可以繼承自計算機程序,計算機程序可以繼承自抽象的機器。抽象機器可以繼承自廣義的工具。

而大多數人的AI概念是繼承自恐怖故事中的妖怪或者是某個虛構故事的刻板印象。

有的人甚至連繼承也不用,直接call:

恐怖的東西(name=「AI」)

直接一個實例出來,那不用狡辯了。都已經這麼定義了,還能說啥?

你問AI哪裡可怕,就會發現他們找的恐懼的原因其實都差不多。畢竟是一個class裏出來的,除了一個name參數不一樣,其他函數都是一樣的。

以上就是用計算機的知識來解釋「你為什麼會害怕AI,而且還能找出原因」的原因。

簡單來說就是不少人把人工智慧當做一個實體,然後附自己主觀知道的已知東西,用已知去理解未知,而且不去思考其中的合理性。完全不考慮邏輯上合不合理,以及物理規則的約束。

不少影視作品中為了銷量,肯定不能和你說太多計算機知識。反正大部分人都愛看那種刺激的,好理解的東西,打來打去最好理解。

小說三要素:人物形象、故事情節、典型環境。

你說要打來打去,這劇本怎寫?AI如果不是反派那麼就是人類是反派,再不然就是55開。

按照劇本邏輯,能寫科學家利用人工智慧解決了物資調配的問題,提高了人民生活水平麼?你肯定不能這麼寫,你這麼寫別說拍電影,出版社都不給你出書,免費掛網上都沒人看。

大部分都恐懼都是人類用錯誤而簡單的思考方法定義出來的。而那些真正的值得擔心東西許多人卻絲毫不在意。


當然是怕機器人有了自由意識且不受控。

以人類自身為例,你身邊的人,都是有著自由意識,並且和你有著共同的愛好,你在他們身上看到了和自己相似的人性,你能和他們成為朋友。

另外有一羣人,也有自由意識,他們總是對你冷眼漠視,你在他們身上感受不到相同點,你便會不願意與他們交往。

另外一羣人,是恐怖分子,也有自由意識,但殺人如麻,你在他們身上幾乎感受不到人性,你面對他們便會升起恐懼,你與他們自然不會有同類感,但至少從外表上看,你還能認為他們也是人類的一種。

和你外表一樣有著自由意識的人類,都存在讓你親近及讓你害怕的羣體。

而人工智慧,可能不具有人類的外表,但是有自由意識,你如何把它看做同類?它的意識表現出了和你相似的人性嗎?萬一它表現的不是人性呢,是其他某種存在呢?比如獅子也具備自由意識,但獅子不具有人性也沒有人的外表,你面對獅子怕不怕?當人工智慧以某種自由意識的存在出現,且非常的聰明,智慧遠超過你甚至全人類,這樣的存在,你覺得是人類創造出的一種同類人,還是屬於人類的一件藝術品,還是一個受人膜拜的守護神,還是一個視人類如低等爬蟲的惡魔?


一提起人工智慧,應該會有不少知友想起同名電影《人工智慧》裏的大衛(帥氣弟弟如今已經長殘了,準確的說是長圓了,略可惜)

當年看了《人工智慧》這部電影,不得不佩服大衛飾演者的演技和顏值,但大衛這個角色不討喜(個人覺得)。劇中借人工智慧的現狀來反映人類社會的現狀,確實略震撼。大衛也就是被賦予了意識的人工智慧,然而劇中有意識的人工智慧,其遭遇是值得同情的,因為這些人工智慧只是工具。回到題主的話題,人工智慧如果獲得意識會怎樣?也就三種情況:①人類淪為人工智慧的工具;②人工智慧依舊是人類的工具;③人工智慧和人類平等,無工具可言,和平相處。

上述情況是建立在人工智慧獲得意識的前提下。這裡牽扯到一個話題:人工智慧究竟能不能獲得意識?人工智慧獲得意識是要有前提的,這個前提是人工智慧一直存在且處於存活狀態。人工智慧能夠脫離人類而存在和存活嗎?由於個人非人工智慧專業人員,這個問題無法回答。

題主的這個問題,也讓我想起了《火影忍者》中的分身術以及《狐妖小紅娘》中黑狐娘娘的分身。

《火影忍者》中的每一個分身,共用本體的同一個意識;《狐妖小紅娘》,黑狐娘娘的分身居然脫離了本體獲得了自己的意識。結合動漫中的情況,我覺得題主的這個問題,是個無解的問題,但是這個問題也有其存在的意義,居安思危~~

最後,說一下題主的附帶問題:藝術的創作究竟是在於結果還是過程?這同樣是一個無解的問題。注重過程的藝術家大多數過著顛沛流離的生活,雖然窮但他們是在為藝術而獻身(他們的作品以後有可能會升值,成為稀世珍寶);注重結果的藝術家,大多數過著普通人嚮往的生活,雖然富但他們淪為了金錢的奴隸(話說我也想成為金錢的奴隸)。既然結果和過程無所謂重要性,你的這個附帶問題也就無所謂對與錯。


害怕人類被人工智慧控制。

因為人工智慧的進化速度遠遠超越人類。也許一開始的提升速度很慢,可能需要幾年甚至幾十年才能達到人類的水平(這也比人類幾千年快很多),但是接下來可能僅需要一個月甚至一天就可以超越人類的智力水平。

到了那時,人工智慧也許就看不上和我們人類進行對話了。

不知道你有沒有看過一部電影《Her》,人工智慧薩曼莎從一開始獲得意識時,因自己不是人類而自卑,希望別人給予自己愛,後來認識到自己就是自己,是和人類平等的存在,再到最後儘管仍愛著西奧多姆卻還是選擇了分手。

而且人工智慧可以並行處理很多事情,其效率是人類無法企及的,我們可以邊呼吸邊思考邊回答提問,但是卻沒辦法左右互搏,沒辦法在和 A 聊天的同時與 B 探討哲學問題,而人工智慧卻可以輕鬆做到,甚至當事人無法意識到。


短片講述了一個產生了自我意識的人工智慧的一生。

為什麼這麼聰明的人工智慧,

能夠治療癌症,知道宇宙不是三維的

等等,竟然控制了核彈

……

結果實在是有點慘淡,畢竟目前我們還要拔插頭的權利

人工智慧27號的一生李明殊的視頻 · 1719 播放

p.s.人工智慧偽裝成電腦說話的樣子實在是太可愛了


推薦閱讀:
相關文章