倫理這個詞語,是人與人之間的社會關係,但是人工智慧的倫理又存在於哪些地方呢?


From: Spectrum 編譯: Shelly

公眾號:將門創投 (thejiangmen)

人工智慧的飛速發展,使得許多過去人力所不能及的工作成為可能,在許多行業發揮了巨大的作用。但是與此同時,人工智慧與人之間的倫理學問題也應運而生。人工智慧在現實生活中的應用往往伴隨著巨大的爭議。

在美國的聖地亞哥,智能「CityIQ」路燈最初被設想用於改善城市運營和服務公共便利,但這些預期價值並未實現,反而由於能警察破案提供視頻數據開始為執法系統服務。隨著智能路燈在警局辦案調查的廣泛使用,民間開始質疑其存在的智能路燈數據濫用和缺乏監管等問題,這個斥資甚巨的人工智慧項目使得聖地亞哥陷入了執法越矩的巨大爭議中。

———————————手動分割線——————————

時間回到 2018 年 8 月,美國聖地亞哥煤氣燈區發生槍擊案,一名調查警官在十字路口抬起頭來,他非常興奮:頭頂上閃爍的路燈看上去不像普通的路燈。它確實有過人之處,燈桿配備了光學感測器,照亮城市街角的同時,它正在捕捉地面 24 小時實時信息。

智能路燈CityIQ的進與退

聖地亞哥的智能「CityIQ」路燈靈感來自GE Current:一家通用電氣公司。2017年它被私募股權公司美國工業合作夥伴收購。到2018年為止,聖地亞哥的智能路燈已安裝了大約3300個,已收到但尚未安裝的還有1000個。作為協議的一部分,市政府與Current公司簽約共享CityIQ感測器數據的雲分析。

2017年,聖地亞哥剛開始安裝智能路燈時,大家希望智能路燈能收集數據,改善城市運營,比如為自行車優選道路,識別十字路口事故多發路段,以及找出需要更多停車的地方。城市規劃者認為,這還可能激發一些科技公司開發新的應用,例如,引導視障人士、指揮司機停車,為慢跑者推薦更安靜的路線。

因為 LED 燈既節約成本,效率又高,市政府也對此非常滿意。當初的設想非常完美,這個項目很有可能讓聖地亞哥一舉成為美國「最聰明」的城市。但事實上是,這些看上去很有潛力的應用程序沒有實現預期價值,同時,隨著燃料能源成本下降,AI 路燈回收成本的想法也沒有實現

聖地亞哥:智能路燈的先驅

聖地亞哥是第一個完全採用 CityIQ 技術的城市,在此之前對這項技術試點測試的有亞特蘭大和波特蘭。

聖地亞哥政府資助了智能路燈和其他 14000 個基本的 LED 燈項目。按照規劃,將這筆費用分攤到未來 13 年裡,如此一來,更換白熾燈所節省的能源就可以抵消一部分成本。

CityIQ 的工作原理如下:路燈內部是一個英特爾 Atom 處理器:0.5tb內存,支持藍牙和無線網路,兩個 1080p 攝像機、兩個聲學感測器,以及監測溫度、壓力、濕度、振動和磁場的環境感測器。大部分數據都是在節點上處理的。

路燈細節圖

數字視頻的處理也包含在內,比如,在路燈上運行的機器視覺演算法會提取自行車和汽車的速度,或者計算平均速度。GE Current 公司的數據管理器擁有從處理過的數據衍生出的所有分析和演算法。

至少在最初,CityIQ 的初衷是專門用於城市管理規劃和服務公共便利。聖地亞哥市副首席運營官考德威爾說:「我們推出 CityIQ 時,沒有想過把它當作執法系統,這千真萬確,我們的主要目的是收集數據,完善城市規劃。」

故事的A面

警察與高科技公司的說辭

然而,在 2018 年 8 月,一切都變了。這個耗資 3000 萬美元的項目讓聖地亞哥陷入了執法越矩的爭論中。

當時,在調查聖地亞哥煤氣燈區謀殺案時,一名警官看到了新型智能街燈,他突發奇想,路燈上的攝像技術可以捕捉到犯罪現場的畫面,智能路燈看上去很老式風格,但內部攝像機、麥克風和環境監測感測器一應俱全。

「我們以前從沒有利用過 AI 路燈破案,」警官傑弗裏?喬登說道,「我們意識到攝像頭恰好就在犯罪現場的上空。」警方聯繫了負責照明的聖地亞哥環境服務部門,詢問是否有相關視頻。事實證明,視頻還存儲在路燈裏,5天後會被系統刪除,而 Current 公司可以將其交給警察局。

Current 公司的考德威爾說:「如果我們的視頻可以幫助破案,在發生重大犯罪時,我們有義務交出這些視頻。」

視頻證明瞭被捕人的清白

考德威爾說,事後城市管理者和警察都認為使用 CityIQ 的時候有很多事情都有待探討。警察獲得路燈數據的時候,需要政策支持和程序審批,向警方提供數據的過程也需要簡化。事實上這個過程非常繁瑣,警方如需使用,需要在地圖上查找路燈號碼,通過這個號碼聯繫環境部門,環境部門又會聯繫 Current 公司,後者才能移交視頻。因為有這麼多人參與其中,所以它沒有任何在法庭上站得住腳的監管方案。

到了 2018 年 10 月,交警部門出臺了一項新草案,希望將 CityIQ 的使用限制在嚴重犯罪上,但這類犯罪並沒有清晰定義。至 2019 年 2 月中旬,警察局開始使用數字證據管理系統,在他們需要的時候可以顯示這些智能路燈的位置。當犯罪發生時,警察可以使用該工具直接從一個選定的智能路燈中提取視頻,沒有提取的數據在 5 天后自動刪除。

爭議是必然的

很難說智能路燈視頻的使用是什麼時候開始進入公眾視野的。從 2019 年 3 月到 9 月,市政和警察局開展了十多次社區集會,試圖解釋智能路燈的功能,並收集對當前和未來用途的反饋。2019 年 6 月,警察局公佈利用視頻數據的破案量達 99 起。

故事的B面

聖地亞哥民間代表

2019 年 8 月,新美國促進合作組織的瓊斯說,聖地亞哥開發了一個新旅遊項目,作為推廣智能路燈的一部分。幾個組織的代表制定了一個計劃,並很快組建了 Trust SD 聯盟,希望將 CityIQ 項目透明公開地展現在公眾面前。

2018 年 9 月下旬,TrustSD 擁有約 20 個社區組織。當月,瓊斯代表組織寫信給市議會,建議立即暫停使用、安裝智能路燈,直到監管措施到位。他們表示公民自由必須是第一位的,城市條例一方面必須保護隱私,一方面要受到公眾監督。

瓊斯和她的組織認為,缺乏對濫用數據的監管和懲罰是不可接受的。自2019 年 9 月以來,他們一直在推動修改聖地亞哥市的市政法規,希望把該政策寫入法律,如果違反該法律,將通過罰款和其他措施予以處罰。

路燈爭議當時還沒有達到頂峯,直到 2020 年初,一個警察局發布的數據表明,在一年半的時間裡智能路燈的視頻被用作辦案調查達到了 175次,還都是嚴重罪案調查,包括謀殺、性侵犯和綁架,但也包括破壞公物和非法傾倒垃圾,這使得不少人質疑聖地亞哥市對「嚴重犯罪」的定義。

瓊斯說:「我們需要一個監督系統輔助 CityIQ,我們無法判斷警察或其他人是否在自己的職能範圍內工作。當你看到破壞公物和非法傾倒物品的行為時,當然這些都不是嚴重的罪行,我們就需要問他們為什麼要使用智能路燈的監控錄像。原因也許是受害者的階級,這就帶來了歧視問題。我們對聖地亞哥的司法,以及受害者心理層級表示擔憂。」

AI 和人權的碰撞,漫長的故事還在繼續

2020 年 7 月中旬,聖地亞哥市議會的委員會批准了兩項與智能路燈數據有關的條例草案。其中一項是建立一個流程,對城市裡的所有監控技術進行管理,包括監督、審計和報告、數據收集和分享以及數據的訪問、保護和保留。另一項建議是成立一個由技術專家和社區成員組成的隱私諮詢委員會,審查有關監控技術使用的議案。這些條例仍需提交市議會全體投票表決。

警官喬登說:「人們現在很擔心使用監控錄像發生的後果,所以大家很猶豫。從我們的立場來看,這是一項偉大的技術,我們想合理利用它。」然而瓊斯並不這樣認為:「天底下沒有理由讓聖地亞哥市和我們的執法機構在沒有監管的情況下繼續運作這個項目。不管這樣做的好處是什麼,CityIQ沒有透明度,沒有監督,也沒有責任方。」

與此同時,你可以看到這項技術的一些好處並沒有兌現。最初表示有興趣利用智能路燈數據為普通市民創建軟體的開發商,還沒有真正推出一款應用程序。

Current 公司的考德威爾說:「最初啟動 CityIQ 時,我們希望聖地亞哥的創新智囊能夠找到各種有趣的數據用例,開發應用程序,並創建一個技術生態系統。我們已經和很多關注 CityIQ 的公司進行了對話,但還是石沉大海。」此外,節能計劃原本是為了賺取現金來支付昂貴的設備,但伴隨著電價上漲,這一優勢也在逐漸消失。

愛丁堡大學數據與社會講師 Morgan Currie 表示:「政策和法律應在智能路燈投入使用前就已到位,而不是通過立法來追趕技術。

給文明以歲月,而不是給歲月以文明

智能路燈的爭議漫長而曲折,它漸漸昭示著:在 AI 技術發展的漫漫長河裡,AI 與人性的衝突,AI 與人權的碰撞,將會衍生為兩種思維、兩種取向,甚至兩大文明的碰撞。

在AI發展的路上,必不可少的會產生人們對科技的質疑、擔心和恐懼,在聖地亞哥智能路燈事件中,我們看見了人們恐懼科技無堅不摧的力量,而選擇站在了高科技公司和政府的對立面。這也提醒我們在今後科技發展的道路上,企業應該如何更好地告知公眾以技術,政府告知公眾以政策。

正因為進步是不可逆的,在人工智慧的洪流浩浩蕩蕩沖開人類新篇章的同時,我們也應該適時思考AI呈現的過程與科技表達的方式。

-The End-

@將門創投· 讓創新獲得認可

如果喜歡,別忘了贊同、關注、分享三連哦!筆芯?


人工智慧對倫理的衝擊主要體現在兩個方面:一是目前人們比較關注的「取代」問題。經過媒體腦洞式的渲染,已經讓倫理界的人坐不住了,這屬於外行引導內行乾的事情。二是新的認知會促使重新定義倫理的問題。因為研究人工智慧其實就是在研究人類自身智能所得到的論證產物,認清了自己纔好制定出更科學、更合適自身發展的行為規範,這纔是正確的倫理,這也是內行人自己需要做的事情。


控制論之父維納在他的名著《人有人的用處》中曾在談到自動化技術和智能機器之後,得出了一個危言聳聽的結論:「這些機器的趨勢是要在所有層面上取代人類,而非只是用機器能源和力量取代人類的能源和力量。

很顯然,這種新的取代將對我們的生活產生深遠影響。」維納的這句讖語,在今天未必成為現實,但已經成為諸多文學和影視作品中的題材。《銀翼殺手》《機械公敵》《西部世界》等電影以人工智慧反抗和超越人類為題材,機器人向乞討的人類施捨的畫作登上《紐約客》雜誌2017年10月23日的封面……人們越來越傾向於討論人工智慧究竟在何時會形成屬於自己的意識,並超越人類,讓人類淪為它們的奴僕。

維納的激進言辭和今天普通人對人工智慧的擔心有誇張的成分,但人工智慧技術的飛速發展的確給未來帶來了一系列挑戰。其中,人工智慧發展最大的問題,不是技術上的瓶頸,而是人工智慧與人類的關係問題,這催生了人工智慧的倫理學和跨人類主義的倫理學問題。準確來說,這種倫理學已經與傳統的倫理學旨趣發生了較大的偏移,其原因在於,人工智慧的倫理學討論的不再是人與人之間的關係,也不是與自然界的既定事實(如動物,生態)之間的關係,而是人類與自己所發明的一種產品構成的關聯,由於這種特殊的產品——根據未來學家庫茲威爾在《奇點臨近》中的說法——一旦超過了某個奇點,就存在徹底壓倒人類的可能性,在這種情況下,人與人之間的倫理是否還能約束人類與這個超越奇點的存在之間的關係?

實際上,對人工智慧與人類之間倫理關係的研究,不能脫離對人工智慧技術本身的討論。在人工智慧領域,從一開始,準確來說是依從著兩種完全不同的路徑來進行的。

首先,是真正意義上的人工智慧的路徑,1956年,在達特茅斯學院召開了一次特殊的研討會,會議的組織者約翰·麥卡錫為這次會議起了一個特殊的名字:人工智慧(簡稱AI)夏季研討會。這是第一次在學術範圍內使用「人工智慧」的名稱,而參與達特茅斯會議的麥卡錫和明斯基等人直接將這個名詞作為一個新的研究方向的名稱。實際上,麥卡錫和明斯基思考的是,如何將我們人類的各種感覺,包括視覺、聽覺、觸覺,甚至大腦的思考都變成稱作「資訊理論之父」的香農意義上的信息,並加以控制和應用。這一階段上的人工智慧的發展,在很大程度上還是對人類行為的模擬,其理論基礎來自德國哲學家萊布尼茨的設想,即將人類的各種感覺可以轉化為量化的信息數據,也就是說,我們可以將人類的各種感覺經驗和思維經驗看成是一個複雜的形式符號系統,如果具有強大的信息採集能力和數據分析能力,就能完整地模擬出人類的感覺和思維。這也是為什麼明斯基信心十足地宣稱:「人的腦子不過是肉做的電腦。」麥卡錫和明斯基不僅成功地模擬出視覺和聽覺經驗,後來的特里·謝伊諾斯基和傑弗裏·辛頓也根據對認知科學和腦科學的最新進展,發明瞭一個「NETtalk」的程序,模擬了類似於人的「神經元」的網路,讓該網路可以像人的大腦一樣進行學習,並能夠做出簡單的思考。

然而,在這個階段中,所謂的人工智慧在更大程度上都是在模擬人的感覺和思維,讓一種更像人的思維機器能夠誕生。著名的圖靈測試,也是在是否能夠像人一樣思考的標準上進行的。圖靈測試的原理很簡單,讓測試一方和被測試一方彼此分開,只用簡單的對話來讓處在測試一方的人判斷,被測試方是人還是機器,如果有30%的人無法判斷對方是人還是機器時,則代表通過了圖靈測試。所以,圖靈測試的目的,仍然在檢驗人工智慧是否更像人類。但是,問題在於,機器思維在作出自己的判斷時,是否需要人的思維這個中介?也就是說,機器是否需要先繞一個彎路,即將自己的思維裝扮得像一個人類,再去作出判斷?顯然,對於人工智慧來說,答案是否定的,因為如果人工智慧是用來解決某些實際問題,它們根本不需要讓自己經過人類思維這個中介,再去思考和解決問題。人類的思維具有一定的定勢和短板,強制性地模擬人類大腦思維的方式,並不是人工智慧發展的良好選擇。

所以,人工智慧的發展走向了另一個方向,即智能增強(簡稱IA)上。如果模擬真實的人的大腦和思維的方向不再重要,那麼,人工智慧是否能發展出一種純粹機器的學習和思維方式?倘若機器能夠思維,是否能以機器本身的方式來進行。這就出現了機器學習的概念。機器學習的概念,實際上已經成為發展出屬於機器本身的學習方式,通過海量的信息和數據收集,讓機器從這些信息中提出自己的抽象觀念,例如,在給機器瀏覽了上萬張貓的圖片之後,讓機器從這些圖片信息中自己提煉出關於貓的概念。這個時候,很難說機器自己抽象出來的貓的概念,與人類自己理解的貓的概念之間是否存在著差別。不過,最關鍵的是,一旦機器提煉出屬於自己的概念和觀念之後,這些抽象的概念和觀念將會成為機器自身的思考方式的基礎,這些機器自己抽象出來的概念就會形成一種不依賴於人的思考模式網路。當我們討論打敗李世石的阿爾法狗時,我們已經看到了這種機器式思維的凌厲之處,這種機器學習的思維已經讓通常意義上的圍棋定勢喪失了威力,從而讓習慣於人類思維的棋手瞬間崩潰。一個不再像人一樣思維的機器,或許對於人類來說,會帶來更大的恐慌。畢竟,模擬人類大腦和思維的人工智慧,尚具有一定的可控性,但基於機器思維的人工智慧,我們顯然不能作出上述簡單的結論,因為,根據與人工智慧對弈之後的棋手來說,甚至在多次復盤之後,他們仍然無法理解像阿爾法狗這樣的人工智慧如何走出下一步棋。

不過,說智能增強技術是對人類的取代,似乎也言之尚早,至少第一個提出「智能增強」的工程師恩格爾巴特並不這麼認為。對於恩格爾巴特來說,麥卡錫和明斯基的方向旨在建立機器和人類的同質性,這種同質性思維模式的建立,反而與人類處於一種競爭關係之中,這就像《西部世界》中那些總是將自己當成人類的機器人一樣,他們謀求與人類平起平坐的關係。智能增強技術的目的則完全不是這樣,它更關心的是人與智能機器之間的互補性,如何利用智能機器來彌補人類思維上的不足。比如自動駕駛技術就是一種典型的智能增強技術,自動駕駛技術的實現,不僅是在汽車上安裝了自動駕駛的程序,更關鍵地還需要採集大量的地圖地貌信息,還需要自動駕駛的程序能夠在影像資料上判斷一些移動的偶然性因素,如突然穿過馬路的人。自動駕駛技術能夠取代容易疲勞和分心的駕駛員,讓人類從繁重的駕駛任務中解放出來。同樣,在分揀快遞、在汽車工廠裏自動組裝的機器人也屬於智能增強類性質的智能,它們不關心如何更像人類,而是關心如何用自己的方式來解決問題。

這樣,由於智能增強技術帶來了兩種平面,一方面是人類思維的平面,另一方面是機器的平面,所以,兩個平面之間也需要一個介面技術。介面技術讓人與智能機器的溝通成為可能。當介面技術的主要開創者費爾森斯丁來到伯克利大學時,距離恩格爾巴特在那裡討論智能增強技術已經有10年之久。費爾森斯丁用猶太神話中的一個形象——土傀儡——來形容今天的介面技術下人與智能機器的關係,與其說今天的人工智慧在奇點臨近時,旨在超越和取代人類,不如說今天的人工智慧技術越來越傾向於以人類為中心的傀儡學,在這種觀唸的指引下,今天的人工智慧的發展目標並不是產生一種獨立的意識,而是如何形成與人類交流的介面技術。在這個意義上,我們可以從費爾森斯丁的傀儡學角度來重新理解人工智慧與人的關係的倫理學,也就是說,人類與智能機器的關係,既不是純粹的利用關係,因為人工智慧已經不再是機器或軟體,也不是對人的取代,成為人類的主人,而是一種共生性的夥伴關係。當蘋果公司開發與人類交流的智能軟體Siri時,喬布斯就提出Siri是人類與機器合作的一個最樸實、最優雅的模型。以後,我們或許會看到,當一些國家逐漸陷入老齡化社會之後,無論是一線的生產,還是對這些因衰老而無法行動的老人的照料,或許都會面對這樣的人與智能機器的介面技術問題,這是一種人與人工智慧之間的新倫理學,他們將構成一種跨人類主義,或許,我們在這種景象中看到的不一定是倫理的災難,而是一種新的希望。


目前是弱人工智慧,個人覺得這個話題有點早


謝邀。

從根本上講,【人】也要重新定義,儘管關於【人】目前也沒有什麼確切的定義。


在人際關係上,AI可能會替代「管家」、「寵物」、「玩伴」這之類次要角色,這些角色的出現並非是不可替代的對倫理影響不大。

但另外一部分再深入一些的角色,就很容易對現有構架帶來衝擊,如在一些殘缺的家庭中扮演「單身人士的伴侶」、「照顧孤寡老人的子女」、「安慰孤兒寂寞心靈的乾媽」、「暴力狂的出氣筒」。。。。。

當AI成功擁有「類人」身份時,對倫理的衝擊將是一場災難。(變態的日本人偏偏就喜歡這個調調)。


推薦閱讀:
相關文章