原文:為何AI也學會了種族和性別歧視?

歡迎關注「創事記」的微信訂閱號:sinachuangshiji

文/腦極體

關於AI歧視我們也聊了很多,比如相貌偏見、語言歧視等,但AI的歧視顯然不僅只在這一個淺顯的領域。在其相貌和語言歧視的背後,矗立的其實是AI對這個社會全方位的片面判斷。

那麼,AI的歧視問題也就不是一個簡單的演算法問題了。今天我們就再聊一聊AI的偏見問題,以及面對它,我們究竟能做些什麼。

始作俑者的人類本身:AI歧視產生的根源

看看下面這幾個例子,你好會覺得上面的論述正確嘛:

從2014年開始,美國最大的電商品牌亞馬遜(http://Amazon.com)在進行員工錄取時就已經開始用人工智慧演算法對候選人的簡歷進行初步篩選了。然而,去年路透社的一篇文章中,曝光了亞馬遜在2014年-2015年期間使用的簡歷篩選技術更加傾向男性。原因其實很簡單,因為工程師在對該演算法進行訓練時,用的是之前亞馬遜已經被錄用員工的簡歷進行訓練的。然而,這樣的演算法卻使得亞馬遜的簡歷篩選演算法更加傾向男員工。

無論之前亞馬遜的男員工佔比有多大,男女申請者在申請一個新的亞馬遜崗位時幾率應當是一樣的(拋開社會因素,只考慮演算法的篩選機制的話);我們不知道當時訓練這個演算法的工程師們是無心之舉還是有意為之;然而,這項AI技術造成的結果卻是確確實實對女性非常不利的。

而在今年1月份一篇MIT Tech Review的文章中,指出了美國警方在應用人工智慧識別罪犯時存在的嚴重的歧視現象。文章指出,美國警察在執法過程中對於女性、少數族裔(尤其是黑人群體)、LBGT等群體存在著嚴重的不履職。簡單說,上面這些人群的訴求美國警方基本上是能不管就不管。更可怕的是,美國警方還與AI團隊合作,發明了一項「預測罪犯「的技術。

結果想必你也猜到了:因為訓練演算法的數據主要為黑人等少數族裔,這項技術更容易給黑人貼上「潛在罪犯「的標籤。

儘管上面的兩個案例都發生在美國,但在AI席捲全球的背景下,沒有理由不相信這些不公平會發生在每個國家、每個社會、每個人的身上。看完上面這些例子,你還會覺得AI只應該是少數人的「遊戲「嗎?

那麼,上述這樣的問題該如何得到解決呢?

目前,在發達國家,主流解決上述問題的辦法主要有一個:那就是有意識地在AI領域增加更多的女性、更多的少數族裔,來提高AI領域工作人員的多樣性(diversity)。然而,這個辦法至少在目前來看還是收效甚微,治標不治本。舉個例子:即便女性在AI領域的所佔比例增大了,隨之而來還是會有諸如女性在人工智慧相關公司很少做到高層管理者、AI領域男女薪資不平等新的問題。因為真正掌握AI核心技術與要領的女性很少,即便刨除性別歧視因素,女性也難與男性進行競爭。

因此,說到底,想要真正地讓AI更加平等、不帶偏見地去服務我們的社會,應當在AI的教育層面增加多樣性,讓更多社會群體去加入到AI學習當中。其實我們身邊就常常會有這樣的例子:一些家長會覺得像編程、AI這類的技能更適合男孩子學,所以不會去主動引導女孩兒學習相關的方向;明明有些女生是對這個領域很感興趣的,去受限於社會偏見,或者說受到這些偏見影響後學習的信心受到了影響,最終沒有鼓起勇氣去追求自己的興趣愛好。

還有一些學生,可能自己正在學的或者更擅長的領域不是計算機、編程相關的方向,當他們想去接觸AI、學習AI的時候,卻忌憚於來自周圍的質疑與嘲笑,選擇了放棄。「你一個學藝術也能學會編程?「;「文科生也想搞AI?「...也許,你並不想用自己的微薄之力去打破周遭的固有偏見,但你不知道的是,真正能夠將AI效力發揮到最大的人,偏偏是那些非計算機專業的人,因為他們的思維沒有被代碼局限,而是能夠將AI與自己所學的專業方向牢牢結合,使之迸發出巨大的力量。

不管你是男生還是女生,不管你現在在學怎樣的專業,不管你是想抓住時代的風口,還只是覺得AI是個很酷的技能,如果你想學AI,就大膽地去學吧!

以上~


集思學院以下機器學習的相關課程正在學員招募中

普林斯頓大學導師:機器學習在計算機網路中的應用 - 集思學院 GEC Academy?

www.gecacademy.cn圖標麻省理工學院MIT導師:機器學習在金融領域的應用 - 集思學院 GEC Academy?

www.gecacademy.cn圖標

報名 了解更多課程詳情,可以微信添加我們的課程顧問老師

「集思瀟瀟(ID:jisixueyuan2018)」進行諮詢哦~

以上~比心!

編輯於 2019-05-26繼續瀏覽內容知乎發現更大的世界打開Chrome繼續wanerwaner鉿?這都不行?

我們談論AI,大多數時候談論的就是機器學習,演算法+算力+大量數據,通過數據尋找模式,如果數據中本身就有某種社會性的歧視呢?比如,黑人就是會更容易在警局留下案底,如果用這樣的數據去訓練機器學習演算法,極有可能系統性地將社會偏見包含到系統中去。


我們談論AI,大多數時候談論的就是機器學習,演算法+算力+大量數據,通過數據尋找模式,如果數據中本身就有某種社會性的歧視呢?比如,黑人就是會更容易在警局留下案底,如果用這樣的數據去訓練機器學習演算法,極有可能系統性地將社會偏見包含到系統中去。


首先,謝邀

AI,本質上就是讓機器或者說是程序來儘力模仿人的思維方式,他的思維和行為規定在一定範圍內,而且這個範圍隨著科技的增長不斷擴大。

既然是人給機器規定的範圍,重點不是在機器,而是在人,如果一個人給機器規定對某一類人持某種態度,那麼機器會照做,自然種族歧視也就有形成的條件了

所以機器不會自主的有種族歧視,但是人類會有


不人工干預就會


不會有種族的岐視


人為什麼會有種族歧視和性別歧視,原因在於持有種族歧視和性別歧視的心態以及言行的人類,總是有一種自大的優越感。顯然,這是極其盲目的結果與表現。


推薦閱讀:
相关文章