本週的技術前沿洞察又如期和大家見面啦!

從來源來說,本週硅谷洞察(原”硅谷密探“)的技術前沿精選呈現出一個很明顯的特點:絕大多數都來自美國的頂尖高校,比如麻省理工學院、普林斯頓大學等。這些學校常年排名頂尖,除了畢業生在各行各業表現出色,和這些碩果累累的科研成果也有很大的關係。

現在我們就來看看,都有哪些最新發現?他們對我們的生活,又會帶來哪些可能的改變?

北美高校

識別患者的病毒感染或診斷血液疾病通常需要實驗室和熟練的技術人員。但普林斯頓大學的研究人員近期開發出一種新技術,希望用一根微芯片來取代複雜的實驗室。這項研究意味着使用手持設備進行醫療診斷又向前邁出了重要一步。

(圖片來自普林斯頓大學官網,版權屬於原作者)

普林斯頓大學研究人員已經採用類似於個人計算機和移動電話中的硅芯片技術來充當生物傳感器,從而替代實驗室裏複雜和龐大的光學儀器。“關鍵的想法是允許在現代芯片中使用複雜的光學系統”,電氣工程系助理教授和項目負責人之一 Kaushik Sengupta 表示。

這個新的檢測傳感器系統幾乎與一粒鹽一樣小,製造成本遠低於現有的診斷系統。普林斯頓大學透露,雖然需要做更多的工作,但研究人員希望這項技術能夠成爲藥丸中包含的診斷系統或部署在智能手機上的診斷系統。尤其是降低成本後,也能適用於發展中國家。

白血病治療通常會使女孩不能生育,但密歇根大學的研究人員在老鼠身上實驗開發的程序是恢復她們生育能力的第一步。

(原始的未成熟卵巢卵泡中有卵母細胞,可成熟爲受精卵)

卵巢卵泡是攜帶卵子並支持它們生長並變得可行的“巢穴”。 研究證明,通過在模仿卵巢環境的3D支架中用脂肪來源的成體幹細胞包圍卵泡,可顯著提高卵泡發育成熟卵的速度。

“一旦患者擺脫癌症並想要親生孩子,我們希望能採用她們的卵巢卵泡在體外培養併爲這些年輕的健康女性獲得健康的卵子,”密歇根大學生物醫學工程副教授 Ariella Shikanov 說。

她所描述的方法,將卵泡存活率從不到 5% 巨幅增加到 42% 到 86% 之間。該研究最近發表在幹細胞研究與治療雜誌上。雖然使用這種方法還有很長的路要走,但它將爲許多人提供希望。

研究原文在此:

https://news.umich.edu/a-step-toward-recovering-reproduction-in-girls-who-survive-childhood-cancer/

下一代電動汽車到底能跑多遠?這很可能取決於鋰離子電池可以提供的電量上限。

密歇根大學機械工程副教授 Don Siegel 的研究人員正在將競爭性電動汽車技術 —— 氫燃料電池 —— 的性能提升到新高度。

氫燃料電池使用氫氣作爲燃料,利用氫氧反應發電, 唯一的“排放”是水。

該技術一大限制是能在車上儲存足夠量的氫。研究已經確定了將更多氫氣塞入稱爲金屬有機框架(MOF)的小型儲存結構中的方法,從而提高能量密度和汽車預計行駛里程。

MOF是由與有機分子偶聯的金屬離子組成的設計材料,其多孔性使之成爲最有希望儲存氫的方法。研究人員將所有可用的近 50 萬種 MOF 的信息收集到數據庫中,再用高通量計算機模擬來搜索最具容量潛力的 MOF。

本週在 Nature Communications 上發佈的三款 MOF 被命名爲SNU-70、UMCM-9、和 PCN-610 / NU-100。

超過 25 名美國知名人工智能研究人員近日簽署一封聯名信,要求亞馬遜停止向執法機構出售其面部識別技術,因爲其技術對女性和有色人種有偏見。這些專家包括谷歌、Facebook、微軟的研究者以及一名最近的圖靈獎獲獎者。

這封信於週三公佈,反映出學術界和科技行業越來越擔心面部識別技術的偏見是一個系統性問題。一些研究人員和公司認爲,沒有政府的正確監管,該項技術就無法得到妥善控制。

2019年1月,麻省理工學院的兩名研究人員發表了一項同行評審研究,顯示亞馬遜面部識別技術 Rekognition 在識別女性和深色皮膚面孔的性別方面比 IBM 和微軟的類似服務表現差很多。

該調查顯示,19%的女性被亞馬遜 Rekognition 誤認爲男性,31%的黑皮膚的女性被誤認爲男性。

感興趣的同學可以查看新聞鏈接:https://www.nytimes.com/2019/04/03/technology/amazon-facial-recognition-technology.html

儘管試管嬰兒已是當今比較普遍的一種助孕技術,大多數女性在整個手術過程中都很難享受到專業胚胎學專家的幫助。因爲對於胚胎學專家而言,在顯微鏡下觀察胚胎的形態並對其進行分級,最後確定該首先植入哪些胚胎,是一件費時又準確率不高的事。

4月4日,康奈爾醫學院研究人員在《NPJ數字醫學》上發表了一篇論文,描述了一種全新的人工智能的方法,可以非常準確地預測5天大的體外受精胚胎是否有進入成功妊娠的高潛力。

研究人員使用了現成的谷歌深度學習的算法,並使用在受精後 110 個小時之內的 1.2 萬張人類胚胎照片來進行訓練,以區分胚胎的質量。

爲了檢驗這個綽號爲 STOCK 的神經網絡是否能和同行媲美,研究人員們邀請了來自三大洲的5位胚胎學專家對 394 個胚胎進行判斷,將每個胚胎氛圍優良、一般和低劣三個等級。而 STOCK 最後判斷的結果,和 5 位胚胎學家共同評定後得出的結果,重合度高達97%。

也就是說,這個神經網絡已經達到了人類專家的水準。

康奈爾醫學院胚胎學實驗室主任 Nikica Zaninovic 相信,這項技術將顯著提升體外受精的成功率,並最大限度地減少女性多妊娠的風險。

下面我們進入 MIT 專場:

對於自動駕駛技術的擔憂,很大一部分來自於駕駛員一旦用上了自動駕駛輔助系統,就放鬆警惕,從而導致安全隱患。那麼,這個問題有沒有辦法通過人類自我監督得到解決呢?

MIT 研究員和研究公司 Touchstone Evaluations 近日發表了一篇關於駕駛員如何在特斯拉自動駕駛儀輔助駕駛期間,提高駕駛儀警惕性的論文《特斯拉自動駕駛中人的作用:探索真實世界人機協作過程中的功能警惕性》。

在該論文中,研究員提出了一種“功能警惕”措施,通過選擇何時何地利用自動化功能以及何時手動執行駕駛任務,允許駕駛員進行自我監管,從而概念化警惕性。

(圖片版權屬於論文原作者)

上圖展示了兩種人機互動系統中的警惕性。在左圖的傳統方法中,操作人員無法選擇何時何地參與到監控當中來,因此必須隨時處於監控狀態。在右圖的“功能警惕”模型中,操作人員可以隨時選擇監控機器或是自己執行任務。

該論文認爲特斯拉自動駕駛儀未來的工作應包括司機自動掃視區域分類,以期更深入地瞭解司機在駕駛期間的注意力分配。此外,對特斯拉車主進行問卷調查,廣泛收集收集車主自我報告的數據,也可以幫特斯拉了解車主們對自動駕駛系統的理解和使用體驗。

想象一下,你正在廚房裏試圖想朋友解釋如何把用完的水杯放回原處。如果你告訴他們“把杯子把手掛到水池邊的鉤子上”,他們多半都可以在幾秒鐘內毫不猶豫地完成這一任務。

可不要小看這幾秒鐘,這其實是一個相當複雜的過程,必須通過一系列非常精確的操作來完成:看到“目標”杯子;在視覺上找到手柄並識別如何抓取手柄;使用正確的手指組合以穩定的方式抓住手柄;視覺定位掛鉤並思考如何懸掛杯子;再將杯子掛在鉤子上。

這種似乎幾歲小孩都有的技能,對目前的機器人來說卻非常難:工廠機器人可以一遍又一遍地拾取相同的物體,有些甚至可以在物體之間做出一些基本的區別,但是它們通常難以理解各種物體的形狀和大小,或者能夠將所述物體移動到不同的姿勢或位置。

(圖自 MIT,版權屬於原作者)

麻省理工學院計算機科學與人工智能實驗室(CSAIL)的研究人員表示,他們開發了一種新系統,允許機器人完成許多不同的拾取和放置任務,從掛杯子到將鞋子放在架子上,機器人可以與很多他們從未見過的物體和對象完成互動。

該團隊的主要觀點是將物體化作3D關鍵點的集合,併爲機器人繪出一幅“視覺路線圖”。這個方法被稱爲“KPAM”(Keypoint Affordance Manipulation),KPAM可以檢測對象上的所有關鍵點及座標,並提供機器人確定如何處理該對象所需的所有信息,以及物體的位置變化。由此以來,機器人就能夠使用關鍵點操縱自己不熟悉的物體和對象了。

(圖自 MIT,版權屬於原作者)

該團隊接下來希望讓系統能夠執行更具普遍性的任務,例如卸下洗碗機或擦拭廚房的桌面。研究人員還表示,KPAM 的人性化理解意味着它可以順利地融入工廠等其他更復雜的環境中。

感興趣的朋友可以閱讀原文:

https://www.csail.mit.edu/news/robot-precisely-moves-objects-its-never-seen

不光要教機器拿東西,還要讓他們明白他們看到的是什麼。這不,MIT 的研究人員將統計和符號人工智能技術相結合,想要教機器學會推理。

如果讓一個孩子想象並描述一頭粉紅色的大象,可能並不是一件難事。然而對於深度學習系統來說,去概括和識別它們以前從未見過的東西,就非常困難了:深度學習系統通過挑選數據中的統計模式來解釋世界;然而這種統計學習的侷限性在於,它需要大量的數據,並且很難將過去的知識應用於新的突發場景。

爲了讓計算機擁有“推理能力”,人工智能(AI)研究人員正在迴歸抽象或符號化的編程。

麻省理工學院聯合 DeepMind 和 IBM Watson AI 實驗室的研究人員在這個問題上實現了一點突破:他們提出了一種合併統計和符號AI的混合模型,這種混合模型可以學習與顏色和形狀等對象相關的概念,並讓深度學習系統利用這些知識來解釋場景中的複雜對象關係。通過最小化的數據和編程訓練,他們的模型可以“融會貫通”,通過“推理”將其理解的概念轉移到更大的場景,並回答越來越難的問題。

(圖自MIT新聞,版權屬於原作者)

該團隊針對圖像學習和推理,用問答的形式訓練他們的模型,隨着模型的學習,問題逐漸變得越來越難,從“物體的顏色是什麼?”到 “有多少物體都在綠色圓柱體的右邊,並且與小藍球具有相同的材料?”

一旦機器學習模型有了一定基礎後,它就可以通過“推理’解釋出新的場景和概念,並完美地回答越來越難以解決的問題。

看來,我們人類的大腦和學習能力真的很奇妙:像 ”拿東西“、”給看到的東西歸納總結“ 這些非常基本的、幾歲小朋友都會的技能,對於機器來說卻不那麼容易。

企業

很多人喜歡錄製和家人朋友在一起的溫馨視頻,並挑選出其中滿意之作分享出來。但是,分析和處理大量的視頻數據,非常耗時間;而挑選出適合分享的視頻,更是難上加難。

谷歌4月3日發佈論文《重新考慮更快的R-CNN架構以進行時間行動本地化》,試圖解決自動化挑選視頻瞬間這一任務背後的挑戰。這個挑戰的核心在於如何對動作進行識別和分類。而谷歌的研究的核心在於提升了算法識別視頻中某一特定動作發生的位置的能力。

(圖自 Google AI 博客,版權屬於原作者)

谷歌研究人員由基於區域的物體檢測方法(例如更快的R-CNN網絡)中得到啓發,提出了時間動作定位網絡(TALNet)。TALNet 可以識別持續時間更長的動作,與其他方法相比,性能最優。TALNet用於Google Photos,將能使 Google Photos 爲其用戶自動挑選和推薦視頻中的最佳部分。

製藥公司和其研究人員投入了數年的努力和數十億美元來探索巨大的分子庫,就是爲了發現新的疾病治療方法。英偉達近日在官方博客發文討論了人工智能在藥物發現這個領域,到底能如何發揮重大作用。

英偉達認爲,通過人工智能,製藥科學家們可以一次模擬數百萬個分子並一次篩查數百種疾病,可以幫助研究人員瞭解藥物分子的潛在副作用——甚至可以提出可以治療疾病的新的合成分子。

例如,匹茲堡大學研究員 David Koes 正使用 NVIDIA GPU 進行分子對接,模擬候選藥物如何與靶蛋白結合。他的團隊開發了一種深度學習模型,將預測準確率從 52% 提高到 70% —— 對於新藥研發來說,這能節省成千上百萬、甚至上億美元的成本。

而 NVIDIA Inception 計劃支持的一家初創公司 Recursion Pharmaceuticals,正在使用 100 多個 GPU 來訓練其神經網絡,以便在幾個治療領域進行藥物發現,包括目前缺乏治療的數百種罕見疾病。

感興趣的朋友可以閱讀原文:

https://blogs.nvidia.com/blog/2019/03/29/how-ai-is-changing-medicine/

怎麼樣,本週的科技前沿是不是涵蓋了生活中非常廣泛的各方各面呢?你最期待哪項技術?歡迎留言交流討論!

如果沒看過癮,想繼續用最新最前沿的科技資訊給頭腦充電,歡迎查看硅谷洞察上週的科技前沿精選:

谷歌機器人+深度學習,學習效率是之前的2倍!|技術前沿洞察

更多精彩,敬請關注硅谷洞察官方網站(http://www.svinsight.com)

聲明:該文觀點僅代表作者本人,搜狐號系信息發佈平臺,搜狐僅提供信息存儲空間服務。
相關文章