tensorflow2.0 中移除了 tf.layers 模塊,optimizer 也被整合進了 keras,是不是以後用 tensorflow 寫工程代碼中完全避不開 keras 字眼了?


很多時候keras用起來確實方便,寫個50層的resnet或者googlenet百多行代碼就解決了,裡面的一些細節都封裝好了。但tensorflow中的keras也是在tensorflow的low level api基礎上封裝的,完全可以避開它去用更底層一些的api。看需要吧,高層api寫起來快,為啥不用呢!


當年用keras的時候被同事鄙視,遂棄之轉tf,現在那幫sb都在用pyt就我一個人還在用tf。。。


我的觀點恰好想法。

Keras現在會被tf2喫掉,消化直至Keras徹底淪為一個子包,然後在某天給tf.keras起個別名,tf.keras as tf.layers,此時keras湮沒在google的宏偉藍圖中。

PyTorch大法好:

https://study.163.com/course/introduction.htm?share=2shareId=480000001847407courseId=1208894818_trace_c_p_k2_=0e094040143e4098b2c9e6ec4d76aed6?

study.163.com


說實話,不知道為什麼,讓我有點噁心


可以完全避開,如果你只用最底層的tf.nn的話,不過一般人應該不會這麼幹。所以實際上,是的,你已經不得不用tf.keras了。

當然你還可以像我這樣:

import tensorflow as tf

dontlikekerasATALL = tf.keras


從目前 Preview 版本來看,基本是了。其實是好事,畢竟TensorFlow 1.x被詬病的很多特性,都被後來的tf.keras解決了,而且tf.keras下的很多功能比TensorFlow自己的tf.estimator要好用多了。尤其從Eager模式出了之後就一直在用tf.keras了。


所以不用TF啊 pyt不好嗎?


tf裡面的keras介面越來越完善了,這是真的,但是tf盤子很大,不只是keras:

TensorFlow 2.0入坑必備之No.1: 積極模式(Eager Execution), David 9的挖坑實戰#1


在TF2.0即將到來之際,我可能要轉去pyt了,keras給人的感覺太差了


推薦閱讀:
相關文章