- 由于老黄和苹果的关系僵化,是否使用Mac系列产品就相当于告别了(在自己的电脑上跑)深度学习应用,除非有实验室提供的GPU伺服器?

- OpenCL是否比CUDA难用很多,以至于主流机器学习框架一直都不支持OpenCL(也就是不支持A卡)?

- 机器学习的社区对老黄垄断这一领域的现状能忍吗?将来是否有可能打破这种局面?


从2018年开始,AMD的ROCm平台就已经开始全面迎头赶上,目前来看在深度学习领域,至少90%的计算需求都可以满足。

个人认为在未来3年左右时间里,AMD有希望在深度学习市场获得至少目前CPU市场差不多的份额。主要原因有:

  1. AMD的GPU普遍便宜又大碗,同价位显卡算力显著高于NV的GPU。
  2. ROCm(Radeon Open Compute)平台已经支持主流深度学习框架。TensorFlow/Caffe已经获得官方支持;PyTorch的部署方法可以查看我的专栏和博客,全网首发中文版教程:容器版教程,原生部署教程。
  3. ROCm是开源平台,而且还有一个叫做hipify的功能,支持转化CUDA程序。
  4. NVIDIA在优势局下持续浪:CUDA越来越封闭,显卡越卖越贵,还不让伺服器部署消费级显卡,积累了不少民怨。


按照现在的情况看,A卡三年后应该可以和N卡打平。

虽然我现在用N卡,但是三年后我会买A卡。

全民yes指日可待。

有人说我精神股东,为什么不买A卡,我就奇了怪了,我买AMD的CPU,AMD挣了钱,股价涨了,自然有钱研发更好的显卡,为什么我非要买A卡才算支持A卡发展?你看AMD惨淡这么多年倒闭了吗?

好的公司永远靠产品说话,而不是靠情怀和割韭菜,比如动不动号称国产必买的某些人。


试试用opencl


希望ROCm能好用些,否则只能继续CUDA


ROCm不支持macOS呀,摔!

不过,苹果家有自家的 CreateML+CoreML

发布于 2019-04-22继续浏览内容知乎发现更大的世界打开Chrome继续dongleedongleeKaggle Master

个人感觉相比较寄希望于用AMD的显卡来跑,还不如寄希望于专业做ASIC加速的卡或者Xilinx和Altera的FPGA来跑

AMD yes!逃:)


个人感觉相比较寄希望于用AMD的显卡来跑,还不如寄希望于专业做ASIC加速的卡或者Xilinx和Altera的FPGA来跑

AMD yes!逃:)


谢邀,去年早些时候Tensorflow就已经支持了AMD显卡,不过没看到评测?AMD显卡的流处理器很多,如果效率高的话还真不错,买570 580这些也很便宜


更正一下,AMD现在支持tf和caffe。是我孤陋寡闻了。

-------------------------修改分割线-------------------------

第一个问题:Mac可以双系统windows+外置显卡盒子跑,但是性价比太低,同样的价格完全可以组一个小型单卡GPU伺服器开著VNC区域网用。除此之外基本告别本机GPU了。

第二个问题:没办法啊,CUDA生态很强大,你要做深度学习就要用tensorflow/pytorch/mxnet/caffe等框架,这些框架现在都不支持AMD,况且AMD没有专门做深度学习的计算卡啊,一张1080ti基本上可以胜任很多小项目的训练需要了。

老黄现在新出的20系显卡好贵,性价比最高的1080ti四卡机和八卡机都基本没得买了,没钱上P100 V100,实验室还好,商用就必须买专用的卡,那叫一个贵啊。老黄真的赚翻了,忍不了也暂时没办法。。。

好像谷歌云上用TPU速度也很快,但是数据集来回折腾很麻烦,也贵。


活该。

我应聘深度学习框架的开发岗位,屡次被淘汰。

被老黄垄断,只能买贵的N卡,也是活该。


推荐阅读:
相关文章