增加对RTX显卡的选型

1.增加了RTX系列显卡的购买建议;
2.修改部分数字序列用逗号分割的格式问题;
3.增加一个参考文献。
This commit is contained in:
X-21 2019-04-09 16:02:16 +08:00
parent 907c29c986
commit 101f861325
2 changed files with 25 additions and 23 deletions

View File

@ -9,6 +9,6 @@
**贡献者(排名不分先后):**
内容贡献者可自加信息
陈龙宇-重庆大学
###########################################################

View File

@ -94,11 +94,14 @@ GPU的性能主要由以下三个参数构成
如果大家继续比较GTX较早的系列也可以发现类似的规律。据此我们推荐大家在能力范围内尽可能买较新的GPU。
对于RTX系列新增了Tensor Cores单元及支持FP16使得显卡的可选择范围更加多元。
### 15.5.2 购买建议
##### 首先给出一些总体的建议
最好的GPU整体小幅度Titan Xp
综合性价比高但略贵GTX 1080 TiGTX 1070GTX 1080
性价比还不错且便宜GTX 10606GB
首先给出一些总体的建议:
性价比高但较贵RTX 2070GTX 1080 Ti
性价比高又便宜RTX 2060GTX 10606GB
当使用数据集> 250GBGTX Titan XMaxwell NVIDIA Titan X Pascal或NVIDIA Titan Xp
@ -106,15 +109,15 @@ GPU的性能主要由以下三个参数构成
几乎没有钱入门级GTX 1050 Ti4GB
做Kaggle比赛GTX 10606GB适用于任何“正常”比赛GTX 1080 Ti用于“深度学习竞赛”
做Kaggle比赛RTX 2070、GTX 10606GB适用于任何“正常”比赛GTX 1080 Ti预算足够可以选择RTX 2080 Ti用于“深度学习竞赛”
计算机视觉研究员:NVIDIA Titan Xp不要买现在新出的Titan XPascal或Maxwell
计算机视觉研究员:RTX 2080 Ti涡轮散热或水冷散热较好方便后期增加新的显卡如果网络很深可以选择Titan RTX
一名研究员人员GTX 1080 Ti。在某些情况下如自然语言处理一个GTX 1070或GTX 1080已经足够了-检查你现在模型的内存需求
一名NLP研究人员RTX 2080 Ti并使用FP16来训练
搭建一个GPU集群这个有点复杂另做探讨。
刚开始进行深度学习研究:从GTX 10606GB开始。根据你下一步兴趣入门Kaggle比赛研究应用深度学习等等在进行选择。目前GTX 1060更合适
刚开始进行深度学习研究:从RTX 2060或GTX 10606GB开始根据你下一步兴趣入门Kaggle比赛研究应用深度学习等等再进行选择。目前RTX 2060和GTX 1060都比较合适入门的选择
想尝试下深度学习但没有过多要求GTX 1050 ti4或2GB
@ -378,49 +381,48 @@ mxnet的最知名的优点就是其对多GPU的支持和扩展性强其优秀
### 15.2.1 常用框架简介
1tensorflow
1. tensorflow
tensorflow由于有google的强大背书加上其优秀的分布式设计丰富的教程资源和论坛工业部署方便基本很多人都是从tensorflow入门的
优点google的强大背书分布式训练教程资源丰富常见问题基本都可以在互联网中找到解决办法工业部署方便
缺点: 接口混乱,官方文档不够简洁,清晰,
2keras:
2. keras:
keras是一种高层编程接口其可以选择不同的后端比如tensorflowtherao等等
优点:接口简洁,上手快,文档好,资源多
缺点: 封装的太好了导致不理解其技术细节
3,pytorch:
3. pytorch:
4,caffe2:
4. caffe2:
caffe2是在caffe之后的第二代版本同属于Facebook。。。
优点:支持模型的全平台部署,。。。。
缺点:使用人数相对较少资源较少和pytorch合并后应该会更受欢迎
5,mxnet
5. mxnet
mxnet是dmlc社区推出的深度学习框架在2017年被亚马逊指定为官方框架
优点支持多种语言代码设计优秀省显存华人团队开发中文社区活跃官方复现经典论文推出gluoncv和gluonNLP模块非常方便拿来就可以用。
缺点:现在mxnet官方社区主要在推gluon接口接口稍有混乱坑较多入手门槛稍高
6caffe
6. caffe
目前很多做深度学习比较早的大厂基本都是在用caffe因为在2013-2015年基本就是caffe的天下并且caffe的代码设计很优秀基本所有代码都被翻了很多遍了被各种分析大厂基本都是魔改caffe基于caffe来进行二次开发所在目前在很多大厂还是在使用caffe
优点:资源丰富,代码容易理解,部署方便
缺点:入门门槛高,文档较少
###15.2.1 框架选型总结
1新手入门首推pytorch上手快资源丰富,官方文档写的非常好(https://pytorch.org/tutorials/)
2目前工业部署tensorflow是首选,资源丰富,并且在分布式训练这一块基本一家独大
3mxnet的gluon接口有比较丰富的中文资源教程zh.gluon.ai论坛discuss.gluon.ai,gluoncv模块https://gluon-cv.mxnet.io,gluonNLP模块https://gluon-nlp.mxnet.io
框架选型总结:
1. 新手入门首推pytorch上手快资源丰富,官方文档写的非常好(https://pytorch.org/tutorials/)
2. 目前工业部署tensorflow是首选,资源丰富,并且在分布式训练这一块基本一家独大
3. mxnet的gluon接口有比较丰富的中文资源教程zh.gluon.ai论坛discuss.gluon.ai,gluoncv模块https://gluon-cv.mxnet.io,gluonNLP模块https://gluon-nlp.mxnet.io
##15.3 模型部署
## 15.3 模型部署
我们一般都是通过python或者其他语言来编码训练模型然后基于后端来进行部署
一般的框架都有自身的部署框架比如tensorflowpytorchcaffe2mxnet等等
有一些框架是专门做推理部署使用的,比如
1tensorRT
(1)tensorRT
(2)TVM
(3)ONNX
## 相关文献
[1] Aston Zhang, Mu Li, Zachary C. Lipton, and Alex J. Smola. [《动手学深度学习》附录 购买GPU](https://github.com/d2l-ai/d2l-zh/blob/master/chapter_appendix/buy-gpu.md), 2019.
[2] Tim Dettmers. [Which GPU(s) to Get for Deep Learning: My Experience and Advice for Using GPUs in Deep Learning](http://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/), 2019.