TranslateProject/translated/talk/20170915 Deep learning wars- Facebook-backed PyTorch vs Google-s TensorFlow.md

7.4 KiB
Raw Blame History

深度学习战争Facebook支持的PyTorch与Google的TensorFlow

有一个令人震惊的事实,即人工智能和机器学习的工具和技术在近期迅速兴起。深度学习或者说“注射了激素的机器学习”是数据科学家和机器学习专家在可用的库和框架方面被宠坏的一个领域。很多这样的框架都是基于Python的因为Python是一个更通用相对简单的语言。[Theano] 1[Keras] 2 [TensorFlow] 3是一些基于Python构建的流行的深度学习库目的是使机器学习专家更轻松。

Google的TensorFlow是一个广泛使用的机器学习和深度学习框架。 TensorFlow开源于2015年得到了机器学习专家的广泛支持TensorFlow已经迅速成长为许多机构为其机器学习和深度学习需求所选择的框架。 另一方面PyTorch最近开发的用于训练神经网络的Python包被改编自基于Lua的深度学习库Torch。 PyTorch是少数可用的DL框架之一它使用基于磁带的autograd系统tape-based autograd system以快速和灵活的方式构建动态神经网络。

在这篇文章中我们将PyTorch与TensorFlow进行不同方面的比较。

让我们开始吧!

###什么编程语言支持 PyTorch和TensorFlow

虽然主要是用C ++和CUDA编写的但Tensorflow包含一个位于核心引擎上的Python API使得更便于被Pythonistas使用。 除了Python它还包括C ++HaskellJavaGo和Rust等其他API这意味着开发人员可以用他们的首选语言进行编码。

虽然PyTorch是一个Python软件包但你也可以提供使用基本的C / C ++语言的API进行编码。 如果你习惯使用Lua编程语言你也可以使用Torch API在PyTorch中编写神经网络模型。

###PyTorch和TensorFlow有多么易于使用

如果将TensorFlow作为一个独立的框架使用它可能会有点复杂并且会给深度学习模型的训练带来一些困难。 为了减少这种复杂性可以使用位于TensorFlow复杂引擎之上的Keras封装简化深度学习模型的开发和训练。 TensorFlow也支持PyTorch目前没有的[分布式培训] 4。 由于包含Python APITensorFlow也可以在生产环境中使用即可用于培训练和部署企业级深度学习模型。

PyTorch由于Torch的复杂而被Python重写。 这使得PyTorch对于开发人员更为原生。 它有一个易于使用的框架,提供最大化的灵活和速度。 它还允许在训练过程中快速更改代码而不妨碍其性能。 如果你已经有了一些深度学习的经验并且以前使用过Torch那么基于它的速度效率和易用性你会更喜欢PyTorch。 PyTorch包含定制的GPU分配器这使得深度学习模型具有高度的内存效率。 由此,训练大型深度学习模型变得更容易。 因此Pytorch 在FacebookTwitterSalesforce等大型组织广受欢迎。

###用PyTorch和TensorFlow训练深度学习模型

PyTorch和TensorFlow都可以用来建立和训练神经网络模型。

TensorFlow在SCG静态计算图上工作包括在模型开始执行之前定义静态图形。 但是,一旦开始执行,在模型内的调整更改的唯一方法是使用tf.session and tf.placeholder tensors

PyTorch非常适合训练RNNs递归神经网络因为它们在[PyTorch] 6中比在TensorFlow中运行得更快。 它适用于DCG动态计算图可以随时在模型中定义和更改。 在DCG中每个模块可以单独调试这使得神经网络的训练更简单。

TensorFlow最近提出了TensorFlow Fold这是一个旨在创建TensorFlow模型的库用于处理结构化数据。 像PyTorch一样它实现了DCGs在CPU上提供高达10倍的计算速度在GPU上提供超过100倍的计算速度 在[Dynamic Batching] 7的帮助下,你现在可以执行尺寸和结构都不相同的深度学习模型。

###GPU和CPU优化的比较

TensorFlow的编译时间比PyTorch短为构建真实世界的应用程序提供了灵活性。 它可以从CPUGPUTPU移动设备到Raspberry Pi物联网设备等各种处理器上运行。

另一方面PyTorch包括张量tensor计算可以使用GPU将深度神经网络模型加速到[50倍或更多] 8。 这些张量可以停留在CPU或GPU上。 CPU和GPU都是独立的库 无论神经网络大小如何PyTorch都可以高效地利用。

###社区支持

TensorFlow是当今最流行的深度学习框架之一由此也给它带来了庞大的社区支持。 它有很好的文档和一套详细的在线教程。 TensorFlow还包括许多预先训练过的模型这些模型在[github] 9上托管和提供。 这些模型提供给热衷于使用TensorFlow开发者和研究人员一些现成的材料来节省他们的时间和精力。

另一方面PyTorch的社区相对较小因为它最近才发展起来。 与TensorFlow相比文档并不是很好代码也不是很容易获得。 然而PyTorch确实允许个人与他人分享他们的预训练模型。

PyTorch和TensorFlow-力量悬殊的故事

就目前而言由于各种原因Tensorflow显然比PyTorch更受青睐。

Tensorflow很大经验丰富最适合实际应用。 是大多数机器学习和深度学习专家明显的选择,因为它提供了大量的功能,最重要的是它在市场上的成熟应用。 它具有更好的社区支持以及多语言API可用。 它有一个很好的文档库,由于从准备到使用的代码使之易于生产。 因此,它更适合想要开始深度学习的人,或者希望开发深度学习模型的组织。

虽然PyTorch相对较新社区较小但它速度快效率高。 总之它给你所有的优势在于Python的有用性和易用性。 由于其效率和速度,对于基于研究的小型项目来说,这是一个很好的选择。 如前所述FacebookTwitter等公司正在使用Pytorch来训练深度学习模型。 但是,使用它尚未成为主流。 PyTorch的潜力是显而易见的但它还没有准备好去挑战这个TensorFlow的野兽。 然而考虑到它的增长PyTorch进一步优化并提供更多功能的日子并不遥远直到与TensorFlow可以比较。

###Savia Lobo 非常喜欢数据科学。 喜欢更新世界各地的科技事件。 喜欢歌唱和创作歌曲。 相信才智上的艺术。


via: https://datahub.packtpub.com/deep-learning/dl-wars-pytorch-vs-tensorflow/

作者:Savia Lobo 译者:Wuod3n 校对:校对者ID

本文由 LCTT 原创编译,Linux中国 荣誉推出