传奇国际娱乐注册|龙8国际娱乐网址
《电子技术应用》
您所在的位置:首页 > 可编程逻辑 > 解决方案 > 想读读PyTorch底层代码?这份内核机制简介送给你

想读读PyTorch底层代码?这份内核机制简介送给你

2019-02-28
关键词: PyTorch 代码 JIT编译器

学习 PyTorch 比较简单,但你能学习 PyTorch 内部机制吗?最近,有 14 年 ML 经验的大神 Christian 介绍了 PyTorch 的内核机制。虽然在实际使用中并不需要这些知识,但探索 PyTorch 内核能大大提升我们对代码的直觉与理解,挖底层实现的?#38469;?#22823;神~


PyTorch 的构建者表明,Pytorch 的哲学是解决当务之急,也就是说即时构建和运行我们的计算图。这恰好适合 Python 的编程理念,一边定义就可以在 Jupyter Notebook 一边运行,因此,PyTorch 的工作流程非常接近于 Python 的科学计算库 NumPy。


Christian 表明 PyTorch 之所以这么方便,很多?#38469;?#22240;为它的「基因」——内部运行机制决定的。这一篇报告并不会介绍如何使用 PyTorch 基础模块,或如何用 PyTorch 训练一个神经网络,Christian 关注的是如?#25105;?#30452;观的形式介绍 PyTorch 的内核机制,即各个模块到底是怎么工作的。


Christian 在 Reddit 表示这一次报告由于录像问题并不能上传演讲视频,因此暂时只能分享演讲 PPT。不过 Christian 最近?#19981;?#20877;做一次该主题的演讲,所以我们可以期待下次能有介绍 PyTorch 的视频。


演讲 PPT 地址:https://speakerdeck.com/perone/pytorch-under-the-hood

百度?#39057;?#22336;:https://pan.baidu.com/s/1aaE0I1geF7VwEnQRwmzBtA


如下所示为这次演讲的主要议程,它主要从张量和 JIT 编译器出发介绍底层运行机制:

微信图片_20190228180845.jpg


在讨论 PyTorch 的各组件机制前,我们需要了解整体工作流。PyTorch 使用一种称之为 imperative / eager 的范式,即每一行代码都要求构建一个图以定义完整计算图的一个部分。即使完整的计算图还没有完成构建,我们?#37096;?#20197;独立地执行这些作为组件的小计算图,这种动态计算图被称为「define-by-run」方法。


微信图片_20190228180908.gif


其实初学者了解到整体流程就可以学着使用了,但底层机制有助于对代码的理解和掌控。


张量


在概念上,张量就是向量和矩阵的推广,PyTorch 中的张量就是元素为同一数据类?#25237;?#32500;矩阵。虽然 PyTorch 的接口是 Python,但底层主要?#38469;?#29992; C++实现的,而在 Python 中,集成 C++代码通常被称为「扩展」。


因为张量主要承载数据,并进行计算。PyTorch 的张量计算使用最底层和基本的张量运算库 ATen,它的自动微分使用 Autograd,该自动微分工具同样建立在 ATen 框架上。


Python 对象


为了定义 C/C++中一个新的 Python 对象类型,你需要定义如下 THPVariable 类似结构。其中第一个 PyObject_HEAD 宏旨在标准化 Python 对象,并扩展至另一个结构,该结构包含一个指向类型对象的指针,以及一个带有引用计数(ref count)的字段。


微信图片_20190228180926.jpg


Python API 中有两个额外的宏,?#30452;?#31216;为 Py_INCREF() 和 Py_DECREF(),可用于增加?#22270;?#23569; Python 对象的引用计数。


在 PyThon 中,任何东西?#38469;?#23545;象,例如变量、数据结构和函数等。

微信图片_20190228180948.jpg


ZERO-COPYING 张量


由于 Numpy 数组的使用非常普遍,我们确实需要在 Numpy 和 PyTorch 张量之间做转换。因此 PyTorch 给出了 from_numpy() 和 numpy() 两个方法,从而在 NumPy 数组和 PyTorch 张量之间做转换。

微信图片_20190228181004.jpg


因为张量储存的成本比较大,如果我们在上述转换的过程中复制一遍数据,那么内存的占用会非常大。PyTorch 张量的一个优势是它会保留一个指向内部 NumPy 数组的指针,而不是直接复制它。这意味着 PyTorch 将拥有这一数据,并与 NumPy 数组对象共享同一内存区域。


微信图片_20190228181021.jpg


Zero-Copying 的形式确实能省很多内存,但是如上所示在位(in-place)和标准运算之间的区别会有点模糊。如果用 np_array = np_array +1.0,torch_array 的内存不会改变,但是如果用 np_array += 1.0,torch_array 的内存?#20174;?#20250;改变。


CPU/GPU 内存分配


张量的实际原?#38469;?#25454;并不是立即保存在张量结构中,而是保存在我们称之为「存储(Storage)」的地方,它是张量结构的一部分。一般张量存储可以通过 Allocator 选择是储存在计算机内存(CPU)还是?#28304;媯℅PU)。


微信图片_20190228181037.jpg


THE BIG PICTURE


最后,PyTorch 主张量 THTensor 结构可以展示为下图。THTensor 的主要结构为张量数据,它保留了 size/strides/dimensions/offsets/等信息,同时还有存储 THStorage。


微信图片_20190228181057.jpg


JIT


因为 PyTorch 是即时运?#24515;?#24335;,这表明它很容易 Debug 或检查代码等。在 PyTorch 1.0 中,其首?#25105;?#36827;了 torch.jit,它是一组编译工具,且主要目标是弥补?#33455;?#19982;产品部署的差距。JIT 包含一?#32622;?#20026; Torch Script 的语言,这种语言是 Python 的子语言。使用 Torch Script 的代码可以实现非常大的优化,并且可以序列化以供在后续的 C++API 中使用。


如下所示为常见使用 Python 运行的 Eager 模式,?#37096;?#20197;运行 Script 模式。Eager 模式适合块做原型与实验,而 Script 模式适合做优化与部署。


微信图片_20190228181117.jpg


那么为什么要用 TORCHSCRIPT 呢?Christian 给出了以下理由:


微信图片_20190228181135.jpg


PyTorch JIT 主要过程


如下所示 JIT 主要会输入代码或 Python 的抽象句法树(AST),其中 AST 会用树结构表征 Python 源代码的句法结构。解析可能是解析句法结构?#22270;?#31639;图,然后语法检测接连着代码优化过程,最后只要编译并执行就可以了。


微信图片_20190228181152.jpg


其中优化可以用于模?#22270;?#31639;图,例如展开循环等。在如下所示的 Peephole 优化中,编译器仅在一个或多个基本块中针对已生成的代码,结合 CPU 指令的特点和一些转?#36824;?#21017;提升性能。Peephole 优化?#37096;?#20197;通过整体分析和指令转换提升代码性能。


如下所示矩阵的两次装置等于矩阵本身,这应该是需要优化的。

微信图片_20190228181211.jpg


执行


和 Python 解释器可以执行代码一样,PyTorch 在 JIT 过程中也有一个解释器执行中间表征指令:


微信图片_20190228181231.jpg


最后,Christian 还介绍了很多内部运行机制,不过因为它们都很难,而?#20197;?#26102;没有提供视频讲解,读者大牛们可以看看具体 PPT 内容。


传奇国际娱乐注册 重庆时时及走势图 为什么时时彩压大就输 2019年6月7号快乐12开奖结果 浙江11选5号码遗漏 香港赛马会心水高手论坛 2o19年最的特马网站 上海基诺KENO开奖 3374最快开奖直播現场直播 老重庆时时开 北京赛pk10外挂