打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
PyTorch:基础知识

如果您对机器学习感兴趣或正在阅读本文,那么您很有可能以前听说过PyTorch。 在机器学习开发人员中,这是一个非常著名的框架,由于很好的原因,我们将在本文中进行讨论。 另外,如果您只是从神经网络开始并且具有基础知识,那么这是一个完美的初学者工具。

好吧,让我们进入PyTorch的精髓吧?

PyTorch的历史

Torch最初是用Lua编写的,这种用法并不常见,很难理解,而且它没有python提供的一半功能。

因此,在2017年,Facebook的AI研究实验室决定建立一个与Torch库具有相同功能但不包含python的库,因此命名为PyTorch。 这在开发人员中立即受到打击,并使编写代码更容易,更有效。

认知计算-一种被广泛认为是……的最重要表现的技能

作为其用户,我们已逐渐将技术视为理所当然。 这些天几乎没有什么比这更普遍了……

趣闻:PyTorch Soumith Chintala的开发人员之一是VIT的校友,而这恰好是我目前就读的我的大学!

Pytorch与Tensorflow

我觉得在PyTorch和Tensorflow之间总是有一个比较,因为它们使用不同的方法来解决问题,因此我认为这是不必要的,并且根据数据集和算法,一种方法要比另一种效果更好。 但是,如果您仍然好奇,可以在这里查看这篇非常简洁的文章。

是什么使Pytorch成为一个好的框架?

· 命令式编程:在PyTorch中,计算会立即运行,这意味着用户无需等待编写完整的代码即可检查其是否有效。 这对于像我这样急躁的程序员来说是个好兆头,他们希望在每一行代码之后都能看到结果。 这还允许在python中提供更灵活的编码体验,并且更受性能驱动。

> Source:https://medium.com/@vincentbacalso/imperative-vs-declarative-programming

2.动态计算图:动态计算图框架是一个由库,接口和组件组成的系统,这些库,接口和组件提供了灵活的,编程的,运行时接口,通过连接有限但可能可扩展的一组操作来促进系统的构建和修改。 因此,基本上,PyTorch遵循运行定义的原理,这对于像RNN这样的非固定大小的网络非常有用。

> Source: Hackernoon.com

1. Autograd:此类是计算导数的引擎(更精确地说,是Jacobian矢量积)。 它记录了在启用梯度的张量上执行的所有操作的图,并创建了一个称为动态计算图的非循环图。 该图的叶子是输入张量,根是输出张量。 通过从根到叶跟踪图并使用链法则将每个梯度相乘来计算梯度。

torch.nn.Autograd.Function

> Source: Udacity.com

Pytorch的常用功能

· torch.sum():加法

(a*b).sum()

1. torch.mm():点积。

#torch.nm(a,b)

1. torch.randn():生成矩阵随机数

torch.manual_seed(7)

# Set the random seed so things are predictable

x = torch.randn(2,2)

1. torch.exp():计算指数

Sigmoid=1/(1+torch.exp(-x))

1. PyTorch提供了一个模块nn,它使构建网络更加简单。

from torch import nn

-nn.Linear():此行创建用于线性变换+的模块。

类似地,以下函数可用于计算相应的激活函数。

-nn.Sigmoid()

-nn.Softmax()

self.output = nn.Linearse

lf.sigmoid = nn.Sigmoid()

self.softmax = nn.Softmax(dim=1)

#columnwise

1. nn.Sequential:使用此方法,我们可以依次通过操作传递张量。

model = nn.Sequential(nn.Linear(input_size, hidden_sizes[0]), nn.ReLU(), nn.Linear(hidden_sizes[0], hidden_sizes[1]), nn.ReLU(), nn.Linear(hidden_sizes[1], output_size), nn.Softmax(dim=1))

7.损失计算

criterion = nn.CrossEntropyLoss()

criterion = nn.NLLLoss()

criterion = nn.LogSoftmax()

1. Autograd:Autograd的工作原理是跟踪对张量执行的操作,然后回溯这些操作,并计算沿途的梯度。

-loss.backward()计算用于计算参数的梯度。 这些梯度用于通过梯度下降来更新权重。

loss.backward()

optimizer.zero_grad()将每个训练遍的梯度归零,否则它将保留先前训练批次的梯度。

optimizer.zero_grad()

结论

我一直将本文的重点放在PyTorch的理论和语法上,在第二部分中,我将通过开发神经网络来演示PyTorch在数据集上的演示。 因此,请继续关注并感谢您的阅读。 干杯!

参考:https://classroom.udacity.com/courses/ud188-PyTorch简介。

(本文翻译自Puja Chaudhury的文章《PyTorch: The Basics.》,参考:https://medium.com/datadriveninvestor/pytorch-the-basics-7005e71cdb83)

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
还不会使用PyTorch框架进行深度学习的小伙伴,看过来
四天速成!香港科技大学 PyTorch 课件分享
pytorch深度学习和自然语言处理入门
「PyTorch自然语言处理系列」3. 神经网络的基本组件(上)
用Pytorch构建第一个神经网络模型(附案例实战)
万字长文,60分钟闪电战
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服