1. 加法运算
示例代码:
import torch # 这两个Tensor加减乘除会对b自动进行Broadcasting a = torch.rand(3, 4) b = torch.rand(4) c1 = a + b c2 = torch.add(a, b) print(c1.shape, c2.shape) print(torch.all(torch.eq(c1, c2)))
输出结果:
torch.Size([3, 4]) torch.Size([3, 4]) tensor(1, dtype=torch.uint8)
2. 减法运算
示例代码:
a = torch.rand(3, 4) b = torch.rand(4) c1 = a - b c2 = torch.sub(a, b) print(c1.shape, c2.shape) print(torch.all(torch.eq(c1, c2)))
输出结果:
torch.Size([3, 4]) torch.Size([3, 4]) tensor(1, dtype=torch.uint8)
3. 哈达玛积(element wise,对应元素相乘)
示例代码:
c1 = a * b c2 = torch.mul(a, b) print(c1.shape, c2.shape) print(torch.all(torch.eq(c1, c2)))
输出结果:
torch.Size([3, 4]) torch.Size([3, 4]) tensor(1, dtype=torch.uint8)
4. 除法运算
示例代码:
c1 = a / b c2 = torch.div(a, b) print(c1.shape, c2.shape) print(torch.all(torch.eq(c1, c2)))
输出结果:
torch.Size([3, 4]) torch.Size([3, 4]) tensor(1, dtype=torch.uint8)
5. 矩阵乘法
(1)二维矩阵相乘
二维矩阵乘法运算操作包括torch.mm()、torch.matmul()、@,
示例代码:
import torch a = torch.ones(2, 1) b = torch.ones(1, 2) print(torch.mm(a, b).shape) print(torch.matmul(a, b).shape) print((a @ b).shape)
输出结果:
torch.Size([2, 2]) torch.Size([2, 2]) torch.Size([2, 2])
(2)多维矩阵相乘
对于高维的Tensor(dim>2),定义其矩阵乘法仅在最后的两个维度上,要求前面的维度必须保持一致,就像矩阵的索引一样并且运算操只有torch.matmul()。
示例代码:
c = torch.rand(4, 3, 28, 64) d = torch.rand(4, 3, 64, 32) print(torch.matmul(c, d).shape)
输出结果:
torch.Size([4, 3, 28, 32])
注意,在这种情形下的矩阵相乘,前面的"矩阵索引维度"如果符合Broadcasting机制,也会自动做广播,然后相乘。
示例代码:
c = torch.rand(4, 3, 28, 64) d = torch.rand(4, 1, 64, 32) print(torch.matmul(c, d).shape)
输出结果:
torch.Size([4, 3, 28, 32])
6. 幂运算
示例代码:
import torch a = torch.full([2, 2], 3) b = a.pow(2) # 也可以a**2 print(b)
输出结果:
tensor([[9., 9.], [9., 9.]])
7. 开方运算
示例代码:
c = b.sqrt() # 也可以a**(0.5) print(c) d = b.rsqrt() # 平方根的倒数 print(d)
输出结果:
tensor([[3., 3.], [3., 3.]]) tensor([[0.3333, 0.3333], [0.3333, 0.3333]])
8.指数与对数运算
注意log是以自然对数为底数的,以2为底的用log2,以10为底的用log10
示例代码:
import torch a = torch.exp(torch.ones(2, 2)) # 得到2*2的全是e的Tensor print(a) print(torch.log(a)) # 取自然对数
输出结果:
tensor([[2.7183, 2.7183], [2.7183, 2.7183]]) tensor([[1., 1.], [1., 1.]])
9.近似值运算
示例代码:
import torch a = torch.tensor(3.14) print(a.floor(), a.ceil(), a.trunc(), a.frac()) # 取下,取上,取整数,取小数 b = torch.tensor(3.49) c = torch.tensor(3.5) print(b.round(), c.round()) # 四舍五入
输出结果:
tensor(3.) tensor(4.) tensor(3.) tensor(0.1400) tensor(3.) tensor(4.)
10. 裁剪运算
即对Tensor中的元素进行范围过滤,不符合条件的可以把它变换到范围内部(边界)上,常用于梯度裁剪(gradient clipping),即在发生梯度离散或者梯度爆炸时对梯度的处理,实际使用时可以查看梯度的(L2范数)模来看看需不需要做处理:w.grad.norm(2)。
示例代码:
import torch grad = torch.rand(2, 3) * 15 # 0~15随机生成 print(grad.max(), grad.min(), grad.median()) # 最大值最小值平均值 print(grad) print(grad.clamp(10)) # 最小是10,小于10的都变成10 print(grad.clamp(3, 10)) # 最小是3,小于3的都变成3;最大是10,大于10的都变成10
输出结果:
tensor(14.7400) tensor(1.8522) tensor(10.5734) tensor([[ 1.8522, 14.7400, 8.2445], [13.5520, 10.5734, 12.9756]]) tensor([[10.0000, 14.7400, 10.0000], [13.5520, 10.5734, 12.9756]]) tensor([[ 3.0000, 10.0000, 8.2445], [10.0000, 10.0000, 10.0000]])
以上这篇Pytorch Tensor基本数学运算详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
标签:
Pytorch,Tensor
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件!
如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
暂无“Pytorch Tensor基本数学运算详解”评论...
更新动态
2024年11月25日
2024年11月25日
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]