背景:对 python 不熟悉,能看懂代码,也能实现一些简单的功能,但是对 python 的核心思想和编程技巧不熟,所以使 Pytorch 写 loss 的时候遇到很多麻烦,尤其是在 batch_size > 1 的时候,做矩阵乘法之类的运算会觉得特别不顺手。
所幸,在边查边写的过程中,理解了 python 中多维运算的实现规则。
1、python 的基本索引规则
从 0 开始
对于给定的范围,如 b = a[m:n], 那么 b 为由 (n-m)个数据组成的新数组,由 a[m],a[m+1],...,a[n-1] 构成。(若 n<m, 得到空)
2、单个 tensor 运算,使用 dim 参数
torch 中对 tensor 的操作方法,若不加 dim 参数表示对整体的 tensr 进行操作,若增加 dim 参则表示按维操作。
例:
a = [[1,2],[3,4],[5,6]] (torch.tensor) torch.mean(a) => 3.5 torch.mean(a,dim=0) => [1.5, 3.5, 5.5] torch.mean(a,dim=1) => [[3],[4]] torch.mean(a,dim=0) => [3,4] torch.mean(a,dim=1) => [1.5, 3.5, 5.5]
注: torch.mean() 是一个降维的操作,所以不会出现在取均值后保持跟原 Tensor 同维的情况。 dim 参数存在时降一维,不存在时得到的是整个 Tensor 的均值。
3、两个 tensor 运算,构造对应形状
以乘法为例:
3.1 矩阵乘向量
a = [[1,2],[3,4],[5,6]] b = [1,1]
计算乘法 c = a@b
若 a 拓展为 (N,3,2) N 为 batch_size, 计算 c2 = a@b
若 a,b 同时拓展, 变成(N, 2),那么需要做一个变换 b = b.view(N,2,1),计算 c3 = a@b
3.2 矩阵乘矩阵
a = [[1,2],[3,4],[5,6]] b =[ [1,1],[1,1]]
计算乘法 c = a@b
若 a 拓展为 (N,3,2) N 为 batch_size, 计算 c2 = a@b
若 a,b 同时拓展, 变成(N, 2, 2),计算 c3 = a@b
以上这篇Pytorch 多维数组运算过程的索引处理方式就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
更新动态
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]