深度学习Pytorch-Tensor函数

打印 上一主题 下一主题

主题 860|帖子 860|积分 2580

Tensor的三角函数

  1. torch.acos(input,out=None)#arccos反三角函数中的反余弦
  2. torch.asin(input,out=None)
  3. torch.atan(input,out=None)
  4. torch.atan2(input,input2,out=None)
  5. torch.cos(input,out=None)
  6. torch.cosh(input,out=None)
  7. torch.sin(input,out=None)
  8. torch.sinh(input,out=None)#双曲正弦函数
  9. torch.tan(input,out=None)
  10. torch.tanh(input,out=None)
复制代码
Tensor中其他的数学函数

  1. torch.abs()
  2. torch.sigmoid()
  3. torch.sign() 符号函数
  4. torch.reciprocal() 每个元素的倒数
  5. torch.rsqrt() 对每个元素取平方根后再取倒数
  6. torch.neg() 元素取负
  7. torch.lerp(start, end, weight, out=None):对两个张量以start, end做线性插值,将结果返回到输出张量out = start + weight*(end - start)
  8. torch.addcdiv(tensor, value=1, tensor1, tensor2, out=None):用tensor2对tensor1逐元素相除,然后乘以标量值value并加到tensor上。
  9. torch.addcmul(tensor, value=1, tensor1, tensor2, out=None):用tensor2对tensor1逐元素相乘,并对结果乘以标量值value然后加到tensor,张量形状不需要匹配,但元素数量必须一致。
  10. torch.cumprod(input, dim, out=None) -> Tensor:返回输入沿指定维度的累积积,如输入是一个N元向量,则结果也是一个N元向量,第i个输出元素值为yi = x1 * x2 * x3 * ...* xi
  11. torch.cumsum(input, dim, out=None) -> Tensor:返回输入沿指定维度的累积和
复制代码
Tensor中统计学相干的函数(维度,对于二维数据:dim=0 按列,dim=1 按行,默认 dim=1)

  1. torch().mean()      #返回平均值
  2. torch().sum()        #返回总和
  3. torch().prod()       #计算所有元素的积
  4. torch().max()        #返回最大值
  5. torch().min()         #返回最小值
  6. torch().argmax()   #返回最大值排序的索引值
  7. torch().argmin()   #返回最小值排序的索引值
  8. torch().std()          #返回标准差
  9. torch().var()          #返回方差
  10. torch().median()   #返回中间值
  11. torch().mode()      #返回众数值
  12. torch.histc(input, bins=100, min=0, max=0, out=None) -> Tensor:计算输入张量的直方图。如果min和max都为0,则利用数据中的最大最小值作为边界。
  13. torch().bincount() #返回每个值的频数,只支持一维的tensor
复制代码
  1. import torch
  2. a = torch.rand(2, 2)#大小2*2
  3. #可以通过维度来完成降维
  4. print(a)
  5. print(torch.sum(a))
  6. print(torch.sum(a, dim=0))
  7. print(torch.sum(a, dim=1))
复制代码

Tensor的torch.distributions(分布函数)

distributions包含可参数化的概率分布和采样函数
得分函数


  • 强化学习中策略梯度方法的基础
pathwise derivative估计器


  • 变分自动编码器中的重新参数化本领

KL Divergence 相对熵
Transforms
Tensor中的随机抽样

定义随机种子:在需要生成随机数据的实行中,每次实行都需要生成数据,为了确保每次运行.py文件时,生成的随机数都是固定的。
  1. torch.manual_seed(seed)
复制代码
定义随机数满意的分布
  1. torch.normal(means, std, out=None):返回一个张量,包含从给定means, std的离散正态分布中抽取随机数,均值和标准差的形状不须匹配,但每个张量的元素个数须相同
复制代码
Tensor中的范数运算

范数

在泛函分析中,它定义在赋范线性空间中,并满意一定的条件,即1.非负性,2.齐次性,3.三角不等式。
常被用来度量某个向量空间(或矩阵)中的每个向量的长度或大小。
0范数/1范数/2范数/p范数/核函数:核范数是矩阵奇异值的和



  • torch.dist(input,other,p=2)盘算p范数
  • torch.norm()盘算2范数
  1. import torch
  2. a = torch.rand(2, 1)
  3. b = torch.rand(2, 1)
  4. print(a, b)
  5. print(torch.dist(a, b, p = 1))
  6. print(torch.dist(a, b, p = 2))
  7. print(torch.dist(a, b, p = 3))
复制代码

  1. print(torch.norm(a))
  2. print(torch.norm(a, p=3))
  3. print(torch.norm(a, p='fro'))#核函数
复制代码

Tensor中的矩阵分解

常见的矩阵分解
  1. LU分解:将矩阵A分解成L(下三角)矩阵和U(上三角)矩阵的乘积
  2. QR分解:将原矩阵分解成一个正交矩阵Q和一个上三角矩阵R的乘积
  3. EVD分解:特征值分解:PCA
  4. SVD分解:奇异值分解:LDA
复制代码
Pytorch中的奇异值分解
  1. torch.svd()
复制代码
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

惊落一身雪

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表