深度学习之预备知识

打印 上一主题 下一主题

主题 828|帖子 828|积分 2484

深度学习是关于优化的学习。对一个带有参数的模型,找到其中能拟合数据最好的模型。
一、数据操作

  张量:表示一个由数值构成的数组,这个数组大概有多个维度。具有一个轴的张量对应数学上的向量,具有两个轴的张量对应数学上的矩阵,具有两个以上轴的张量没有特定的数学名称。
  深度学习的张量与Numpy雷同,但深度学习框架比Numpy的ndarray多一些重要功能:起首,GPU很好支持加速盘算,而Numpy仅支持CPU盘算;其次,张量类支持自动微分。这类功能使得张量类更适合深度学习。
  导入torch,虽然它被称为Pytorch。但代码中利用torch而不是pytorch。
  1. import torch
  2. x=torch.arange(12)
  3. x.shape    #访问张量形状
  4. x.numel()  #计算张量中总数,即形状的所有元素乘积
  5. X=x.reshape(3,4) #通过reshape函数,改变张量的形状而不改变元素数量和元素值。
  6. x.reshape(-1,4)或者reshape(3,-1) #通过-1来调用此自动计算出形状
  7. #创建全为0或者1的张量
  8. torch.zeros((2,3,4))
  9. torch.ones((2,3,4))
  10. ##通过某个特定概率分布中随机采样来得到张量中每个元素的值
  11. torch.randn(3,4) #均值0,标准差为1的正态分布中随机采样
  12. ##通过提供办好数值的python列表来为张量的每个元素赋值
  13. torch.tensor([2,1,4,3],[1,2,3,4],[4,3,2,1]]) #外层列表对应轴0,内层列表对应轴1
复制代码
1.1 运算符

  1. import torch
  2. x=torch.tensor([1,2,4,8])
  3. y=torch.tensor([2,2,2,2])
  4. x+y,x-y,x*y,x/y
  5. torch.exp(x)  #求幂
  6. x.sum()  #对张量中的所有元素求和,会产生一个单元素张量
复制代码


  • 多个张量毗连cat
  1. x=torch.arange(12,dtype=torch.float32).reshape(3,4)
  2. y=torch.tensor([[2.0,1.0,4.0,5.0],[3.0,2.0,1.0,2.0],[6.0,7.0,8.0,9.0]])
  3. torch.cat((x,y),dim=0),torch.cat((x,y),dim=1)
复制代码

1.2 广播机制

  1.1中看到如何在雷同形状的两个张量上实行按元素操作,在某些情况下,即使形状不同,我们仍然可以通过调用广播机制来实行按元素操作。这种机制的工作方式如下:
(1)通过得当复制元素来扩展一个或两个数组,以便在转换之后,两个张量具有雷同的形状;
(2)对生成的数组实行按元素操作
  在大多数情况下,我们将沿着数组中长度为1的轴进行广播,如下:
  1. import torch
  2. x=torch.arange(3).reshape(3,1)
  3. y=torch.arange(2).reshape(1,2)
  4. x,y
  5. x+y
复制代码

  由于x和y分别是3x1矩阵和1x2矩阵,它们的形状不匹配,如果相加,矩阵x将复制列,矩阵y将复制行,实现两个矩阵广播为一个更大的3x2矩阵。
1.3 索引和切片

  与python数组一样,张量中的元素可以通过索引访问,第一个元素的索引是0,最后一个元素的索引是-1。
  1. x=torch.arange(12,dtype=torch.float32).reshape(3,4)
  2. x[-1],x[1:3]
复制代码



  • 可以通过指定索引来将元素写入矩阵
  1. x[1,2]=9
  2. x
复制代码



  • 想为多个元素赋予雷同的值,只须要索引所有元素,然后为它们赋值。
  1. x[0:2,:]=12
  2. x
复制代码

1.4 转换为其他python对象

  将深度学习框架界说的张量转换为numpy张量很轻易,反之也同样轻易。torch张量和numpy数组将共享它们的底层内存,就地操作更改一个张量也会同时更改另一个张量。
  1. import torch
  2. a=x.numpy()
  3. b=torch.tensor(a)
  4. type(a),type(b)
复制代码



  • 要将大小为1的张量转换为python标量,可以调用item函数或python的内置函数。
  1. import torch
  2. a=torch.tensor([3.5])
  3. a,a.item(),float(a),int(a)
复制代码

二、数据预处理

  在python常用的数据分析中,通常利用pandas包,与庞大的python生态系统中的许多其他扩展包一样,pandas可以与张量兼容。接下来先容pandas预处理原始数据,并将原始数据转换为张量格式的步骤。
2.1 读取数据集

  1. import pandas as pd
  2. data =pd.read_excel('data.xlsx')
  3. print(data)
复制代码

2.2 处理缺失值

  通过位置索引 iloc,将data分成 inputs 和 outputs,其中前者为data的前两列,后者为data的最后一列,对于inputs 中的缺失值,用一列的均值替换NaN项。
  1. inputs,outputs=data.iloc[:,0:2],data.iloc[:,2]
  2. inputs=inputs.fillna(inputs.mean())
  3. print(inputs)
复制代码

  将NaN视为一个种别,由于Alley列只接受两种类型值Pave和NaN,pandas可以自动将此列转换为两列Alley_pave和Alley_nan。Alley列为pave的行会将Alley_pave的值设置为1,Alley_nan的值设置为0。
  1. inputs=pd.get_dummies(inputs,dummy_na=True)
  2. print(inputs)
复制代码

2.3 转换为张量格式



  • 如今inputs和outputs中的所有条目都是数值类型,它们可以转换为张量格式。
  1. X,y=torch.tensor(inputs.values),torch.tensor(outputs.values)
  2. X,y
复制代码

三、线性代数

3.1 标量

标量由只有一个元素的张量表示。
  1. x=torch.tensor(3.0)
  2. y=torch.tensor(2.0)
  3. x+y,x*y,x/y,x**y
复制代码

3.2 向量

  向量可以被视为标量值构成的列表,这些标量值被称为向量的元素。当向量表示数据会合的样本时,它们的值具有肯定的实际意义。在数学上,具有一个轴的张量表示向量。
  1. x=torch.arange(4)
  2. x
复制代码

与普通的python数组一样,可以通过调用python的内置函数len来访问张量的长度,shape属性访问向量的长度。
  1. X=torch.arange(12,dtype=torch.float32).reshape(3,4)
  2. len(X),X.shape
复制代码

3.3 矩阵

正如向量将标量从零阶推广到一维,矩阵将向量从一维推广到二维。在代码中表示为具有两个轴的张量。
  1. X=torch.arange(16).reshape(4,4)
  2. X,X.T
复制代码

3.4 张量算法的基本性子

标量、向量、矩阵和任意数量轴的张量由一些利用的属性。
  1. X=torch.arange(16).reshape(4,4)
  2. y=X.clone()  #通过分配新的内存,将X的一个副本分配给y
  3. X,X+y,X*y
复制代码

将张量加上或乘以一个标量不会改变张量的形状,其中张量的每个元素都将与标量相加或相乘。
  1. a=2
  2. X=torch.arange(24).reshape(2,3,4)
  3. a+X,(a*X).shape
复制代码

3.5 降维

我们可以对任意张量进行的一个有用的操作是盘算其元素的和。
  1. X=torch.arange(24).reshape(2,3,4)
  2. X,X.sum()
  3. X.sum(axis=0)#对所有的行元素求和
  4. X.sum(axis=1)#对所有的列元素求和
复制代码



  • 非降维求和
有时在调用函数来盘算总和或均匀值时保持轴数不变会很有用。keepdims=True
  1. A=torch.arange(20).reshape(5,4)
  2. sum_a=A.sum(axis=1)
  3. sum_A=A.sum(axis=1,keepdims=True)
  4. A,sum_a,sum_A,A/sum_A,A.cumsum(axis=0)#按行累计求和
复制代码

3.6 点积

点积:雷同位置的按元素乘积的和。
  1. x=torch.arange(4,dtype=torch.float32)
  2. y=torch.ones(4,dtype=torch.float32)
  3. x,y,torch.dot(x,y)
复制代码


  • 矩阵-向量积
利用mv函数表示矩阵-向量积,矩阵A和向量x调用torch.mv(A,x)时,实行矩阵-向量积。
  1. A=torch.arange(20).reshape(5,4)
  2. x=torch.arange(4)
  3. A,x,torch.mv(A,x)
复制代码



  • 矩阵-矩阵乘法(矩阵乘法)
  1. A=torch.arange(20,dtype=torch.float32).reshape(5,4)
  2. B=torch.ones(4,3)
  3. torch.mm(A,B)
复制代码

3.7 范数

  线性代数中最有用的一些运算符是范数,向量的范数表示一个向量有多大。这里思量的大小概念不涉及维度,而是分量的大小。在线性代数中,向量范数是将向量映射到标量的函数 f 。给定任意向量 x ,向量范数具有如下性子:
(1)如果按常数因子 ɑ 缩放向量的所有元素,其范数也会按雷同常熟因子的绝对值缩放:f(ɑx)=|ɑ|f(x)
(2)f(x+y)≤f(x)+f(y)
(3)非负性f(x)≥0
  范数很像间隔的度量,欧几里得间隔是一个L2范数:假设 n 维向量 x 中的元素是x1,…,xn,其L2范数是向量元素平方和的平方根。

  1. import torch
  2. u=torch.tensor([3.0,-4.0])
  3. torch.norm(u)
复制代码

深度学习中经常利用L2范数的平方,也会经常遇到L1范数,它表示为向量元素的绝对值之和:

与L2范数相比,L1范数受异常值的影响较小。为了盘算L1范数,我们将绝对值函数和按元素求和组合起来。
  1. torch.abs(u).sum()
复制代码

L2范数和L1范数都是更一般的LP范数的特例:

四、自动微分

  在深度学习中,我们“训练”模型,不停更新它们,使它们在见到越来越多的数据时变得越来越好。通常情况下,变得更盛情味着最小化一个损失函数,即一个衡量“模型有多糟糕”这个题目标分数。最终我们真正关心的是生成一个模型,它可以或许在从未见到过数据上表现良好。但“训练”模型只能将模型与我们实际见到的数据相拟合。因此,我们可以将拟合模型的使命分解为两个关键题目。


  • 优化:用模型拟合观察数据的过程。
  • 泛化:模型不仅在训练集表现良好,在未知的数据(测试集)也表现良好,即具有良好的泛化能力。
  求导是险些所有深度学习优化算法的关键步骤,虽然求导的盘算简单,但对于复杂的模型,手动进行更新是一件痛苦的事情,深度学习框架通过自动盘算导数,即自动微分来加快求导。实践中,根据计划好的模型,系统会构建一个盘算图,来跟踪盘算是哪些数据通过哪些操作组合起来产生输出。自动微分使系统可以或许随后反向传播梯度。这里,反向传播意味着跟踪整个盘算图,填充关于每个参数的偏导数。
  1. import torch
  2. x = torch.arange(4.0, requires_grad=True)  # 设置 requires_grad=True 使得 x 被标记为需要计算梯度的张量。
  3. y = 2 * torch.dot(x, x)
  4. y.backward()  #调用 y.backward() 后,x.grad 会保存 x 关于 y 的梯度。
  5. print(x.grad)  # 输出 x 的梯度
复制代码

函数y=2*x^2关于x的梯度应为4x,验证梯度是否正确:
  1. x.grad==4*x
复制代码

盘算x的另一个函数:
  1. x.grad.zero_() #将x的梯度清零的操作。通常在反向传播 (backward) 之前或之后调用它,目的是防止梯度的累积。
  2. y=x.sum()
  3. y.backward()
  4. x.grad
复制代码

4.1 分离盘算

  有时,我们盼望将某些盘算移到记载的盘算图之外。例如,假设y是作为x的函数盘算的,而z则是作为y和x的函数盘算的。想盘算z关于x的梯度,但由于某种缘故原由,盼望将y视为一个常数,并且只思量x在y被盘算后发挥的作用。
  这里可以分离y来返回一个新变量u,该变量与y具有雷同的值,但丢弃盘算图中如何盘算y的任何信息,换句话说,梯度不会向后流经u到x。因此,下面的反向传播函数盘算z=ux关于x的偏导数,同时将u作为常数处理,而不是盘算z=xx*x关于x的偏导数。
  1. x.grad.zero_()
  2. y=x*x
  3. u=y.detach() #创建一个新的张量 u,它是 y 的一个 detach 副本。detach() 是 PyTorch 中的一个方法,用于返回一个新的张量,该张量与原始张量 y 共享相同的数据,但不会参与梯度计算,也就是说,它与计算图分离了。
  4. z=u*x  # u 是通过 y.detach() 得到的,所以 u 不再跟踪梯度,而 x 仍然是需要梯度的。因此,这条语句不会改变 x 的梯度计算行为,但会产生一个新的张量 z。
  5. z.sum().backward() #计算 z 的所有元素的和,然后对其进行反向传播,计算 x 的梯度。
  6. x.grad==u #x.grad 会被更新,存储关于 x 的梯度值。
复制代码


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

王海鱼

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表