什么是张量?
张量(Tensor)是深度学习和机器学习中一个非常基础且重要的概念。在数学上,张量可以被看作是向量和矩阵的泛化。简单来说,张量是一种多维数组,它可以表现标量(0维)、向量(1维)、矩阵(2维)以及更高维度的数据结构。
张量的基本概念
- 标量(Scalar, 0D Tensor):只有一个数值,没有方向。
- 向量(Vector, 1D Tensor):一维数组,可以表现一系列数值。
- 比方:[1, 2, 3] 或 [0.1, 0.2, 0.3, 0.4]
- 矩阵(Matrix, 2D Tensor):二维数组,可以表现行和列组成的表格。
- 比方:[[1, 2, 3],
[4, 5, 6]]
高维张量(Higher-Dimensional Tensors):三维或更高维度的数组。
- 比方,三维张量可以表现为[[[1, 2, 3],
[4, 5, 6]],
[[7, 8, 9],
[10, 11, 12]]]
- 这个三维张量可以看作是由两个二维矩阵组成的。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |