人工智能必知必会-标量,向量,矩阵,张量

人工智能人话翻译官
3个月前 阅读 65 点赞 0

前文导读:人工智能必知必会-前言

在深度学习中的数,可以分为以下几类: 

标量:2

向量:[13]\begin{bmatrix} 1 \\ 3 \\ \end{bmatrix}

矩阵:[1234]\begin{bmatrix} 1 & 2 \\ 3 & 4 \\ \end{bmatrix} 

我们为了更好的记忆,可以把他们做一下物理意义的比较:

  1. 标量就是一维上的点。
  2. 向量就是平面上的一条线。
  3. 矩阵就是空间中的一个平面。
  4. 在更高维度的空间中矩阵可以堆叠成一个体。

这样是不是比较有感觉,在深度学习中,把他们统称为tensor,张量

标量就是1维度张量,向量是2维张量,平面是3维张量,以此类推可以到更高的维度。


你可以把矩阵想成是向量的堆叠。例如你把向量[13]\begin{bmatrix} 1 \\ 3 \\ \end{bmatrix}[24] \begin{bmatrix} 2 \\ 4 \\ \end{bmatrix} 拼到一起就是矩阵[1234]\begin{bmatrix} 1 & 2 \\ 3 & 4 \\ \end{bmatrix}  。 

矩阵由行和列组成,像刚才的矩阵,行为2,列为2,他的形状就记为2X2。 

记住,要使用tensor,先要搞清楚形状,这是最重要的!



| 0
登录后可评论,马上登录吧~
评论 ( 0 )

还没有人评论...

相关推荐