人工智能必知必会-向量的加减

人工智能人话翻译官
3个月前 阅读 17 点赞 0

前文导读:

人工智能必知必会-前言

人工智能必知必会-标量,向量,矩阵,张量

什么是向量

在很多文献中你看到的向量会这么表示:a\vec{a} ,代表向量a。

关于向量最重要的就是你要知道它的起点和终点,如果没有说明起点,我们把原点[00] \begin{bmatrix} 0 \\ 0 \\ \end{bmatrix} 认为是默认起点。

所以你看到的向量:[01]\begin{bmatrix} 0 \\ 1 \\ \end{bmatrix} 代表的就是以为(0,0)为起点以(0,1)为终点的向量,这代表了一个向量的方向。

另外你要知道向量是有距离的也就是我们常数的模长。数学符号为|a\vec{a} |或者 |a|。

例如向量[34] \begin{bmatrix} 3 \\ 4 \\ \end{bmatrix}  ,就代表以(0,0)为起点,以(3,4)为终点的线段。模长为5 ((30)2+(40)2\sqrt{{(3-0)^2} + {(4-0)^2}} )

向量的加减

导入numpy库

import numpy as np
#生成向量v1, v2,进行向量加法运算
v1 = np.array([1,0])
v2 = np.array([0,1])
v1 + v2

输出

array([1, 1])


#生成向量v3, 进行向量减法运算
v3 = np.array([1,1])
v3 - v1

输出

array([0, 1])


物理意义

重点要掌握向量加减的物理意义: 

加法,两相加之后的结果会与原向量角度变近 

加法的平行四边形法则 v1 + v2 :

减法,两相加之后的结果会与原向量角度变远 

减法的平行四边形法则 v3 - v1,相当先给v1加上一个负号由(1,0)变成(-1, 0),再进行加法操作:






| 0
登录后可评论,马上登录吧~
评论 ( 0 )

还没有人评论...

相关推荐