<基础数学> 平面向量基本定理

平面向量基本定理

  1. 向量平行
    a ⃗ / / b ⃗ ( b ⃗ ≠ 0 ⃗ )的充要条件是 \vec{a} // \vec{b}( \vec{b}\neq \vec{0})的充要条件是 a //b (b =0 )的充要条件是 x 1 y 2 − y 1 x 2 = 0 x_1y_2-y_1x_2=0 x1y2−y1x2=0
  2. 向量垂直
    a ⃗ ⊥ b ⃗ ⇔ a ⃗ ⋅ b ⃗ = 0 , \vec{a} \bot \vec{b} \Leftrightarrow \vec{a} \cdot \vec{b}=0, a ⊥b ⇔a ⋅b =0, 即 x 1 x 2 + y 1 y 2 = 0 即x_1x_2+y_1y_2=0 即x1x2+y1y2=0
  3. 向量角度
    c o s θ = a ⃗ ⋅ b ⃗ ∣ a ⃗ ∣ ∣ b ⃗ ∣ = x 1 x 2 + y 1 y 2 ( x 1 ) 2 + ( y 1 ) 2 + ( x 2 ) 2 + ( y 2 ) 2 cos \theta=\frac{\vec{a} \cdot \vec{b}}{|\vec{a}||\vec{b}|}=\frac{x_1x_2+y_1y_2}{\sqrt{(x_1)^2+(y_1)^2}+\sqrt{(x_2)^2+(y_2)^2}} cosθ=∣a ∣∣b ∣a ⋅b =(x1)2+(y1)2 +(x2)2+(y2)2 x1x2+y1y2
  4. 向量同向和反向
    当 a ⃗ 与 b ⃗ 同向时, a ⃗ ⋅ b ⃗ = ∣ a ⃗ ∣ ∣ b ⃗ ∣ ; 当\vec{a}与\vec{b}同向时,\vec{a} \cdot \vec{b}=|\vec{a}||\vec{b}|; 当a 与b 同向时,a ⋅b =∣a ∣∣b ∣;
    当 a ⃗ 与 b ⃗ 反向时, a ⃗ ⋅ b ⃗ = − ∣ a ⃗ ∣ ∣ b ⃗ ∣ ; 当\vec{a}与\vec{b}反向时,\vec{a} \cdot \vec{b}=-|\vec{a}||\vec{b}|; 当a 与b 反向时,a ⋅b =−∣a ∣∣b ∣;
相关推荐
lizz3138 分钟前
机器学习中的线性代数:奇异值分解 SVD
线性代数·算法·机器学习
ChoSeitaku1 天前
NO.24十六届蓝桥杯备战|二维数组八道练习|杨辉三角|矩阵(C++)
c++·线性代数·矩阵
取个名字真难呐1 天前
nn.Identity 单位矩阵,同一矩阵
深度学习·线性代数·矩阵
菠萝派爱跨境1 天前
海外矩阵社媒该如何防关联,降低封号率?
大数据·线性代数·矩阵
我能突破桎梏2 天前
差分矩阵问题
java·线性代数·矩阵
code 旭2 天前
矩阵逆 逆矩阵
人工智能·python·线性代数·矩阵·numpy
阿正的梦工坊2 天前
Hessian 矩阵的正定性与目标函数凸性的证明
线性代数·矩阵
一小路一2 天前
通往 AI 之路:Python 机器学习入门-线性代数
开发语言·人工智能·后端·python·线性代数·机器学习
sda423423424233 天前
11.【线性代数】——矩阵空间,秩1矩阵,小世界图
线性代数·矩阵空间
蹦蹦跳跳真可爱5893 天前
Python----线性代数(线性代数基础:标量,向量,矩阵,张量)
python·线性代数·矩阵