直和
\[dim(V_1 + V_2) + dim(V_1 \cap V_2) = dim V_1 + dim V_2\]直和: 若 $V_1 \cap V_2$ = {0} , 则 $V_1 + V_2$ 称为直和, 记作 $V_1 \oplus V_2$。
定理 以下结论等价:
- $V_1$ 与 $V_2$ 为直和
- 对一切 $U \in V_1 + V_2$, 均存在唯一的 $U_1 \in V_1$, $U_2 \in V_2$, 使得 $U = V_1 + V_2$。
- 若 $U_1 + U_2 = 0$, $U_1 \in V_1$, $U_2 \in V_2$, 则 $U_1 = U_2 = 0$
- 若 {$v_1, v_2, …, v_k$} 是 $V_1$ 的基, {$u_1, u_2, …, u_n$} 为 $V_2$ 的基, 则 {$v_1, …, u_n$} 为 $V_1 + V_2$ 的基
- $dim V_1 + dimV_2 = dim (V_1 + V_2)$
线性变换
\[f: \mathbb{R} \rightarrow \mathbb{R} \\ x \rightarrow kx \\ f(x + y) = f(x) + f(y) \\ f(lx) = lf(x)\]定义:$ \mathcal{A}: V \rightarrow \mathcal{V}$, 满足:
- 对一切 $v_1, v_2 \in V$, 有 $\mathcal{A}(v_1 + v_2) = \mathcal{A}v_1 + \mathcal{A}v_2$
- 对一切 $v \in V, k \in \mathcal{F}$, 有 $\mathcal{A}(kv) = k(\mathcal{A}v)$
则 $\mathcal{A}$ 称为 $V$ 上的线性变换
$V$ 上一切线性变换 $End(V)$, $A \in End(A)$
线性变换与子矩阵
-
Previous
【深度学习】SIMVLM: SIMPLE VISUAL LANGUAGE MODEL PRE-TRAINING WITH WEAK SUPERVISION -
Next
【深度学习】Align before Fuse: Vision and Language Representation Learning with Momentum Distillation