线性代数(8): 欧几里得空间自伴随映射的谱理论(2)

Posted by w@hidva.com on July 14, 2024

系列导言, 本文是作者在学习 Peter D. Lax 线性代数及其应用的读书笔记, 侧重于记录我当时没有看懂的部分, 以及对书中部分知识点的一些扩展. 非常零散, 不成系统. 对本系列的使用最好是读者也在学习 Peter D. Lax 线代并且恰好有某处不太明白, 可以参考着本系列说不定这里就有答案. 本系列文章在写作时参考了互联网上零零散散非常多的资料在此表示感谢!

定理 6, 原文这个定理 6 描述的我真没看懂. 我搜了一下应该是说: 若 HK 是可交换的自伴随矩阵. 则在公式 (24)’ 分解中 $H = M_H D_H M_H^*, K = M_K D_K M_K^*$ 这里 $M_H = M_K$, 即 H, K 具有相同的特征向量.

证明: 这里 $M_H, M_K$ 构造在定理 4’ 证明中, 由第 6 章定理 13 可知在构造 $M_H, M_K$ 时我们可以选择相同的 $f_i$, 从而使得 $M_H = M_K$, 即使此时 $D_H, D_K$ 可能不一定相同.

复数域上矩阵 $(kA)^* = \overline{k} A^*$, 证明: 显然.

P.S. $e^{Ht}$ 这里是 typo 吧? 应该是 $e^H$?.


定理 4 第二种证法, 略作补充:

  • 当 $z_1 \ne 0, z_i = 0$ 时, $\frac{a_i z_i^2}{z_i^2}$ 取值最小.

证明: 只要明白 $a_i \le \frac{a_i z_i^2 + a_j z_j^2}{z_i^2 + z_j^2} \le a_j$ 就行了. 一开始是懵了没反应过来.

P.S. 公式 (39)’ 只是说明了此时我们利用导数为 0 求得了一个特征值以及特征向量. 并无法说明这里所求特征值就是最小特征值 $a_1$, 毕竟导数为 0 只是意味着函数在该点一个邻域内到达最值, 并不一定是全局最小值.

  • 为啥只需要考虑 $K = {x \mid \lVert x \rVert = 1}$ 即可.

解: 由 $R(kx) = R(x)$ 可知 $R(x) = R(\frac{1}{\lVert x \rVert} x), \frac{1}{\lVert x \rVert} x \in K$, 即 $R(K) = R(\mathbb{R}^n)$.

  • $R(x) = \frac{(x, Hx)}{(x, x)}: \mathbb{R}^n \to \mathbb{R}$, 求 $\nabla R$.

解: 令 $f(x) = (x, Hx): \mathbb{R}^n \to \mathbb{R}$ 由 Tao 习题 17.4.4 可知 $\nabla R = \frac{(x,x) \nabla f - f \nabla (x,x)}{(x, x)^2}$.

$h(x) = (x,x) = \sum_{i=1}^n x_i^2$, 此时 $\nabla h = (\frac{\partial h}{\partial x_1}, \cdots, \frac{\partial h}{\partial x_n}) = (2x_1, \cdots, 2 x_n) = 2x$.

这里 $H(x): \mathbb{R}^n \to \mathbb{R}^n, H(x) = (H_1(x), \cdots, H_n(x))$ 即 $f(x) = \sum_{i=1}^n x_i H_i(x)$. 即 $\nabla f = \sum_{i=1}^n \nabla (x_i H_i(x))$, 由 Tao 例 17.4.2 引入的乘法法则可得 $\nabla (x_i H_i(x)) = H_i \nabla e_i + e_i \nabla H_i$ 这里 $e_i(x) = x_i$. $\sum_{i=1}^n H_i \nabla e_i = (H_1(x), \cdots, H_n(x)) = Hx$, 别忘了 $H_i$ 等同于 H 第 i 行. 同理 $\sum_{i=1}^n e_i \nabla H_i = Hx$. 所以 $\nabla f = 2Hx$.

P.S. 如上计算中有一些需要转置, 有一些不需要… 我草稿中搞清楚了= 这里记录的时候就不强调了..

P.S. 这也算是 陶哲轩实分析: 多元微积分链式法则 第一次实战了. 由如上过程可以看到为啥 Tao 在 17.4.2 只讨论了 $f: \mathbb{R}^n \to \mathbb{R}$ 相关求导法则, 因为 $g: \mathbb{R}^n \to \mathbb{R}^m$ 可以视为 $g=(g_1, \cdots, g_m), g_i: \mathbb{R}^n \to \mathbb{R}$.

P.S. $\nabla R(x_0) = 0$ 意味着 $(x_0, x_0) H x_0 = (x_0, Hx_0) x_0$, 即 $H x_0 = \frac{(x_0, Hx_0)}{(x_0, x_0)} x_0$, 即 $x_0$ 是 H 本征值为 $R_H(x_0)$ 的特征向量.

  • 为什么敢设 R(x) 在 f 处取得最小值. 即为啥 R(x) 能取到最小值.

解: 如上讨论可以看到 R 可微即连续, 结合 7.3.zy5 与 Tao 定理 13.3.2 最大值原理可证.

  • $X_1$ 的一些情况.

这里 $X_1$ 是 n-1 维的, 在 $R_H: X_1 \to X_1$ 中仍有 $R_H(kx) = R_H(x)$. 考虑集合 $T_1 = {x \in X_1 \mid \lVert x \rVert = 1}$, 根据定理 4 我们可以在 $X_1$ 找到标准正交基, $T_1$ 对应着 n-1 维欧几里得空间半径为 1 的球边界, 由 7.3.zy2 可知 $T_1$ 是紧致的. $R_H$ 连续性已知, 所以由 Tao 定理 13.3.2 最大值原理可知 $R_H$ 在 $X_1$ 上也达到极值.


定理 10, 略作补充

  • j 维子空间 S 包含 (43) 要求的 x.

证明: 定义映射 $f(x) = \sum_{i=1}^{j-1}(x, f_i) f_i$. 易证 f 是线性映射 $f: S \to \mbox{span}(f_1, \cdots, f_{j-1})$. 则由第 3 章推论 A 可知 $\exists x \ne 0, f(x) = 0$ 意味着 $(x, f_i) = 0, i = 1, \cdots, j-1$.


正定的, 这里对于复欧几里得空间 X, (x, Mx) 也是实数. 由 $(Mx, x) = (x, Mx) = \overline{(Mx, x)}$ 可证.

正定的自伴随矩阵 M 一定是可逆的. 这里正定意味着引理 2 中 $p_+ = n$, 即所有特征值都是大于 0 的. $\det M = \det D \gt 0$, D 为与 M 相似的对角矩阵, 对角元素全是 M 的特征值.

P.S. 存在不可逆的自伴随矩阵.

练习 5, 定义一个新的内积运算 $(x, y)_1 = (x, My)$ 易证 $(,)_1$ 是个合法的内积运算. 在此新内积运算下, $M^{-1} H$ 是个自伴随矩阵, 即 $(M^{-1} H x, y)_1 = (x, M^{-1} H y)_1$. 再次回到定理 4 第二种证明, 将证明中 $(,)$ 运算替换为 $(,)_1$, H 替换为 $M^{-1} H$, 整个证明也是能走通的. 练习 5(c), 这里约束即定理 4 证明中 “f 的正交补 $X_1$”.