forked from kf-liu/The-Art-of-Linear-Algebra-zh-CN
-
Notifications
You must be signed in to change notification settings - Fork 0
/
The-Art-of-Linear-Algebra-zh-CN.tex
695 lines (563 loc) · 19.5 KB
/
The-Art-of-Linear-Algebra-zh-CN.tex
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
\documentclass[letterpaper]{article}
\usepackage{typearea}
\typearea{12}
\usepackage{here}
\usepackage{bm}
\usepackage{amsmath, amsfonts}
\usepackage[top=20truemm,bottom=20truemm,left=25truemm,right=25truemm]{geometry}
\usepackage[dvipdfmx]{hyperref,graphicx}
\usepackage{xeCJK}
% incorporated from Linear Algebra for Everyone 7/18/2022
\newcommand{\bi}[1]{\hbox{\boldmath$#1$}}
\DeclareRobustCommand\transp{^{\mathrm{T}}}
\DeclareMathAlphabet{\cmrv}{OML}{cmm}{b}{it}
\newcommand{\bu}{\hbox{\boldmath$u$}}
\newcommand{\bv}{\hbox{$\cmrv{v}$}}
\newcommand{\bw}{\hbox{\boldmath$w$}}
\newcommand\mat{{\sf MATLAB}}
%
% prepare to move figures
\graphicspath{ {figs/} }
\begin{document}
\title{The Art of Linear Algebra\\
\vspace{5pt}
\large{
-- Graphic Notes on ``Linear Algebra for Everyone" --
}
}
\author{Kenji Hiranabe
\thanks{twitter: @hiranabe, [email protected], \url{https://anagileway.com}} \\
with the kindest help of Gilbert Strang
\thanks{Massachusetts Institute of Technology, \url{http://www-math.mit.edu/\~gs/}} \\
translator: Kefang Liu
\thanks{twitter: \href{https://twitter.com/KFChLiu}{@kfchliu}, 微博用户: \href{https://weibo.com/u/5717297833}{5717297833}}
}
\date{September 1, 2021/updated \today}
\maketitle
\vspace{-5pt}
\begin{abstract}
我尝试为 Gilbert Strang 在书籍 “Linear Algebra for Everyone” 中介绍的矩阵的重要概念进行可视化图释,
以促进从矩阵分解的角度对向量、矩阵计算和算法的理解.
\footnote{``Linear Algebra for Everyone":
\url{http://math.mit.edu/everyone/}.}
它们包括矩阵分解 (Column-Row, $\bm{CR}$)、
高斯消去法 (Gaussian Elimination, $\bm{LU}$)、
格拉姆-施密特正交化 (Gram-Schmidt Orthogonalization, $\bm{QR}$)、
特征值和对角化 (Eigenvalues and Diagonalization, $\bm{Q \Lambda Q\transp}$)、
和奇异值分解 (Singular Value Decomposition, $\bm{U \Sigma V\transp}$).
\end{abstract}
\section*{序言}
我很高兴能看到 Kenji Hiranabe 的线性代数中的矩阵运算的图片!
这样的图片是展示代数的绝佳方式. 我们当然可以通过 行 $\bm{\cdot}$ 列 的点乘来想象矩阵乘法,
但那绝非全部 —— 它是``线性组合"与``秩1矩阵"组成的代数与艺术.
我很感激能看到日文翻译的书籍和 Kenji 的图片中的想法.
\begin{flushright}
-- Gilbert Strang \\ 麻省理工学院数学教授
\end{flushright}
\tableofcontents
\section{理解矩阵——4个视角}
一个矩阵 ($m \times n$) 可以被视为$1$个矩阵, $mn$个数, $n$个列和$m$个行.
\begin{figure}[H]
\centering
\includegraphics[scale=0.8]{ViewingMatrix-4Ways.eps}\\
\caption{从四个角度理解矩阵}
\end{figure}
\begin{equation*}
A= \begin{bmatrix}
a_{11} & a_{12}\\
a_{21} & a_{22}\\
a_{31} & a_{32}
\end{bmatrix}
=
\begin{bmatrix}
| & |\\
\bm{a_1} & \bm{a_2}\\
| & |
\end{bmatrix}
=
\begin{bmatrix}
- \bm{a_1^*} -\\
- \bm{a_2^*} -\\
- \bm{a_3^*} -
\end{bmatrix}
\end{equation*} \\
在这里, 列向量被标记为粗体$\bm{a_1}$.
行向量则有一个$\bm{*}$号, 标记为$\bm{a_1^*}$.
转置向量和矩阵则用$\mathrm{T}$标记为
$\bm{a}\transp$和$A\transp$.
\section{向量乘以向量——2个视角}
后文中, 我将介绍一些概念, 同时列出“Linear Algebra for Everyone”一书中的相应部分 (部分编号插入如下).
详细的内容最好看书, 这里我也添加了一个简短的解释, 以便您可以通过这篇文章尽可能多地理解.
此外, 每个图都有一个简短的名称, 例如 v1 (数字 1 表示向量的乘积)、Mv1 (数字 1 表示矩阵和向量的乘积), 以及如下图 (v1) 所示的彩色圆圈.
如你所见, 随着讨论的进行, 该名称将被交叉引用.
\begin{itemize}
\item 1.1节 (p.2) Linear combination and dot products
\item 1.3节 (p.25) Matrix of Rank One
\item 1.4节 (p.29) Row way and column way
\end{itemize}
\begin{figure}[H]
\centering
\includegraphics[scale=0.8]{VectorTimesVector.eps}
\caption{向量乘以向量 - (v1), (v2)}
\end{figure}
(v1) 是两个向量之间的基础运算, 而 (v2) 将列乘以行并产生一个秩1矩阵.
理解 (v2) 的结果 (秩1) 是接下来章节的关键.
\section{矩阵乘以向量——2个视角}
一个矩阵乘以一个向量将产生三个点积组成的向量 (Mv1) 和
一种$A$的列向量的线性组合.
\begin{itemize}
\item 1.1节 (p.3) Linear combinations
\item 1.3节 (p.21) Matrices and Column Spaces
\end{itemize}
\begin{figure}[H]
\centering
\includegraphics[scale=0.8]{MatrixTimesVector.eps}
\caption{矩阵乘以向量- (Mv1), (Mv2)}
\end{figure}
往往你会先学习 (Mv1). 但当你习惯了从 (Mv2) 的视角看待它, 会理解$A\bm{x}$是$A$的列的线性组合.
矩阵$A$的列向量的所有线性组合生成的子空间记为$\mathbf{C}(A)$.
$A\bm{x}=\bm{0}$的解空间则是零空间, 记为$\mathbf{N}(A)$.
同理, 由 (vM1) 和 (vM2) 可见, 行向量乘以矩阵也是同一种理解方式.
\begin{figure}[H]
\centering
\includegraphics[scale=0.8]{VectorTimesMatrix.eps}
\caption{向量乘以矩阵 - (vM1), (vM2)}
\end{figure}
上图$A$的行向量的所有线性组合生成的子空间记为$\mathbf{C}(A\transp)$.
$yA=0$的解空间是$A$的左零空间, 记为 $\mathbf{N}(A\transp)$.
本书的一大亮点即为四个基本子空间: 在$\mathbb{R}^n$ 上的
$\mathbf{N}(A)$ + $\mathbf{C}(A\transp)$ (相互正交)
和在$\mathbb{R}^m$ 上的$\mathbf{N}(A\transp)$ + $\mathbf{C}(A)$ (相互正交).
\begin{itemize}
\item 3.5节 (p.124) Dimensions of the Four Subspaces
\end{itemize}
\begin{figure}[H]
\centering
\includegraphics[keepaspectratio, width=8cm]{4-Subspaces.eps}
\caption{四个子空间}
\end{figure}
关于秩$r$, 请见$A=CR$ (6.1节) .
\section{矩阵乘以矩阵——4个视角}
由``矩阵乘以向量"自然延伸到``矩阵乘以矩阵".
\begin{itemize}
\item 1.4节 (p.35) Four ways to multiply $\bm{AB=C}$
\item 也可以见书的封底
\end{itemize}
\begin{figure}[H]
\centering
\includegraphics[scale=0.8]{MatrixTimesMatrix.eps}
\caption{矩阵乘以矩阵 - (MM1), (MM2), (MM3), (MM4)}
\end{figure}
\section{实用模式}
在这里, 我展示了一些实用的模式, 可以让你更直观地理解接下来的内容。
\begin{figure}[H]
\centering
\includegraphics[scale=0.8]{Pattern12.eps}
\caption{图 1, 2 - (P1), (P1)}
\end{figure}
P1 是 (MM2) 和 (Mv2) 的结合.
P2 是 (MM3) 和 (vM2) 的扩展.
注意, P1 是列运算 (右乘一个矩阵),
而 P2 是行运算 (左乘一个矩阵).
\begin{figure}[H]
\centering
\includegraphics[scale=0.8]{Pattern11-22.eps}
\caption{图 1$^\prime$, 2$^\prime$ - (P1$^\prime$), (P2$^\prime$)}
\end{figure}
(P1$^\prime$) 将对角线上的数乘以矩阵的列,
而 (P2$^\prime$) 将对角线上的数乘以矩阵的行.
两个分别为 (P1) 和 (P2) 的变体.
\begin{figure}[H]
\centering
\includegraphics[scale=0.85]{Pattern3.eps}
\caption{图 3 - (P3)}\label{fig:P3}
\end{figure}
当解决微分方程和递归方程时的也会出现这一模式:
\begin{itemize}
\item 6节 (p.201) Eigenvalues and Eigenvectors
\item 6.4节 (p.243) Systems of Differential Equations
\end{itemize}
\begin{align*}
\frac{d \bm{u}(t) }{dt} &= A \bm{u}(t), \quad \bm{u}(0)=\bm{u}_0\\
\bm{u}_{n+1} &= A \bm{u}_n, \quad \bm{u_0} = \bm{u}_0
\end{align*}
在两种问题中, 它的解都可以用$A$的特征值($\lambda_1, \lambda_2, \lambda_3$)、
特征向量$X=\begin{bmatrix} \bm{x}_1 & \bm{x}_2 & \bm{x}_3 \end{bmatrix}$
和系数$c=\begin{bmatrix} c_1 & c_2 & c_3 \end{bmatrix}\transp$表示.
其中$C$是以$X$为基底的初始值$\bm{u}(0)=\bm{u}_0$的坐标.
\begin{equation*}
\bm{u}_0 = c_1 \bm{x}_1 + c_2 \bm{x}_2 + c_3 \bm{x}_3
\end{equation*}
\begin{equation*}
\bm{c} =
\begin{bmatrix}
c_1\\
c_2\\
c_3
\end{bmatrix} = X^{-1} \bm{u}_0
\end{equation*}
以上两个问题的通解为:
\begin{align*}
\bm{u}(t) &= e^{At} \bm{u}_0 = X e^{\Lambda t} X^{-1} \bm{u_0} &= X e^{\Lambda t} \bm{c} &= c_1 e^{\lambda_1 t} \bm{x}_1 + c_2 e^{\lambda_2 t} \bm{x}_2 + c_3 e^{\lambda_3 t} \bm{x}_3\\
\bm{u}_n &= A^n \bm{u}_0 = X \Lambda^n X^{-1} \bm{u_0} &= X \Lambda^n \bm{c} &= c_1 \lambda_1^n \bm{x}_1 + c_2 \lambda_2^n \bm{x}_2 + c_3 \lambda_3^n \bm{x}_3
\end{align*}
见Figure\ref{fig:P3}: 通过P3可以得到$XDc$.
\begin{figure}[H]
\centering
\includegraphics[scale=0.8]{Pattern4.eps}
\caption{Pattern 4 - (P4)}
\end{figure}
P4在特征值分解和特异值分解中都会用到.
两种分解都可以表示为三个矩阵之积, 其中中间的矩阵均为对角矩阵.
且都可以表示为带特征值/特异值系数的秩1矩阵之积.
更多细节将在下一节中讨论.
\clearpage
\section{矩阵的五种分解}
\begin{itemize}
\item 前言 p.vii, The Plan for the Book.
\end{itemize}
$A=CR, A=LU, A=QR, A=Q \Lambda Q\transp, A=U \Sigma V\transp$ 将一一说明.
\begin{table}[h]
\begin{tabular}{lll}
\Large{\boldmath $A=CR$} & \includegraphics{A_CR.eps} &
\begin{tabular}{l}
$C$为$A$的线性无关列\\
$R$为$A$的行阶梯形矩阵\\
可推知 列秩 = 行秩
\end{tabular}\\
\Large{\boldmath $A=LU$} & \includegraphics{A_LU.eps} &
\begin{tabular}{l}
$LU$分解通过\\
高斯消去法\\
(下三角)(上三角)
\end{tabular}\\
\Large{\boldmath $A=QR$} & \includegraphics{A_QR.eps} &
\begin{tabular}{l}
$QR$分解为\\
格拉姆-施密特正交化中的\\
正交矩阵$Q$和三角矩阵$R$
\end{tabular}\\
\Large{\boldmath $S=Q\Lambda Q\transp$} & \includegraphics{A_QLQT.eps} &
\begin{tabular}{l}
对称矩阵$S$可以进行\\
特征值分解\\
特征向量组成$Q$, 特征值组成$\Lambda$
\end{tabular}\\
\Large{\boldmath $A=U\Sigma V\transp$} & \includegraphics{A_USVT.eps} &
\begin{tabular}{l}
所有矩阵$A$的\\
奇异值分解 \\
奇异值组成$\Sigma$
\end{tabular}
\end{tabular}
\caption{五种分解}
\end{table}
\subsection{$\boldsymbol{A=CR}$}
\begin{itemize}
\item 1.4节 Matrix Multiplication and $\bm{A=CR}$ (p.29)
\end{itemize}
所有一般的长矩阵$A$都有相同的行秩和列秩.
这个分解是理解这一定理最直观的方法.
$C$由$A$的线性无关列组成, $R$为$A$的行阶梯形矩阵 (消除了零行).
$A=CR$将$A$化简为$r$的线性无关列$C$和线性无关行$R$的乘积.
\begin{equation*}
\begin{split}
A &= CR\\
\begin{bmatrix}
1 & 2 & 3 \\
2 & 3 & 5
\end{bmatrix}
& =
\begin{bmatrix}
1 & 2 \\
2 & 3
\end{bmatrix}
\begin{bmatrix}
1 & 0 & 1 \\
0 & 1 & 1
\end{bmatrix}
\end{split}
\end{equation*}
推导过程: 从左往右看$A$的列. 保留其中线性无关的列, 去掉可以由前者线性表出的列.
则第1、2列被保留, 而第三列因为可以由前两列之和表示而被去掉.
而要通过线性无关的1、2两列重新构造出$A$, 需要右乘一个行阶梯矩阵$R$.
\begin{figure}[H]
\centering
\includegraphics[scale=0.8]{CR1.eps}
\caption{$CR$中列的秩}
\end{figure}
现在你会发现行的秩为2, 因为$C$中只有2个线性无关列.
而$A$中所有的列都可以由$C$中的2列线性表出.
\begin{figure}[H]
\centering
\includegraphics[scale=0.8]{CR2.eps}
\caption{$CR$中行的秩}
\end{figure}
同样, 列秩也为2, 因为$R$中只有2个线性无关行, 且$A$中所有的行都可以由$R$中的2行线性表出.
\subsection{$\boldsymbol{A=LU}$}
用高斯消除法求解$A\bm{x}=\bm{b}$也被称为$LU$分解.
通常, 是$A$左乘一个初等行变换矩阵($E$)来得到一个上三角矩阵$U$.
\begin{align*}
EA &= U\\
A &= E^{-1}U\\
\text{let} \; L = E^{-1}, \quad A &= LU
\end{align*}
现在, 求解$A\bm{x}=\bm{b}$有2步: (1)求解$L\bm{c}=\bm{b}$, (2)代回$U\bm{x}=\bm{c}$.
\begin{itemize}
\item 2.3节 (p.57) Matrix Computations and $\bm{A=LU}$
\end{itemize}
在这里, 我们直接通过$A$计算$L$和$U$.
\begin{equation*}
A =
\begin{bmatrix}
|\\
\bm{l}_1\\
|
\end{bmatrix}
\begin{bmatrix}
- \bm{u}^*_1 -
\end{bmatrix}
+ \begin{bmatrix}
0 & \begin{matrix} 0 & 0 \end{matrix}\\
\begin{matrix} 0 \\ 0 \end{matrix} & A_2
\end{bmatrix}
=
\begin{bmatrix}
|\\
\bm{l}_1\\
|
\end{bmatrix}
\begin{bmatrix}
- \bm{u}^*_1 -
\end{bmatrix}
+
\begin{bmatrix}
|\\
\bm{l}_2\\
|
\end{bmatrix}
\begin{bmatrix}
- \bm{u}^*_2 -
\end{bmatrix}
+ \begin{bmatrix}
0 & 0 & 0\\
0 & 0 & 0 \\
0 & 0 & A_3
\end{bmatrix} = LU
\end{equation*}
\begin{figure}[H]
\centering
\includegraphics[scale=0.8]{LU1.eps}
\caption{$A$的递归秩1矩阵分离}
\end{figure}
要计算$L$和$U$, 首先分离出由$A$的第一行和第一列组成的外积.
余下的部分为$A_2$.
递归执行此操作, 将$A$分解为秩1矩阵之和.
\begin{figure}[H]
\centering
\includegraphics[scale=0.8]{LU2.eps}
\caption{由$LU$重新构造$A$}
\end{figure}
由$L$乘以$U$来重新构造$A$则相对简单.
\subsection{$\boldsymbol{A=QR}$}
$A=QR$是在保持$\bm{C}(A) = \bm{C}(Q)$的条件下, 将$A$转化为正交矩阵$Q$.
\begin{itemize}
\item 4.4节 Orthogonal matrices and Gram-Schmidt (p.165)
\end{itemize}
在格拉姆-施密特正交化中, 首先, 单位化的$\bm{a}_1$被用作$\bm{q}_1$,
然后求出$\bm{a}_2$与$\bm{q}_1$正交所得到的$\bm{q}_2$, 以此类推.
\begin{align*}
\bm{q}_1 &= \bm{a}_1/||\bm{a}_1|| \\
\bm{q}_2 &= \bm{a}_2 - (\bm{q}_1\transp \bm{a}_2)\bm{q}_1 , \quad \bm{q}_2 = \bm{q}_2/||\bm{q}_2|| \\
\bm{q}_3 &= \bm{a}_3 - (\bm{q}_1\transp \bm{a}_3)\bm{q}_1 - (\bm{q}_2\transp \bm{a}_3)\bm{q}_2, \quad \bm{q}_3 = \bm{q}_3/||\bm{q}_3||
\end{align*}
或者你也可以写作$r_{ij} = \bm{q}_i\transp \bm{a}_j$:
\begin{align*}
\bm{a}_1 &= r_{11}\bm{q}_1\\
\bm{a}_2 &= r_{12}\bm{q}_1 + r_{22} \bm{q}_2\\
\bm{a}_3 &= r_{13}\bm{q}_1 + r_{23} \bm{q}_2 + r_{33} \bm{q}_3
\end{align*}
原本的$A$就可以表示为$QR$: 正交矩阵乘以上三角矩阵.
\begin{gather*}
A =
\begin{bmatrix}
| & | & |\\
\bm{q}_1 & \bm{q}_2 & \bm{q}_3\\
| & | & |
\end{bmatrix}
\begin{bmatrix}
r_{11} & r_{12} & r_{13}\\
& r_{22} & r_{23}\\
& & r_{33}
\end{bmatrix} = QR\\
\\
Q Q\transp=Q\transp Q = I
\end{gather*}
\begin{figure}[H]
\centering
\includegraphics[scale=0.8]{QR.eps}
\caption{$A=QR$}
\end{figure}
$A$的列向量就可以转化为一个正交集合: $Q$的列向量.
$A$的每一个列向量都可以用$Q$和上三角矩阵$R$重新构造出.
图释可以回头看P1.
\subsection{$\boldsymbol{S=Q \Lambda Q\transp}$}
所有对称矩阵$S$都必须有实特征值和正交特征向量.
特征值是$\Lambda$的对角元素, 特征向量在$Q$中.
\begin{itemize}
\item 6.3节 (p.227) Symmetric Positive Definite Matrices
\end{itemize}
\begin{align*}
S = Q \Lambda Q\transp
&= \begin{bmatrix}
| & | & |\\
\bm{q}_1 & \bm{q}_2 & \bm{q}_3\\
| & | & |
\end{bmatrix}
\begin{bmatrix}
\lambda_1 \\
& \lambda_2 & \\
& & \lambda_3
\end{bmatrix}
\begin{bmatrix}
- \bm{q}_1\transp -\\
- \bm{q}_2\transp -\\
- \bm{q}_3\transp -
\end{bmatrix}\\
\\
&=
\lambda_1 \begin{bmatrix}
|\\
\bm{q}_1\\
|
\end{bmatrix}
\begin{bmatrix}
- \bm{q}_1\transp -
\end{bmatrix}
+
\lambda_2 \begin{bmatrix}
|\\
\bm{q}_2\\
|
\end{bmatrix}
\begin{bmatrix}
- \bm{q}_2\transp -
\end{bmatrix}
+
\lambda_3 \begin{bmatrix}
|\\
\bm{q}_3 \\
|
\end{bmatrix}
\begin{bmatrix}
- \bm{q}_3\transp -
\end{bmatrix} \\
&= \lambda_1 P_1 + \lambda_2 P_2 + \lambda_3 P_3
\end{align*}
\begin{equation*}
P_1=\bm{q}_1 \bm{q}_1\transp, \quad P_2=\bm{q}_2 \bm{q}_2\transp, \quad P_3=\bm{q}_3 \bm{q}_3\transp
\end{equation*}
\begin{figure}[H]
\centering
\includegraphics[scale=0.8]{EVD.eps}
\caption{$S=Q \Lambda Q\transp$}
\end{figure}
一个对称矩阵$S$通过一个正交矩阵$Q$和它的转置矩阵, 对角化为$\Lambda$.
然后被分解为一阶投影矩阵$P=qq\transp$的组合. 这就是谱定理.
注意, 这里的分解用到了P4.
\begin{gather*}
S=S\transp = \lambda_1 P_1 + \lambda_2 P_2 + \lambda_3 P_3\\
QQ\transp = P_1 + P_2 + P_3 = I \\
P_1 P_2 = P_2 P_3 = P_3 P_1 = O\\
P_1^2 =P_1=P_1\transp, \quad P_2^2=P_2=P_2\transp, \quad P_3^2=P_3=P_3\transp
\end{gather*}
\subsection{$\boldsymbol{A=U \Sigma V\transp}$}
\begin{itemize}
\item 7.1节 (p.259) Singular Values and Singular Vecrtors
\end{itemize}
包括长方阵在内的所有矩阵都具有奇异值分解(SVD).
$A=U \Sigma V\transp$中, 有$A$的奇异向量$U$和$V$.
奇异值则排列在$\Sigma$的对角线上.
下图就是“简化版”的SVD.
\begin{figure}[H]
\centering
\includegraphics[scale=0.8]{SVD.eps}
\caption{$A=U \Sigma V\transp$}
\end{figure}
你可以发现, $V$是$\mathbb{R}^n$ ($A\transp A$的特征向量) 的标准正交基,
而$U$是 $\mathbb{R}^m$ ($AA\transp$的特征向量) 的标准正交基.
它们共同将$A$对角化为$\Sigma$.
这也可以表示为秩1矩阵的线性组合.
\begin{align*}
A = U \Sigma V\transp =
\begin{bmatrix}
| & | & |\\
\bm{u}_1 & \bm{u}_2 & \bm{u}_3\\
| & | & |
\end{bmatrix}
\begin{bmatrix}
\sigma_1 \\
& \sigma_2 \\
& &
\end{bmatrix}
\begin{bmatrix}
- \bm{v}_1\transp -\\
- \bm{v}_2\transp -
\end{bmatrix}
& =
\sigma_1 \begin{bmatrix}
|\\
\bm{u}_1\\
|
\end{bmatrix}
\begin{bmatrix}
- \bm{v}_1\transp -
\end{bmatrix}
+
\sigma_2 \begin{bmatrix}
|\\
\bm{u}_2\\
|
\end{bmatrix}
\begin{bmatrix}
- \bm{v}_2\transp -
\end{bmatrix} \\
& = \sigma_1 \bm{u}_1 \bm{v}_1\transp + \sigma_2 \bm{u}_2 \bm{v}_2\transp
\end{align*}
注意:
\begin{align*}
U U\transp &= I_m \\
V V\transp &= I_n
\end{align*}
图释见P4.
\section*{总结和致谢}
我展示了矩阵/向量乘法的系统可视化与它们在五种矩阵分解中的应用.
我希望你能够喜欢它们、通过它们加深对线性代数的理解.
Ashley Fernandes 在排版时帮我美化了这篇论文, 使它更加一致和专业.
在结束这篇论文之前, 我要感谢 Gilbert Strang 教授出版了《Linear Algebra for Everyone》一书.
它引导我们通过新的视角去了解线性代数中这些美丽的风景.
其中介绍了当代和传统的数据科学和机器学习, 每个人都可以通过实用的方式对它的基本思想进行基本理解. 矩阵世界的重要组成部分.
\section*{参考文献与相关工作}
\begin{enumerate}
\item
Gilbert Strang(2020),\emph{Linear Algebra for Everyone}, Wellesley Cambridge Press.,\\
\href{http://math.mit.edu/everyone}{http://math.mit.edu/everyone}
\item
Gilbert Strang(2016), \emph{Introduction to Linear Algebra},Wellesley Cambridge Press, 5th ed.,\\
\href{http://math.mit.edu/linearalgebra}{http://math.mit.edu/linearalgebra}
\item Kenji Hiranabe(2021), \emph{Map of Eigenvalues}, An Agile Way(blog),\\
\href{https://anagileway.com/2021/10/01/map-of-eigenvalues/}{https://anagileway.com/2021/10/01/map-of-eigenvalues/}\\
\begin{figure}[H]
\centering
\includegraphics[keepaspectratio, width=\linewidth]{MapofEigenvalues-zh-CN.png}
\caption{特征值图}
\end{figure}
\item Kenji Hiranabe(2020), \emph{Matrix World}, An Agile Way(blog),\\
\href{https://anagileway.com/2020/09/29/matrix-world-in-linear-algebra-for-everyone/}{https://anagileway.com/2020/09/29/matrix-world-in-linear-algebra-for-everyone/}
\begin{figure}[H]
\centering
\includegraphics[keepaspectratio, width=\linewidth]{MatrixWorld-zh-CN.png}
\caption{矩阵世界}
\end{figure}
\end{enumerate}
\end{document}