几何角度下的线性代数

来自https://www.3blue1brown.com/对于线性代数讲解的整理。

向量除了可以理解为有大小和方向的单位,也可以理解为有序的数字列表。

利用基向量的相加和数乘可以得到的所有向量的集合叫张成的空间(span),如两个二维非共线非零向量张成的空间就是其所在平面。

线性变换(linear transformation) 是以向量作为输入和输出的函数,前提条件是只有原点必须保持不变,而且直线依旧是直线的变换才是线性的。

线性的严格定义是抽象的,它满足可加性和成比例两个条件。可加性是说两个向量变换后相加和相加后变换结果相同,成比例是说向量与标量相乘后变换和向量变换后再与标量相乘结果相同。如果把向量换成函数,这一定义同样适用于函数的求导,所以导数也是线性的。

矩阵可以看作线性变换,一个2×2的矩阵可以看作二维空间的线性变换,其中a和c(左上和左下)两个数就是变换后的基向量i,右边则是变换后的基向量j。

矩阵与向量相乘就可以看作一个线性变换作用与一个向量,得出的结果则是变换后的向量。

复合变换(composition)是多于一个线性变换的组合,既然线性变换是矩阵,符合变换代表的就是矩阵的乘法。矩阵的乘法从右往左计算。

线性变换的行列式(determinant)是线性变换改变面积的比例。行列式为0代表压缩到了低维度,负数代表基向量的翻转。

矩阵的(inverse)是抵消矩阵带来的线性变换作用的矩阵。矩阵与逆矩阵相乘就是恒等变换(identity transformation)。

如果一个矩阵的行列式为0,那么它没有逆矩阵。从线性变换的角度它被压缩到底低维度,不能通过线性变换恢复。

变换的结果可以用(rank)来描述,变换的结果是几维秩就是几。如果变换没有压缩维度,这使得秩也叫满秩(full rank)。

一个矩阵的列空间(column space)是其与向量相乘的所有可能的输出向量的集。即变换后的基向量张成的空间。可以想象无论怎么压缩零向量都一定会在列空间中。

如果变换非满秩,那么就有多于一个向量被压缩到了原点,这些向量的集合被叫做零空间(null space)或者(kernel)。

两个维数相同的向量的点积(dot product)是一个向量a在另一个向量b所在的直线上的投影长度与b向量自身的长度的乘积。在数字运算上它是两个向量对应的坐标的乘积的和。这两种计算方法实际上存在巧妙的对应关系。一个向量a必然可以对应一个高维度到一维的不经过缩放的线性变换,这个变换使向量a刚好在变换后张成的空间的这条直线上且基的方向与a同向。此时这个时候向量a的在原来维度中的坐标就是这个线性变换的矩阵乘以它的长度。那么如果让向量b进行这个线性变换,几何视角上看是把b向量投影到了这条直线上,这解释了上述第一个点积的计算方法:b的投影乘以a的长度。数值上来看是把b的坐标乘以这个线性变换再乘以a的长度,后两者则正是a的坐标的数值,只不过现在以一个矩阵的形式呈现,这解释了上述第二种运算方法。

两个向量的叉积(cross product)是以两个向量作为平行四边形两条边组成的平行四边形的面积作为值,符合右手定则(食指为a,中指为b,拇指为结果方向)。叉积考虑顺序,当向量a叉乘向量b且a在b右侧时结果为正,反之为负。计算方式为ab向量坐标组成的矩阵的行列式,不难理解这是因为可以把ab看作线性变换后的两个基,行列式为改变面积的比例,基的叉乘面积本为1,那么改变面积的比例其实就是其面积。

特征向量(eigenvector)是线性变换后不离开原直线的向量。三维空间中线性变换的特征向量就是旋转轴。过程中这些特征向量发生的长度变化叫特征值(eigenvalue)。