|
|
|
|
移动端

2.1.6 矩阵乘法的几何意义(2)

《深度学习与计算机视觉:算法原理、框架应用与代码实现》第2章 深度学习和计算机视觉中的基础数学知识,本章会尽量从定性的角度讲解一些与深度学习、计算视觉紧密联系的基础数学概念,不一定会很严谨细致,但力求简单、形象。本节为大家介绍矩阵乘法的几何意义。

作者:叶韵来源:机械工业出版社|2017-11-16 17:37

【新品产上线啦】51CTO播客,随时随地,碎片化学习

2.1.6  矩阵乘法的几何意义(2)

从旋转和拉伸角度理解矩阵乘法的几何意义

了解了本征值和本征向量的几何意义,我们知道了一个正定矩阵对应的变换其实就是沿着本征向量的方向进行了缩放。那么从旋转和缩放的角度如何看待正定矩阵的变换呢?还是考虑图2-11中的例子,对于图2-11例子中的变换矩阵

很难直观想象出沿着特征向量方向(0.85,0.53)和(-0.53,0.85)进行缩放的几何过程。在2.1.2节中的公式2-6中,我们知道如果沿着横轴和纵轴方向进行缩放,那么形式就非常简单了,如x-y二维平面中,用一个变换对横轴缩放a倍,纵轴缩放b倍的矩阵如下:

该矩阵是一个对角矩阵,对应维度上的元素就是要缩放的倍数。2.1.2节中和2.1.4节中也讲了旋转矩阵和对应的几何理解,那么对于二维平面的情况,我们很自然地想到,只要用一个旋转矩阵,把原来空间中对应特征向量的方向旋转到对应x轴和y轴,然后进行简单的缩放,然后再用一个矩阵变换旋转回去,不就和直接乘以一个变换矩阵等效了吗?按照这个思路来试一下。

第一步,已知两个特征向量的方向,现在要把(0.85,0.53)“转回”x轴的位置,只需要把当前的x轴转到(0.85,0.53)沿x轴对称的位置,所以根据2.1.4节中的形象理解,第一个列向量就是(0.85,-0.53)。同样的对于(-0.53,0.85),要“转回”y轴,则需要把当前y轴转到(-0.53,0.85)沿y轴对称的位置,也就是(0.53,0.85),所以变换矩阵就是

也就是从图2-12a到图2-12b的情况。注意其实就是特征向量作为行向量的矩阵。接下来就是简单的沿着x轴和y轴方向进行缩放,其中缩放的倍数分别是两个特征向量对应的特征值,也就是进行如下的矩阵变换。

这一步对应图2-12b到图2-12c,可以看到,变换前的方格里的笑脸已经被扭曲成了斜着的四边形,接下来就是最后一步,也就是第一步的“逆旋转”,其实就是逆变换,注意到旋转矩阵都是正交矩阵,所以逆变换就是转置,也就是特征向量作为列向量的矩阵。

最后就得到了图2-12d,所以在这个过程中相当于把变换矩阵按照M=U∑UT分解成了3个子变换矩阵:

其中第一次和最后一次的变换是单纯旋转,中间的变换是单纯地沿坐标轴缩放。
其中第一次和最后一次的变换是单纯旋转,中间的变换是单纯地沿坐标轴缩放。

【责任编辑:book TEL:(010)68476606】

回书目   上一节   下一节
点赞 0
分享:
大家都在看
猜你喜欢

读 书 +更多

计算机网络技术

本书是为北大燕工教育研究院编写的计算机网络技术的学习教材。它以实际教学大纲为依据,全面系统的介绍了计算机网络技术知识,对于一个...

订阅51CTO邮刊

点击这里查看样刊

订阅51CTO邮刊