计算机是怎么求解线性方程的(矩阵乘和求逆)

上回我们说到,高斯老哥用消元法解线性方程,大致步骤呢就是给系数矩阵消元,运气好点呢直接整出上三角系数矩阵,得到方程组的唯一解,运气不行呢,消着消着发现整不出上三角,这时就得再讨论方程是有多解还是无解。

这里所说的"运气"呢其实可以根据行列式啊,Ax=0是否有解啊判断得到,具体操作可以看看我聊消元法的那一篇文章。

但是,高斯消元法存在一个问题,就是它是给人做的,比如给第一行乘个倍数加到另一行,或者将矩阵的两行交换个位置,这些我们手写计算当然没什么问题,但是你让计算机做它就不能忍了,计算机没那么多判断的能力,它就想要一种统一的计算模式和计算次数。ok,那我们就来聊一聊计算机是怎么做这些操作的,顺便我们能够知道为什么有很多科学家对矩阵乘法性能的提高有着孜孜不倦的追求。

我们先以一种抽象的方式来看看矩阵和列向量相乘,比如

根据第一节所说,系数方阵的三个列向量为三维空间中的三个独立向量,用它们可以组成三维空间的任一向量,[x,y,z]分别为这三个向量的扩展倍数,假如我想知道一倍的[1,2,4]与三倍的[3,7,8]的和向量是什么,只需要给[x,y,z]赋值[1,3,0]就可以了,即

那么如果我想知道

[1,2,4]向量与

负三倍的[1,2,4]与一倍的[3,7,8]的和向量以及

负四倍的[1,2,4]与一倍的[4,5,9]的和向量

的组合是什么,就可以运算

将计算过程及结果整理一下就可以得到

此时我们会惊奇得发现居然消元了,第一行居然消元了!只不过在列方向,高斯消元法需要的是在行方向做消元,那如果我对行向量能做一些求和之类的操作问题不就解决了吗。而这你也不需要担心,因为有数学大佬已经帮你总结好了,即

根据消元步骤先根据pivot1给23行消元,即

再根据pivot2给第三行消元,即

再将最后一行变为1

以上我们将消元的过程变为了矩阵乘法,我猜这就是计算机做消元的方法,当然,在消元过程中有时要用到两行交换位置的情况,我们也可以利用矩阵乘得到,比如交换矩阵的前两行

我们将上述给原矩阵做变换的矩阵叫做初等变换矩阵,初等变换矩阵的逆矩阵非常好求,逆矩阵的定义为AA^{-1}=E,而初等变换矩阵正是E经过了简单的运算得到的。比如将第一行乘4并加到第二行的变换矩阵,只要从第二行中减去第一行的4倍就变回了单位阵,也就得到了逆矩阵。,即

而交换两行的变换阵的逆矩阵是它本身

那么更一般的矩阵求逆怎么做呢(已知矩阵可逆),要不怎么说数学家牛逼呢,Gauss-Jordan法使求逆完全可以通过消元来解决,就是这二位

他们表示,假如你想求一个逆矩阵啊,先给原矩阵旁边整一个单位阵,然后给第一个矩阵开始消元,消元过程中单位阵做同样的变换,当原来的矩阵变为单位阵时,单位阵就是原矩阵的逆矩阵,首先是Gauss的消元法创造上三角矩阵

然后jordan说你把这个上三角再倒着消元成单位阵就得到逆矩阵啦

不放心的话拿到matlab里验证一下就ok了。

我们可以看到,化简求逆都是经过矩阵乘来运算,这种较为统一的运算过程可是把计算机爽死了,我们说的解方程啊,矩阵求逆啊到这里都变成了矩阵的乘法运算,而矩阵乘不仅仅只有这一点应用,在空间中一个向量的放大,缩小,平移,旋转都是通过乘矩阵的方式来实现,所以在矩阵乘这个计算上一点点的优化都可能使软件性能发生巨大变化,这也就回答了文章开始的问题,为什么有那么多人不断追求矩阵乘运算性能的提高。微小的改变却能导致巨大的性能变化,这可能就是算法之美吧。

你可能感兴趣的:(计算机是怎么求解线性方程的(矩阵乘和求逆))