Les Matrices
Dernière modif : 24/07/2016
Les matrices (qui représentent les applications linéaires dans les espaces vectoriels).



\documentclass{beamer} \usepackage[french]{babel} \usepackage{amsmath,bbm,xcolor} %%%%%%%%%% Start TeXmacs macros \catcode`\>=\active \def>{ \fontencoding{T1}\selectfont\symbol{62}\fontencoding{\encodingdefault}} \newcommand{\longminus}{{-\!\!-}} \newcommand{\nobracket}{} \newcommand{\tmcolor}[2]{{\color{#1}{#2}}} \newcommand{\tmem}[1]{{\em #1\/}} \newcommand{\tmmathbf}[1]{\ensuremath{\boldsymbol{#1}}} \newcommand{\tmop}[1]{\ensuremath{\operatorname{#1}}} \newcommand{\tmstrong}[1]{\textbf{#1}} \newenvironment{itemizedot}{\begin{itemize} \renewcommand{\labelitemi}{$\bullet$}\renewcommand{\labelitemii}{$\bullet$}\renewcommand{\labelitemiii}{$\bullet$}\renewcommand{\labelitemiv}{$\bullet$}}{\end{itemize}} \newenvironment{itemizeminus}{\begin{itemize} \renewcommand{\labelitemi}{$-$}\renewcommand{\labelitemii}{$-$}\renewcommand{\labelitemiii}{$-$}\renewcommand{\labelitemiv}{$-$}}{\end{itemize}} %%%%%%%%%% End TeXmacs macros \begin{document} \title{Les Matrices} \maketitle \ \section{D{\'e}finition} Une matrice $l \times c$ ($l$ comme lignes et $c$ comme colonnes) est un tableau rectangulaire d'{\'e}l{\'e}ments comprenant $l$ lignes et $c$ colonnes. ces {\'e}l{\'e}ments sont appel{\'e}s {\tmem{coefficients}} ou {\tmem{composantes}} de la matrice. $l$ et $c$ sont les dimensions de la matrice. $\mathcal{M}_{l c} = \left(\begin{array}{ccc} a_{11} & \ldots & a_{1 c}\\ \ldots & \ldots & \ldots\\ a_{l 1} & \ldots & a_{l c} \end{array}\right)$ Ces composantes peuvent {\^e}tre des nombres r{\'e}els ou des complexes, voire des polyn{\^o}mes, ou des fraction rationnelles. Voici un exemple d'une matrice $3 \times 4$ -> trois lignes et quatre colonnes $\mathcal{M}_{3, 4} = \left(\begin{array}{cccc} \alpha_{11} & \alpha_{12} & \alpha_{13} & \alpha_{14}\\ a_{21} & \alpha_{22} & a_{23} & \alpha_{24}\\ \alpha_{31} & \alpha_{32} & \alpha_{33} & \alpha_{34} \end{array}\right)$ \ L'ensemble des matrices {\`a} $l$ lignes et $c$ colonnes et {\`a} coefficients r{\'e}els est not{\'e} $\mathcal{M}_{l, c} (\mathbbm{R})$ \section{Op{\'e}rations sur les matrices} \subsection{Somme} On peut ajouter deux matrices $\mathcal{M}_{l, c} (\mathbbm{R})$ {\tmem{de m{\^e}mes dimensions}} termes {\`a} termes. Exemple : $\left(\begin{array}{cc} 1 & - 4\\ - 2 & 3\\ 0 & 5 \end{array}\right) + \left(\begin{array}{cc} 2 & 3\\ - 2 & - 3\\ 6 & 2 \end{array}\right) = \left(\begin{array}{cc} 3 & - 1\\ - 4 & 0\\ 6 & 7 \end{array}\right)$ \ \subsection{Multiplication par un scalaire externe} Pour multiplier une matrice par un scalaire externe, il suffit de multiplier chacun des termes par ce scalaire. Exemple : 3 $\left(\begin{array}{cc} 1 & - 4\\ - 2 & 3\\ 0 & 5 \end{array}\right)$=$\left(\begin{array}{cc} 3 & - 12\\ - 6 & 9\\ 0 & 15 \end{array}\right)$ \ \subsection{Produit matriciel} L{\`a} les choses se corsent... D{\'e}j{\`a} il faut savoir des choses tr{\`e}s importantes : \begin{itemizedot} \item on ne peut pas {\guillemotleft} multiplier {\guillemotright} n'importe quelle matrice par n'importe quelle autre, \item le produit matriciel n'est pas commutatif. $\mathcal{M}1\mathcal{M}2 \neq \mathcal{M}2\mathcal{M}1$ \item ce n'est {\tmstrong{pas}} le produit des coefficients terme {\`a} terme ! \end{itemizedot} \subsubsection{Calcul du produit matriciel} Pour que le produit matriciel de $\mathcal{M}1 \mathcal{M}2$ soit d{\'e}fini, il faut que le nombre de colonnes de $\mathcal{M}1$ {\tmstrong{soit {\'e}gal}} au nombre de lignes de $\mathcal{M}2$. Par exemple si $\mathcal{M}1$ s'{\'e}crit $\mathcal{M}_{a b}$ alors il faut que $\mathcal{M}2$ s'{\'e}crive $\mathcal{M}_{b c}$ (notez l'indice $b$ qui est partag{\'e}). Pour effectuer le produit, il est commode de disposer les matrices $\mathcal{M}1$ et $\mathcal{M}2$ {\`a} multiplier de la fa{\c c}on suivante (la seconde en haut et {\`a} droite de la premi{\`e}re) : \begin{tabular}{|l|l|} \hline & $\mathcal{M}2$\\ \hline $\mathcal{M}1$ & r{\'e}sultat ici\\ \hline \end{tabular} exemple : $\mathcal{M}1 = \left(\begin{array}{cc} 1 & - 4\\ - 2 & 3\\ 0 & 5 \end{array}\right)$\quad et\quad$\mathcal{M}2 = \left(\begin{array}{cccc} 1 & - 2 & 3 & 0\\ - 2 & 3 & - 1 & 4 \end{array}\right)$ \ Remarque : \begin{itemizedot} \item la matrice $\mathcal{M}1$ ayant $a$ lignes et $b$ colonnes, \item la matrice $\mathcal{M}2$ ayant $b$ lignes et $c$ colonnes, \end{itemizedot} alors la matrice $\mathcal{M}1.\mathcal{M}2$ aura $a$ lignes et $c$ colonnes. Dans cet exemple $\mathcal{M}1$ est une matrice de format $\tmcolor{red}{3} \times \tmcolor{orange}{2}$ , $\mathcal{M}2$ une matrice de format $\tmcolor{orange}{2} \times {\color[HTML]{008000}4}$ , la matrice $\mathcal{M}1.\mathcal{M}2$ sera donc une matrice $\tmcolor{red}{3} \times {\color[HTML]{008000}4}$ (3 lignes et 4 colonnes). Disposons ces deux matrices comme pr{\'e}conis{\'e} plus haut : J'ai ajout{\'e} un petit tableau vide dans le {\guillemotleft} trou {\guillemotright} en haut {\`a} gauche pour souligner le fait que ce trou est toujours carr{\'e} (mesur{\'e} en nb d'{\'e}l{\'e}ments) puisque nb de lignes$(\mathcal{M}2)$ = nb de colonnes$(\mathcal{M}1)$. C'est un moyen simple de se rappeler cette condition. \begin{tabular}{ll} $\left[\begin{array}{cc} \longminus & \longminus\\ \longminus & \longminus \end{array}\right]$ & $\left(\begin{array}{cccc} 1 & - 2 & 3 & 0\\ - 2 & 3 & - 1 & 4 \end{array}\right)$\\ $\left(\begin{array}{cc} 1 & - 4\\ - 2 & 3\\ 0 & 5 \end{array}\right)$ & $\left(\begin{array}{cccc} 9 & - 14 & 7 & - 16\\ - 8 & 13 & - 9 & 12\\ - 10 & 15 & - 5 & 20 \end{array}\right)$ \end{tabular} \ ici le r{\'e}sultat est d{\'e}j{\`a} affich{\'e}, toutefois il nous reste {\`a} apprendre {\`a} le calculer. {\tmstrong{Rappel }}: Nous avons d{\'e}j{\`a} {\'e}tudi{\'e} les vecteurs et nous savons que l'on peut les {\'e}crire de deux mani{\`e}res diff{\'e}rentes : $\vec{\tmmathbf{v}} (x, y)$\quad ou \ $\vec{\tmmathbf{v}} \left(\begin{array}{c} x\\ y \end{array}\right)$ Pour la premi{\`e}re {\'e}criture on parle de {\guillemotleft} vecteur ligne {\guillemotright} et pour la seconde de {\guillemotleft} vecteur colonne {\guillemotright}. Nous savons {\'e}galement calculer le produit scalaire de deux vecteurs (en multipliant les composantes de m{\^e}me rang entre elles puis en faisant la somme de tous ces produits). Tout cela va nous servir pour calculer le produit matriciel. Revenons donc {\`a} nos matrices. Chaque composante du r{\'e}sultat est tout simplement {\'e}gale au produit scalaire de deux vecteurs : un vecteur {\guillemotleft} ligne {\guillemotright} et un vecteur colonne. \begin{itemizeminus} \item le vecteur ligne c'est celui que l'on peut former avec la ligne de la matrice $\mathcal{M}1$ situ{\'e}e {\`a} la m{\^e}me hauteur que la-dite composante {\`a} calculer. \item et le vecteur colonne c'est celui que l'on peut former avec la colonne de la matrice $\mathcal{M}2$ situ{\'e}e {\`a} la verticale de la-dite composante. \end{itemizeminus} Voyons en d{\'e}tail le calcul d'une composante du r{\'e}sultat (en rouge), en reprenant les matrices de l'exemple pr{\'e}c{\'e}dent : \begin{tabular}{ll} & $\left(\begin{array}{cc|c|c} 1 & - 2 & 3 & 0\\ - 2 & 3 & - 1 & 4 \end{array}\right)$\\ $\left(\begin{array}{cc} 1 & - 4\\ \hline - 2 & 3\\ \hline 0 & 5 \end{array}\right)$ & $\left(\begin{array}{cccc} 9 & - 14 & 7 & - 16\\ - 8 & 13 & \tmcolor{red}{\tmmathbf{- 9}} & 12\\ - 10 & 15 & - 5 & 20 \end{array}\right)$ \end{tabular} \ la composante $(- 9)$, donc, \ est {\'e}gale au produit {\tmstrong{scalaire}} du vecteur $(- 2, 3)$ avec le vecteur $\left(\begin{array}{c} 3\\ - 1 \end{array}\right)$ Faisons le calcul : $\overrightarrow{(- 2, 3)} \overrightarrow{. (3, - 1)} = (- 2 \times 3) + (3 \times - 1) = - 6 + (- 3) = \tmmathbf{- 9}$ Bien entendu il faut r{\'e}p{\'e}ter ce calcul pour chacune des (ici douze) composantes. Nous voyons que ces calculs de produits scalaires ne sont possibles que si le nombre de composantes figurant sur chaque ligne de $\mathcal{M}1$ est {\'e}gal au nombre de composantes figurant sur la colonne correspondante de $\mathcal{M}2$, c'est {\`a} dire si le nombre de colonnes de $\mathcal{M}1$ est {\'e}gal au nombre de lignes de $\mathcal{M}2$. Et c'est justement la condition que nous avions pos{\'e}e d{\`e}s le d{\'e}part. On peut \ effectuer ces op{\'e}rations sans prononcer le mot {\tmem{vecteur}}... Toutefois comme nous l'avons vu pr{\'e}c{\'e}demment, les matrices peuvent repr{\'e}senter des applications lin{\'e}aires entre des espaces vectoriels, donc les vecteurs ne sont jamais bien loin... \subsubsection{Mais d'o{\`u} vient ce mode de calcul compliqu{\'e} du produit matriciel ?} Est-il tomb{\'e} du ciel ? non pas tout {\`a} fait. Nous avons dit lors de l'{\'e}tude des matrices repr{\'e}sentatives des applications lin{\'e}aires que la matrice de la compos{\'e}e de deux applications lin{\'e}aires est le produit matriciel de leurs matrices repr{\'e}sentatives. Et {\c c}a non plus ce n'est pas par hasard que {\c c}a marche, c'est d{\^u} justement au fait que le produit matriciel a {\'e}t{\'e} con{\c c}u de telle sorte que {\c c}a marche ! En voici la d{\'e}monstration : soit l'application lin{\'e}aire $\varphi_1$ : $\varphi_1 (x_1, x_2) = (y_1, y_2)$ tels que $\left\{ \begin{array}{l} y_1 = a_{11} x_1 + a_{12} x_2\\ y_2 = a_{21} x_1 + a_{22} x_2 \end{array} \right.$ afin d'obtenir la compos{\'e}e de deux applications lin{\'e}aires, supposons une seconde application lin{\'e}aire $\varphi_2$ telle que $(x_1, x_2)$ soit le r{\'e}sultat de la transformation de 2 autres variables $(s_1, s_2)$ $\varphi_2 (s_1, s_2) = (x_1, x_2)$ tels que $\left\{ \begin{array}{l} x_1 = b_{11} s_1 + b_{12} s_2\\ x_2 = b_{21} s_1 + b_{22} s_2 \end{array} \right.$ Calculons le r{\'e}sultat $(y_1, y_2)${\`a} partir des variables de d{\'e}part $(s_1, s_2)$ $\left\{ \begin{array}{l} y_1 = a_{11} (b_{11} s_1 + b_{12} s_2) + a_{12} (b_{21} s_1 + b_{22} s_2)\\ y_2 = a_{21} (b_{11} s_1 + b_{12} s_2) + a_{22} (b_{21} s_1 + b_{22} s_2) \end{array} \right.$ appelons $c_{\ldots}$les coefficients : $\left\{ \begin{array}{l} y_1 = c_{11} s_1 + c_{12} s_2\\ y_2 = c_{21} s_1 + c_{22} s_2 \end{array} \right.$ identifions ces coefficients $c_{\ldots}$ : $\left\{ \begin{array}{l} c_{11} = a_{11} b_{11} + a_{12} b_{21}, c_{12} = a_{11} b_{12} + a_{12} b_{22}\\ c_{21} = a_{21} b_{11} + a_{22} b_{21}, c_{22} = a_{21} b_{12} + a_{22} b_{22} \end{array} \right.$ ces coefficients sont exactement ceux que l'on trouve si l'on fait le produit matriciel des deux matrices repr{\'e}sentant $\varphi_1$et$\varphi_2$ : \begin{tabular}{ll} & $\left(\begin{array}{cc} b_{11} & b_{12}\\ b_{21} & b_{22} \end{array}\right)$\\ $\left(\begin{array}{cc} a_{11} & a_{12}\\ a_{21} & a_{22} \end{array}\right)$ & $\left(\begin{array}{cc} a_{11} b_{11} + a_{12} b_{21} & a_{11} b_{12} + a_{12} b_{22}\\ a_{21} b_{11} + a_{22} b_{21} & a_{21} b_{12} + a_{22} b_{22} \end{array}\right)$ \end{tabular} Conclusion : Le produit matriciel a {\'e}t{\'e} invent{\'e} dans le but de pouvoir calculer le r{\'e}sultat de transformations lin{\'e}aires appliqu{\'e}es en cascade. Et c'est ce qui en fait toute la puissance (par exemple en {\'e}lectronique, suite d'{\'e}tages et de filtres sur le parcours du signal, ou en 3D suite de rotations appliqu{\'e}es {\`a} un objet, etc..) \subsection{Matrices particuli{\`e}res} \subsubsection{Matrice carr{\'e}e} C'est une matrice ayant le m{\^e}me nombre de lignes et de colonnes : exemple : $\left(\begin{array}{ccc} 1 & - 4 & 5\\ - 2 & 3 & 0\\ 0 & 5 & - 1 \end{array}\right)$ est une matrice carr{\'e}e $3 \times 3$ \subsubsection{Matrice identit{\'e} not{\'e}e $\tmmathbf{I}_n$} C'est une matrice {\tmstrong{carr{\'e}e}} d'ordre $n$ dont tous les coefficients $a_{i j} $sont nuls sauf ceux d'indice $a_{i i}$ \ (donc situ{\'e}s en diagonale) qui sont {\'e}gaux {\`a} $1$ , comme dans l'exemple suivant d'une matrice identit{\'e} d'ordre 4 : $\tmmathbf{I}_4 = \left(\begin{array}{cccc} 1 & 0 & 0 & 0\\ 0 & 1 & 0 & 0\\ 0 & 0 & 1 & 0\\ 0 & 0 & 0 & 1 \end{array}\right)$ \ La matrice identit{\'e} est l'{\'e}l{\'e}ment neutre du produit matriciel, c'est {\`a} dire : $\forall$ $\tmmathbf{A}$ $\in$ $\mathcal{M}_{m, n} (\mathbbm{R})$\qquad$\tmmathbf{A} \tmmathbf{I}_n =\tmmathbf{I}_m \tmmathbf{A}=\tmmathbf{A}$ \begin{tabular}{|p{12.0cm}|} \hline {\tmstrong{Rappel}} : Pour que le produit matriciel de $\mathcal{M}1 \mathcal{M}2$ soit d{\'e}fini, il faut que le nombre de colonnes de $\mathcal{M}1$ {\tmstrong{soit {\'e}gal}} au nombre de lignes de $\mathcal{M}2$. $\tmmathbf{A}$ est du format $m \times n$ donc $\tmmathbf{A} \tmmathbf{I}_x$ n'est d{\'e}fini que si $x = n$ de m{\^e}me : $\tmmathbf{I}_x \tmmathbf{A}$ n'est d{\'e}fini que si $x = m$\\ \hline \end{tabular} \ {\tmstrong{D{\'e}monstration :}} soit une matrice $\mathbf{A}_{m, n} = \left(\begin{array}{ccccc} \alpha_{11} & \ldots & \ldots . & \ldots & \alpha_{1 n}\\ \ldots . & \ldots & a_{_{i j}} & \ldots & \ldots\\ \alpha_{m 1} & \ldots & \ldots . & \ldots & \alpha_{m n} \end{array}\right)$ \ Calculons son produit matriciel avec la matrice $\tmmathbf{I}_n$ (ici un exemple avec $m = n = 3$, on peut extrapoler {\`a} d'autres valeurs...) $\mathbf{B}_{m, n} = \left(\begin{array}{ccc} \alpha_{11} & \alpha_{1 j} & \alpha_{1 n}\\ \alpha_{i 1} & a_{_{i j}} & \alpha_{i n}\\ \alpha_{m 1} & \alpha_{m j} & \alpha_{m n} \end{array}\right) \tmmathbf{I}_n$ =$\left(\begin{array}{ccc} \alpha_{11} & \alpha_{1 j} & \alpha_{1 n}\\ \alpha_{i 1} & a_{_{i j}} & \alpha_{i n}\\ \alpha_{m 1} & \alpha_{m j} & \alpha_{m n} \end{array}\right) \left(\begin{array}{ccc} 1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1 \end{array}\right)$ \ disposons les matrices comme on l'a vu plus haut : \begin{tabular}{ll} & $\left(\begin{array}{ccc} 1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1 \end{array}\right)$\\ $\left(\begin{array}{ccc} \alpha_{11} & \alpha_{1 j} & \alpha_{1 n}\\ \alpha_{i 1} & a_{_{i j}} & \alpha_{i n}\\ \alpha_{m 1} & \alpha_{m j} & \alpha_{m n} \end{array}\right)$ & $\left(\begin{array}{ccc} \ldots & \ldots & \ldots\\ \ldots & \beta_{i j} & \ldots\\ \ldots & \ldots & \ldots \end{array}\right)$ \end{tabular} calculons le coefficient $\beta_{i j}$ (avec la m{\'e}thode du produit scalaire de deux vecteurs comme vue plus haut) $\beta_{i j} = \overrightarrow{(\alpha_{i 1}, \alpha_{\tmop{ij}}, \alpha_{i n})} \overrightarrow{. (0, 1, 0)} = \alpha_{i 1} \times 0 + \alpha_{\tmop{ij}} \times 1 + \alpha_{i n} \times 0$ = 0+$\alpha_{\tmop{ij}}$+0 = $\alpha_{\tmop{ij}}$ Nous voyons que tous les produits partiels s'annulent sauf celui concernant les m{\^e}mes emplacements $(i, j)$ dans les deux matrices. Comme cet emplacement peut {\^e}tre situ{\'e} {\`a} priori n'importe o{\`u}, nous en d{\'e}duisons que tous les coefficients de la matrice r{\'e}sultat seront respectivement {\'e}gaux {\`a} ceux de m{\^e}me emplacement dans la matrice de d{\'e}part. Donc $\mathbf{B}$ = $\mathbf{A}$ \subsection{D{\'e}terminant d'une matrice} Le d{\'e}terminant est utilis{\'e} en particulier pour inverser une matrice, comme nous le verrons plus tard. Il sert {\'e}galement {\`a} r{\'e}soudre un syst{\`e}me d'{\'e}quations lin{\'e}aires comportant autant d'{\'e}quations que d'inconnues. Il a de nombreuses autres applications. \subsubsection{calcul du d{\'e}terminant d'une matrice $2 \times 2$} Soit la matrice $2 \times 2$ suivante : $ \left(\begin{array}{cc} a & b\\ c & d \end{array}\right)$ recette : son d{\'e}terminant est $\left|\begin{array}{cc} a & b\\ c & d \end{array}\right|$=$a d - b c$ Notez les barres verticales qui indiquent que nous avons affaire {\`a} un d{\'e}terminant; c'est la raison pour laquelle il faut utiliser des parenth{\`e}ses et non des barres verticales dans l'{\'e}criture des matrices. \subsubsection{calcul du d{\'e}terminant d'une matrice $3 \times 3$} Soit la matrice $3 \times 3$ suivante : $ \left(\begin{array}{ccc} a & b & c\\ d & e & f\\ g & h & i \end{array}\right)$ \ son d{\'e}terminant est $\det \left(\begin{array}{ccc} a & b & c\\ d & e & f\\ g & h & i \end{array}\right)$ =$ \left|\begin{array}{ccc} a & b & c\\ d & e & f\\ g & h & i \end{array}\right|$=$(a e i + d h c + g b f) - (g e c + a h f + d b i)$ Je vous laisse parcourir ces lettres sur la matrice afin de comprendre leur ordre dans la formule (c'est la somme des produits des diagonales dans un sens MOINS la somme des produits des diagonales dans l'autre sens). propri{\'e}t{\'e}s : Elles sont assez nombreuses, je citerai par exemple : $\det (A \times B) = \det (A) . \det (B)$ (Le d{\'e}terminant du produit matriciel de deux matrices est {\'e}gal au produit des d{\'e}terminants de ces matrices). Je vous donne des liens au bas de cette page afin d'approfondir la question. Nous allons maintenant revenir {\`a} nos espaces vectoriels et aux applications lin{\'e}aires avec des exemples qui feront forc{\'e}ment intervenir les matrices et leur d{\'e}terminant... \section{Inversion d'une matrice carr{\'e}e} \subsection{Alg{\`e}bre des matrices} Jusqu'{\`a} pr{\'e}sent nous avons effectu{\'e} des op{\'e}rations entres des matrices et entre des matrices et des vecteurs, ce que l'on pourrait appeler de l'arithm{\'e}tique des matrices. Mais peut-on faire de l'alg{\`e}bre avec des matrices ? C'est {\`a} dire peut-on r{\'e}soudre des {\'e}quations avec des matrices comprenant une matrice inconnue dont il faut trouver les coefficients ? \subsubsection{Exemple classique} En alg{\`e}bre classique on peut r{\'e}soudre une {\'e}quation comme : $a x - b = 0$ $x$ {\'e}tant l'inconnue dont il faut trouver la valeur. on connait la r{\'e}solution : $a x = b$ $x = \frac{b}{a} = b \times \frac{1}{a}$ Peut-on r{\'e}soudre des {\'e}quations analogues faisant intervenir des matrices ? Cela revient {\`a} r{\'e}soudre : $\tmmathbf{A}\tmmathbf{X}-\tmmathbf{B}= 0$ $\tmmathbf{A}$, $\tmmathbf{B}$ et $\tmmathbf{X}$ {\'e}tant des matrices, $0$ {\'e}tant ici la matrice nulle (dont tous les coefficients sont $0$) On peut effectivement le faire {\`a} un d{\'e}tail pr{\`e}s : $\tmmathbf{X}=\tmmathbf{B} \tmmathbf{A}^{- 1}$ Nous avons ici affaire {\`a} un produit vectoriel et a une matrice not{\'e}e $\tmmathbf{A}^{- 1}$ (attention, l'{\'e}criture $\frac{1}{A}$ n'existe pas , elle ne correspond {\`a} rien dans le monde des matrices). Cette matrice $\tmmathbf{A}^{- 1}$ est appel{\'e}e la matrice inverse de la matrice $\tmmathbf{A}$. Reprenons l'{\'e}quation avec $\tmmathbf{B}=\tmmathbf{I}_n$, o{\`u} $\tmmathbf{I}_n$ est la matrice (carr{\'e}e) {\tmem{identit{\'e}}} d'ordre $n$, elle devient $\tmmathbf{A}\tmmathbf{X}=\tmmathbf{I}_n$ $\tmmathbf{X}= \tmmathbf{I}_n \tmmathbf{A}^{- 1} =\tmmathbf{A}^{- 1}$ c'est {\`a} dire : (en rempla{\c c}ant $\tmmathbf{X}$par sa valeur dans l'{\'e}quation) $\tmmathbf{A}\tmmathbf{A}^{- 1} =\tmmathbf{I}_n$ Cette derni{\`e}re {\'e}criture constitue la d{\'e}finition de la matrice inverse : \subsubsection{D{\'e}finition de la matrice inverse :} \begin{tabular}{|p{12.0cm}|} \hline Si $\tmmathbf{A}_{n, n}$ est inversible \ il existe une matrice not{\'e}e $\tmmathbf{A}^{- 1}$ , telle que : \begin{itemizedot} \item $\tmmathbf{A}\tmmathbf{A}^{- 1} =\tmmathbf{I}_n$ \item $\tmmathbf{A}^{- 1} \tmmathbf{A}=\tmmathbf{I}_n$ \end{itemizedot} (Ces deux {\'e}galit{\'e}s doivent {\^e}tres v{\'e}rifi{\'e}es)\\ \hline \end{tabular} \begin{itemizedot} \item Pour qu'on puisse {\'e}crire le produit vectoriel $\tmmathbf{A}\tmmathbf{A}^{- 1}$, il faut que le nb lignes de $\tmmathbf{A}^{- 1}$ soit {\'e}gal au nb de colonnes de $\tmmathbf{A}.$ \item Pour qu'on puisse {\'e}crire le produit vectoriel $\tmmathbf{A}^{- 1} \tmmathbf{A}$, il faut que le nb lignes de $\tmmathbf{A}$ soit {\'e}gal au nb de colonnes de $\tmmathbf{A}^{- 1} .$ \item Et si $\tmmathbf{A}\tmmathbf{A}^{- 1} =\tmmathbf{I}_n$ le nb de lignes de $\tmmathbf{A}$ doit {\^e}tre {\'e}gal {\`a} $n$ et que le nb de colonnes de $\tmmathbf{A}^{- 1}$ doit {\^e}tre {\'e}gal {\`a} $n$. \end{itemizedot} Finalement on voit que $\tmmathbf{A}$ doit {\^e}tre une matrice {\tmstrong{carr{\'e}e}} de dimension $n \times n$. Ci-dessous le m{\^e}me raisonnement, repr{\'e}sent{\'e} graphiquement pour $n = 3$ : \begin{tabular}{p{6.0cm}p{6.0cm}} \begin{tabular}{ll} trou carr{\'e} & $\left(\begin{array}{ccc} 0 & 0 & 0\\ 0 & 0 & 0\\ 0 & 0 & 0 \end{array}\right)$\\ $\left(\begin{array}{ccc} 0 & 0 & 0\\ 0 & 0 & 0\\ 0 & 0 & 0 \end{array}\right)$ & $\left(\begin{array}{ccc} 1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1 \end{array}\right)$ \end{tabular} & \begin{itemizedot} \item en bas {\`a} gauche -> $\tmmathbf{A}$ \item en haut {\`a} droite -> $\tmmathbf{A}^{- 1}$ \item en bas {\`a} droite -> $\tmmathbf{I}_3$ carr{\'e}e \end{itemizedot} \end{tabular} La seule possibilit{\'e} est que $\tmmathbf{A}$ et $\tmmathbf{A}^{- 1}$ soient toutes deux des matrices carr{\'e}es. Toutes le matrices carr{\'e}es ne sont pas inversibles. Lorsqu'une matrice carr{\'e}e n'est pas inversible, elle est dite {\tmem{singuli{\`e}re}}. \subsection{Inversion d'une matrice :} Pour une matrice $2 \times 2$ le calcul est simple. Pour une matrice $3 \times 3$ le calcul est d{\'e}j{\`a} beaucoup plus compliqu{\'e} (pivot de Gauss par exemple, connue des Chinois depuis 2000 ans et en Europe depuis le XIX si{\`e}cle...!), et pour des matrices d'ordre sup{\'e}rieur la complexit{\'e} en nombre d'op{\'e}rations {\'e}l{\'e}mentaires {\`a} effectuer augmente suivant les algorithmes en $O (n!)$ (factorielle $n$) ce qui n{\'e}cessite un ordinateur, et encore pour des $n < 10$ environ, au del{\`a} le temps de calcul devient prohibitif. Plus grave, dans le cas de matrices dans $\mathbbm{R}^n$ (dont les coefficients sont des nombres r{\'e}els et non des entiers, ce qui est le cas le plus courant en pratique) les in{\'e}vitables erreurs d'arrondis dans les calculs se cumulent et aboutissent rapidement {\`a} des r{\'e}sultats compl{\`e}tement faux et inutilisables, on va jusqu'{\`a} parler d'algorithmes instables. Toutefois certaines m{\'e}thodes (assorties d'astuces) ont une complexit{\'e} qui augmente moins vite, par exemple en $O (n^3)$ et permettent d'atteindre des $n < 100$ environ. Et l'ordinateur quantique... heu... non, pas encore, mais {\c c}a viendra. \subsubsection{Inversion d'une matrice $2 \times 2$} soit une matrice $2 \times 2$ $\tmmathbf{A}$=$\left(\begin{array}{cc} a & b\\ c & d \end{array}\right)$ son d{\'e}terminant est, rappelons le : $\Delta = a d - b c$ Si $\Delta \neq 0$ alors la matrice $\tmmathbf{A}$ est inversible et sa matrice inverse vaut : $\tmmathbf{A}^{- 1} = \frac{1}{\Delta} \left(\begin{array}{cc} d & - b\\ - c & a \end{array}\right)$ (on voit pourquoi $\Delta$ doit {\^e}tre $\neq 0$) (Les deux \ coefficients de la diagonale principale sont juste permut{\'e}s, les deux autres restent en place en changeant de signe). Comme annonc{\'e}, dans le cas d'une matrice $2 \times 2$ le calcul n'est pas compliqu{\'e}. \subsubsection{Inversion d'une matrice $3 \times 3$} soit une matrice $3 \times 3$ $\tmmathbf{A}$=$\left(\begin{array}{ccc} a & b & c\\ d & e & f\\ g & h & i \end{array}\right)$ On commence par construire la {\tmem{matrice des mineurs}} : C'est une matrice form{\'e}e par les d{\'e}terminants des sous matrices que l'on peut former {\`a} partir de la matrice $\tmmathbf{A}$ On va remplacer chaque {\'e}l{\'e}ment de $\tmmathbf{A}$ par le d{\'e}terminant form{\'e} {\`a} partir des {\'e}l{\'e}ments ne faisant PAS partie de la ligne NI de la colonne comprenant l'{\'e}l{\'e}ment consid{\'e}r{\'e}. Par exemple on va remplacer l'{\'e}l{\'e}ment $a$ par le d{\'e}terminant form{\'e} par les {\'e}l{\'e}ments $\left(\begin{array}{cc} e & f\\ h & i \end{array}\right)$, les autres {\'e}tant ignor{\'e}s : $\left(\begin{array}{ccc} \tmmathbf{a} & b & c\\ d & e & f\\ g & h & i \end{array}\right)$ on remplace donc $a$ par $\left|\begin{array}{cc} e & f\\ h & i \end{array}\right| = e i - f h$ et ainsi de suite... voici donc cette matrice des mineurs : $\left(\begin{array}{ccc} \left|\begin{array}{cc} e & f\\ h & i \end{array}\right| & \left|\begin{array}{cc} d & f\\ g & i \end{array}\right| & \left|\begin{array}{cc} d & e\\ g & h \end{array}\right|\\ \left|\begin{array}{cc} b & c\\ h & i \end{array}\right| & \left|\begin{array}{cc} a & c\\ g & i \end{array}\right| & \left|\begin{array}{cc} a & b\\ g & h \end{array}\right|\\ \left|\begin{array}{cc} b & c\\ e & f \end{array}\right| & \left|\begin{array}{cc} a & c\\ d & f \end{array}\right| & \left|\begin{array}{cc} a & b\\ d & e \end{array}\right| \end{array}\right) = \left(\begin{array}{ccc} e i - f h & d i - f g & d h - e g\\ b i - c h & a i - c g & a h - b g\\ b f - c e & a f - c d & a e - b d \end{array}\right)$ Nous allons maintenant former la {\tmem{comatrice}}, c'est {\`a} dire la matrice des {\tmem{cofacteurs}} : pour cela on va multiplier chacun des {\'e}l{\'e}ments de la matrice des mineurs par les signes correspondants de cette matrice des signes : $\left(\begin{array}{ccc} + & - & +\\ - & + & -\\ + & - & + \end{array}\right)$ voici donc cette comatrice : $\left(\begin{array}{ccc} e i - f h & - (d i - f g) & d h - e g\\ - (b i - c h) & a i - c g & - (a h - b g)\\ b f - c e & - (a f - c d) & a e - b d \end{array}\right)$ \ Il faut maintenant calculer le d{\'e}terminant de la matrice de d{\'e}part : $\det (\tmmathbf{A}) = \det \left(\begin{array}{ccc} a & b & c\\ d & e & f\\ g & h & i \end{array}\right) = (a e i + d h c + g b f) - (g e c + a h f + d b i)$ comme vu plus haut (c'est un simple scalaire). Il faut {\'e}galement calculer la transpos{\'e}e de la comatrice, c'est {\`a} dire la matrice obtenue en formant des lignes avec les colonnes (la premi{\`e}re ligne devenant la premi{\`e}re colonne et ainsi de suite...) Voici donc la transpos{\'e}e de la comatrice : $\left(\begin{array}{ccc} e i - f h & - (b i - c h) & b f - c e\\ - (d i - f g) & a i - c g & - (a f - c d)\\ d h - e g & - (a h - b g) & a e - b d \end{array}\right)$ \ Nous pouvons maintenant {\'e}crire la matrice inverse de $\tmmathbf{A}$ $\tmmathbf{A}^{- 1} = \frac{1}{\det (\tmmathbf{A}) } \times^t \tmop{com} (\tmmathbf{A})$ L'inverse de la matrice est {\'e}gale {\`a} l'inverse du d{\'e}terminant multipli{\'e} par la transpos{\'e}e de la comatrice. Ce qui donne : $\tmmathbf{A}^{- 1} = \frac{1}{a e i + d h c + g b f - \nobracket g e c - a h f - d b i)} \times \left(\begin{array}{ccc} e i - f h & - (b i - c h) & b f - c e\\ - (d i - f g) & a i - c g & - (a f - c d)\\ d h - e g & - (a h - b g) & a e - b d \end{array}\right)$ C'est en g{\'e}n{\'e}ral un ordinateur (ou un syst{\`e}me physique, mais alors nous n'en voyons pas les {\'e}quations !) qui le calculera. Toutefois la m{\'e}thode doit {\^e}tre connue ne serait-ce que pour pouvoir programmer la fonction correspondante... Je vous disais plus haut que le nombre d'op{\'e}rations {\'e}l{\'e}mentaires {\`a} effectuer augmente en $O (n!)$ (factorielle $n$). Vu le nombre d'op{\'e}rations requises pour cette simple matrice $3 \times 3$, on imagine ce que {\c c}a peut donner pour une $20 \times 20$ par exemple. Mais heureusement il y a les astuces... \ \ \ \ \end{document}
Remarque : J'ai rédigé cet article en Latex avec TexMacs sous Linux. Ensuite, afin de pouvoir l'afficher sur cette page html calculée en php, je l'ai exporté sous forme d'un document au format pdf. Fort bien, mais celà ne suffit pas pour le faire afficher simplement sur une page web. J'ai donc exporté le pdf sous la forme d'une suite d'images jpg, qui sont affichées ci-dessus. L'inconvéniant c'est que vous ne pouvez pas en extraite le texte. Or moi je donne tout. Donc vous trouverez ci-dessous un fichier compressé comprenant le code latex, et le fichier pdf.
  • documents (latex.tex , TexMacs.tex , pdf, images...)


1 -

Voici un programme perso de calcul de produit matriciel, en C++ Qt4 .
Dans le fichier .tar.gz vous trouverez l'intégralité des sources ainsi que les programmes compilés (exécutables) pour linux.

2 -

3 -




Me contacter à propos de cet article :

Question mathématique :

Click to reload image
=
cliquez sur l'image pour un faire autre calcul.




Réponses à certaines de vos questions...
407