8.5 Matrice d’une application linéaire
Soit \(V\) un espace vectoriel de dimension \(n.\) Rappelons que, pour une base ordonnée \(\Gamma = \left(\mathbf{u}^{(1)},\ldots,\mathbf{u}^{(n)}\right)\) de \(V\) et un vecteur \(\mathbf{u} \in V,\) la représentation de \(\mathbf{u}\) par un uplet par rapport à \(\Gamma,\) dénoté par \([\mathbf{u}]_{\Gamma},\) est l’uplet \(\begin{bmatrix} \lambda_1 \\ \lambda_2 \\ \vdots \\ \lambda_n\end{bmatrix}\) tel que \(\displaystyle \mathbf{u} = \sum_{i=1}^n \lambda_i \mathbf{u}^{(i)}.\) (Notons que les \(\lambda_1,\ldots,\lambda_n\) sont uniquement déterminés puisque \(\{\mathbf{u}^{(1)},\ldots,\mathbf{u}^{(n)}\}\) est une base de \(V.\)) On peut alors utiliser les uplets plutôt que les vecteurs originaux dans l’espace vectoriel.
Nous allons maintenant voir que l’on peut exprimer toute application linéaire à l’aide d’une matrice, ce qui nous permettre se concentrer sur les applications linéaires de la forme \(T(\mathbf{u}) = \mathbf{A}\mathbf{u}\), où \(\mathbf{A}\) est une matrice. La matrice va dépendre du choix de la base ordonnée du domaine et du choix de la base ordonnée du codomaine.
Soient \(V\) et \(W\) des espaces vectoriels à scalaires dans un corps \(\mathbb{K}.\) Soient \(\Gamma = \left(\mathbf{v}^{(1)},\ldots,\mathbf{v}^{(n)}\right)\) une base ordonnée de \(V\) et \(\Omega = \left(\mathbf{w}^{(1)},\ldots,\mathbf{w}^{(m)}\right)\) une base ordonnée de \(W.\)
Si \(T:V \rightarrow W\) est une application linéaire, on peut calculer sa représentation matricielle comme suit :
Pour chaque \(j \in \{1,\ldots,n\},\) \(T\left(\mathbf{v}^{(j)}\right)\) est un vecteur de \(W.\) Donc, on peut écrire \(T\left(\mathbf{v}^{(j)}\right)\) en tant que combinaison linéaire de \(\mathbf{w}^{(1)},\ldots,\mathbf{w}^{(m)}.\) Ainsi, il existe des scalaires \(a_{1,j}, a_{2,j},\ldots, a_{m,j}\) tels que \[T(\mathbf{v}^{(j)}) = a_{1,j}\mathbf{w}^{(1)} + a_{2,j}\mathbf{w}^{(2)} + \cdots + a_{m,j}\mathbf{w}^{(m)}.\]
Soit \(\mathbf{u} \in V.\) Alors il existe \(\lambda_1,\ldots,\lambda_n \in \mathbb{K}\) tels que \(\mathbf{u} = \lambda_1 \mathbf{v}^{(1)} +\cdots + \lambda_n \mathbf{v}^{(n)},\) d’où \([\mathbf{u}]_\Gamma = \begin{bmatrix} \lambda_1 \\ \vdots \\ \lambda_n\end{bmatrix}.\)
Nous avons alors \[\begin{align*} T(\mathbf{u}) & = T\left(\lambda_1 \mathbf{v}^{(1)} +\cdots + \lambda_n \mathbf{v}^{(n)} \right) \\ & = \sum_{j=1}^n \lambda_j T\left(\mathbf{v}^{(j)}\right) \\ & = \sum_{j=1}^n \lambda_j \left (\sum_{i=1}^m a_{i,j} \mathbf{w}^{(i)} \right)\\ & = \sum_{j=1}^n \sum_{i=1}^n (a_{i,j} \lambda_j)\mathbf{w}^{(i)} \\ & = \sum_{i=1}^m \left(\sum_{j=1}^n a_{i,j}\lambda_j\right ) \mathbf{w}^{(i)}, \end{align*}\] et \[[T(\mathbf{u})]_{\Omega} = \displaystyle\begin{bmatrix} \sum_{j=1}^n a_{1,j}\lambda_j \\ \sum_{j=1}^n a_{2,j}\lambda_j \\ \vdots \\ \sum_{j=1}^n a_{m,j}\lambda_j \end{bmatrix} = \begin{bmatrix} a_{1,1} & a_{1,2} & \cdots & a_{1,n} \\ a_{2,1} & a_{2,2} & \cdots & a_{2,n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m,1} & a_{m,2} & \cdots & a_{m,n} \end{bmatrix} \begin{bmatrix} \lambda_1 \\ \lambda_2 \\ \vdots \\ \lambda_n\end{bmatrix}.\] Si \(\mathbf{A} \in \mathbb{K}^{m\times n}\) est telle que \(\mathbf{A}_{i,j} = a_{i,j},\) alors \([T(\mathbf{u})]_{\Omega}\) est précisément \(\mathbf{A} [\mathbf{u}]_{\Gamma}.\)
Ainsi, pour un \(\mathbf{u} \in V\) donné, on peut obtenir la représentation de \(T(\mathbf{u})\) par un uplet par rapport à \(\Omega\) en calculant \(\mathbf{A}[\mathbf{u}]_{\Gamma}.\) La matrice \(\mathbf{A}\) est appelée la matrice de représentation de \(T\) par rapport à \(\Gamma\) et \(\Omega\) et est dénotée par \([T]_{\Gamma}^{\Omega}.\)
Notons que la \(i\)-ième colonne de \([T]_\Gamma^\Omega\) est donnée par \([T(\mathbf{v}^{(i)})]_{\Omega}.\)
Exemple 8.10 Soit \(T:\mathbb{R}^3\rightarrow P_2(\mathbb{R})\) une application linéaire donnée par \[T\left(\begin{bmatrix} a\\b\\c\end{bmatrix}\right) = (a-b)x^2 + cx + (a+b+c).\] Soit \(\Gamma = \left ( \begin{bmatrix} 1\\0\\0\end{bmatrix}, \begin{bmatrix} 1\\1\\0\end{bmatrix}, \begin{bmatrix} 0 \\-1\\1\end{bmatrix} \right)\) et \(\Omega = (x+1,x^2 - x, x^2 + x -1).\) Trouvons maintenant \([T]_{\Gamma}^{\Omega}.\)
On vérifier facilement que \(\Gamma\) et \(\Omega\) sont des bases ordonnées pour \(\mathbb{R}^3\) et \(P_2(\mathbb{R}),\) respectivement.
La matrice recherché prend la forme \([T]_{\Gamma}^{\Omega} = \begin{bmatrix} \alpha_1 & \alpha_2 & \alpha_3 \\ \beta_1 & \beta_2 & \beta_3 \\ \gamma_1 & \gamma_2 & \gamma_3 \\ \end{bmatrix},\) où \[\begin{align*} T\left ( \begin{bmatrix} 1\\0\\0\end{bmatrix}\right) & = \alpha_1(x+1) + \beta_1(x^2-x) + \gamma_1(x^2+x-1) \\ T\left ( \begin{bmatrix} 1\\1\\0\end{bmatrix}\right) & = \alpha_2(x+1) + \beta_2(x^2-x) + \gamma_2(x^2+x-1) \\ T\left ( \begin{bmatrix} 0\\-1\\1\end{bmatrix}\right) & = \alpha_3(x+1) + \beta_3(x^2-x) + \gamma_3(x^2+x-1). \end{align*}\]
Comme \(T\left ( \begin{bmatrix} 1\\0\\0\end{bmatrix}\right) = x^2 + 1,\) on doit avoir \[x^2 + 1 = \alpha_1(x+1) + \beta_1(x^2-x) + \gamma_1(x^2+x-1),\] ou, de façon équivalente, \[x^2 + 1 = (\beta_1+\gamma_1)x^2 + (\alpha_1-\beta_1+\gamma_1)x + (\alpha_1-\gamma_1).\] La comparaison des coefficients donne \[\begin{align*} 1 & = \beta_1 + \gamma_1 \\ 0 & = \alpha_1 -\beta_1 + \gamma_1 \\ 1 & = \alpha_1 - \gamma_1, \end{align*}\] dont la solution unique est \(\alpha_1 = 1,\) \(\beta_1 = 1,\) \(\gamma_1 = 0.\)
De façon similaire, on obtient \[T\left ( \begin{bmatrix} 1\\1\\0\end{bmatrix}\right) = 2 = \frac{4}{3}(x+1) + \frac{2}{3}(x^2-x) - \frac{2}{3}(x^2+x-1)\] et \[T\left ( \begin{bmatrix} 0\\-1\\1\end{bmatrix}\right) = x^2 + x = \frac{2}{3}(x+1) + \frac{1}{3}(x^2-x) + \frac{2}{3}(x^2+x-1),\] d’où \([T]_{\Gamma}^{\Omega} = \begin{bmatrix} 1 & \frac{4}{3} & \frac{2}{3} \\ 1 & \frac{2}{3} & \frac{1}{3} \\ 0 & -\frac{2}{3} & \frac{2}{3} \end{bmatrix}.\)
On vérifie le rèsultat à l’aide de deux vecteurs particuliers, \(\mathbf{u} = \begin{bmatrix} 0 \\ 1 \\0\end{bmatrix}\) et \(\mathbf{v} = \begin{bmatrix} 0 \\ 0 \\ 1\end{bmatrix}.\) Alors \(T(\mathbf{u}) = -x^2 + 1,\) \(T(\mathbf{v}) = x + 1\), \([\mathbf{u}]_\Gamma = \begin{bmatrix} -1 \\ 1 \\0\end{bmatrix}\) et \([\mathbf{v}]_\Gamma = \begin{bmatrix} -1\\1 \\ 1\end{bmatrix}.\)
Soit \(\mathbf{A} = [T]_{\Gamma}^{\Omega}.\) Dans ce cas, \(\mathbf{A}[\mathbf{u}]_\Gamma = \begin{bmatrix} \frac{1}{3}\\-\frac{1}{3}\\-\frac{2}{3} \end{bmatrix}\) est la représentation par un uplet de \(\frac{1}{3}(x+1)-\frac{1}{3}(x^2-x)-\frac{2}{3}(x^2+x-1) = -x^2+1 = T(\mathbf{u}),\) et \(\mathbf{A} [\mathbf{v}]_\Gamma = \begin{bmatrix} 1\\0\\0\end{bmatrix}\) qui est la représentation par un uplet de \(x+1 = T(\mathbf{v}).\)
Les section précédents établissent un cadre unificateur pour les applications linéaires, les matrices, les uplets, et les vecteurs. De façon générique, il n’y a pas de différence fondamentale entre un espace vectoriel \((V,\mathbb{K})\) de dimension \(n\) et \(\mathbb{K}^n\); c’est aussi le cas pour les matrices \(\mathbb{K}^{m\times n}\) et l’espace des applications linéaires \(T:\mathbb{K}^n \rightarrow \mathbb{K}^m.\)
Exercices
Soit \(T:\mathbb{R}^2 \rightarrow \mathbb{R}^2\) une application linéaire. Soit \(\Gamma = \left ( \begin{bmatrix} 1 \\ 0 \end{bmatrix}, \begin{bmatrix} 1\\ 1 \end{bmatrix}\right)\) et \(\Omega = \left ( \begin{bmatrix} 2 \\ 1 \end{bmatrix}, \begin{bmatrix} 1\\ 0 \ \end{bmatrix}\right)\) des bases ordonnées de \(\mathbb{R}^2.\)
Supposons que \(T\) est donnée par \(T\left(\begin{bmatrix} x_1 \\ x_2 \end{bmatrix}\right)= \begin{bmatrix} 2x_1 - x_2 \\ x_1 + x_2 \end{bmatrix}.\) Trouvez \([T]_\Gamma^\Omega.\)
Supposons que \(T\left(\begin{bmatrix} 1 \\ 0 \end{bmatrix}\right)= \begin{bmatrix} 2 \\ 1 \end{bmatrix}\) et \(T\left(\begin{bmatrix} 0 \\ 1 \end{bmatrix}\right)= \begin{bmatrix} 1 \\ -1 \end{bmatrix}.\) Trouvez \([T]_\Gamma^\Omega.\)
Solutions
Notons que \[T\left(\begin{bmatrix} 1 \\ 0 \end{bmatrix}\right)= \begin{bmatrix} 2 \\ 1 \end{bmatrix} = 1\begin{bmatrix} 2 \\ 1\end{bmatrix} + 0\begin{bmatrix} 1 \\ 0\end{bmatrix}\] et \[T\left(\begin{bmatrix} 1 \\ 1 \end{bmatrix}\right)= \begin{bmatrix} 1 \\ 2 \end{bmatrix} = 2\begin{bmatrix} 2 \\ 1\end{bmatrix} + (-3)\begin{bmatrix} 1 \\ 0\end{bmatrix}\] Donc, \([T]_\Gamma^\Omega = \begin{bmatrix} 1 & 2 \\ 0 & -3 \end{bmatrix}.\)
En se basant sur les informations données, on voit que \[T\left( \begin{bmatrix} x_1 \\ x_2 \end{bmatrix} \right) = \begin{bmatrix} 2x_1 + x_2 \\ x_1 - x_2 \end{bmatrix}.\] Donc, \([T]_\Gamma^\Omega = \begin{bmatrix} 1 & 0 \\ 0 & 3\end{bmatrix}.\)