6.15 Exemple de test portant sur la matière de ce chapitre
Montrez que \(\operatorname{Vect}\left ({\left \{ \begin{bmatrix} i \\ 0 \end{bmatrix}, \begin{bmatrix} 1 \\ 1-i \end{bmatrix} \right \}} \right) = \mathbb{C}^2\).
Est-ce que \(\begin{bmatrix} 1& 0 \\ 0 & 1\end{bmatrix}\) appartient à le sous-espace de \(\mathbb{R}^{2\times 2}\) engendré par \(\left \{ \begin{bmatrix} 3 & 1 \\ 1 & -1 \end{bmatrix}, \begin{bmatrix} 0 & 1 \\ 1 & 2 \end{bmatrix}, \begin{bmatrix} 1 & 1 \\ 1 & 0 \end{bmatrix} \right \}\)?
Soient \(\mathbf{A},\mathbf{B},\mathbf{C} \in \mathbb{R}^{2\times 2}\) les matrices \(\mathbf{A} = \begin{bmatrix} 1 & 1 \\ 1 & 0 \end{bmatrix}\), \(\mathbf{B} = \begin{bmatrix} -1 & 0 \\ 1 & 0 \end{bmatrix}\), et \(\mathbf{C} = \begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix}\). Donnez une description économe de l’espace engendré par \(\{\mathbf{A},\mathbf{B},\mathbf{C}\}\).
Montrez que l’espace engendré par \(\{x, x^2 -1\}\) est un sous-espace propre de \(P_2(\mathbb{R}).\)
Déterminez si \(x^2 + 1\) est dans l’espace engendré par \(\{x^2 + x + 1, x+2\}\), où les scalaires sont les nombres réels.
Soient \(\mathbf{p}^{(1)} = -x+1\), \(\mathbf{p}^{(2)} = x+2\), et \(\mathbf{p}^{(3)} = x^2+1\).
Montrez que \(\{\mathbf{p}^{(1)},\mathbf{p}^{(2)},\mathbf{p}^{(3)}\}\) est une base de \(P_2(\mathbb{R})\).
Écrivez \(x^2 + 2x\) en tant que combinaison linéaire de \(\mathbf{p}^{(1)},\mathbf{p}^{(2)},\mathbf{p}^{(3)}.\)
Soit \(\mathbf{A} = \begin{bmatrix} 1 & 1\\ 0 & 2 \\ -1 & 0 \end{bmatrix}\) une matrice réelle. Est-ce que \(\begin{bmatrix} 1\\1\\1\end{bmatrix}\) appartient à \({\operatorname{Col}({\mathbf{A}})}\)?
Soit \(\mathbf{A} \in \mathbb{R}^{2\times 4}\). Quelle est la plus petite valeur possible de la nullité de \(\mathbf{A}\)?
Soient \(\Gamma = ( x^2-1, x+1, x)\) une base ordonnée de \(P_2(\mathbb{R})\) et \(\mathbf{u} = x-1\). Déterminez \([\mathbf{u}]_{\Gamma}\).
Déterminez la dimension du sous-espace de \(\mathbb{R}^{2\times 2}\) donné par \(\left \{ \begin{bmatrix} a & b \\ c & d \end{bmatrix} \,:\,\begin{array}{r} a + b + c + d = 0 \\~b - c + 2d= 0 \end{array} \right \}\).
Soient \(\mathbf{t},\mathbf{u},\mathbf{v},\mathbf{w} \in \mathbb{R}^3\) les vecteurs \(\mathbf{t} = \begin{bmatrix} 1 \\ 0 \\ -2\end{bmatrix}\), \(\mathbf{u} = \begin{bmatrix} 1 \\ -1\\ 2\end{bmatrix}\), \(\mathbf{v} = \begin{bmatrix} -3 \\ 2 \\ -2\end{bmatrix}\), \(\mathbf{w} = \begin{bmatrix} 2 \\ -1 \\ 0\end{bmatrix}\). Soit \(W\) le sous-espace de \(\mathbb{R}^3\) engendré par \(\{\mathbf{t},\mathbf{u},\mathbf{v},\mathbf{w}\}\). Montrez que \(W\) est un sous-espace propre de \(\mathbb{R}^3\).
Solutions
Il suffit de démontrer que pour tout choix de \(z_1, z_2\in \mathbb{C}^2\), il existe \(\alpha,\beta\in\mathbb{C}\) tels que \(\alpha \begin{bmatrix} i \\ 0 \end{bmatrix} + \beta \begin{bmatrix} 1 \\ 1-i \end{bmatrix} = \begin{bmatrix} z_1 \\ z_2\end{bmatrix}\).
L’équation peut être écrite sous la forme \(\begin{bmatrix} i & 1 \\ 0 & 1-i\end{bmatrix} \begin{bmatrix} \alpha \\ \beta \end{bmatrix} = \begin{bmatrix} z_1 \\ z_2\end{bmatrix}.\)
La matrice augmentée du système est \(\left [ \begin{array}{cc|c} i & 1 & z_1 \\ 0 & 1-i & z_2 \end{array} \right].\)
Il serait possible de réduire la matrice mais la deuxième ligne représente l’équation \((1-i)\beta = z_2\), que l’on résoud aisément, et \(\beta = \frac{z_2}{1-i} = \frac{1+i}{2}z_2\).
En substituant ce \(\beta\) dans l’équation correspondante à la première ligne, on obient \(i\alpha + \frac{1+i}{2}z_2 = z_1\), ce qui implique \(\alpha = -i\left(z_1 - \frac{1+i}{2}z_2\right) = -iz_1 + \frac{-1+i}{2}z_2.\) Donc, une solution existe peu importe les valeurs de \(z_1, z_2\).
(Il n’y a aucun besoin de résoudre pour \(\alpha\) et \(\beta\) explicitement. La matrice des coefficients est carrée et a pour déterminant \(i(1-i)\neq 0\). Par la règle de Cramer, une solution unique existe et c’est tout ce dont nous avons besoin pour notre conclusion.)
Nous aimerions déterminer s’il existe \(a,b,c \in\mathbb{R}\) tels que \[\begin{bmatrix} 1& 0 \\ 0 & 1\end{bmatrix} = a\begin{bmatrix} 3 & 1 \\ 1 & -1 \end{bmatrix} +b\begin{bmatrix} 0 & 1 \\ 1 & 2 \end{bmatrix} +c\begin{bmatrix} 1 & 1 \\ 1 & 0 \end{bmatrix}\] On peut réécrire le côté droit afin d’obtenir \[\begin{bmatrix} 1& 0 \\ 0 & 1\end{bmatrix} = \begin{bmatrix} 3a + c & a + b + c \\ a + b + c & -a +2b \end{bmatrix}.\]
En comparant les éléments de chaque côté, on obtient le système \[\begin{align*} 3a + c & = 1 \\ a + b + c & = 0 \\ a + b + c & = 0 \\ -a + 2b & = 1. \end{align*}\] La FER de la matrice augmentée du système est \[\left[\begin{array}{ccc|c} 1 & 0 & 0 & 1 \\ 0 & 1 & 0 & 1 \\ 0 & 0 & 1 & -2 \\ 0 & 0 & 0 & 0 \\ \end{array}\right].\] Il y a donc une solution unique (\(a = 1\) et \(c = -2\)) et la réponse à la question est « oui ».
Par définition, l’espace engendré par \(\{\mathbf{A},\mathbf{B},\mathbf{C}\}\) est \[\begin{align*} & \left \{ \alpha \mathbf{A} + \beta \mathbf{B} + \gamma \mathbf{C} \,:\, \alpha,\beta, \gamma \in \mathbb{R} \right \} \\ = ~& \left \{ \begin{bmatrix} \alpha - \beta & \alpha + \gamma \\ \alpha + \beta + \gamma & 0 \end{bmatrix} \,:\,\alpha,\beta, \gamma \in \mathbb{R} \right \}\ \end{align*}\] Cet espace est identique à \(\left \{ \begin{bmatrix} r & s \\ t & 0 \end{bmatrix} \,:\,r, s, t \in \mathbb{R}\right \}.\) En effet, le système \[\begin{align*} \alpha - \beta & = r \\ \alpha + \gamma & = s \\ \alpha + \beta + \gamma & = t \end{align*}\] admet une solution, indépendamment du choix de \(r,s,t\in \mathbb{R}\), donnée par \(\alpha = r - s + t\), \(\beta = -s + t,\) et \(\gamma = -r + 2s -t\). L’espace en question contient toutes les matrices de la forme \(\begin{bmatrix} r & s \\ t & 0 \end{bmatrix}\), où \(r, s, t \in \mathbb{R}\).
Il suffit de trouver un vecteur de \(P_2(\mathbb{R})\) qui ne peut s’écrire en tant que combinaison linéaire de \(x\) et \(x^2 - 1\).
Le polynôme \(x^2\) est un tel vecteur. Supposons, au contraire, qu’il existe \(\alpha, \beta \in \mathbb{R}\) tels que \(x^2 = \alpha x + \beta (x^2 - 1)\). Alors, \[x^2 = \beta x^2 + \alpha x - \beta.\] En comparant les coefficients de \(x^2\) de chaque côté, on obtient \(\beta = 1\). Mais le terme de gauche n’a pas de constante tandis que le terme de droite en a une, \(-\beta\). Ceci implique \(\beta = 0\). Mais \(\beta = 1\), une contradiction.
Par définition, \(x^2 + 1\) appartient à l’espace engendré par \(\{x^2 + x + 1, x+2\}\) si et seulement s’il existe \(\alpha, \beta \in RR\) tels que \[x^2 + 1 = \alpha (x^2 + x + 1) + \beta (x+2).\]
En réécrivant le côté doit, on obtient \[x^2 + 1 = \alpha x^2 + (\alpha+ \beta) x + (\alpha + 2\beta).\] En comparant les coefficients de chaque côtés, on obtient le système \[\begin{align*} 1 & = \alpha \\ 0 & = \alpha + \beta \\ 1 & = \alpha + 2\beta. \end{align*}\] Ainsi, \(\alpha = 1\). La deuxième équation nous donne alors \(\beta = -1\). Mais ceci veut dire que \(\alpha + 2\beta = -1 \neq 1\), ce qui implique \(\alpha\) et \(\beta\) ne peuvent exister. Ainsi, \(x^2 + 1\) n’appartient pas à l’espace engendré par \(\{x^2 + x + 1, x+2\}\).
Nous montrons d’abord que \(\operatorname{Vect}\left ({\{\mathbf{p}^{(1)},\mathbf{p}^{(2)},\mathbf{p}^{(3)}\}} \right) = P_2(\mathbb{R})\). Pour ce faire, soient \(a,b,c\in \mathbb{R}\). Nous devons montrer qu’il existe \(\alpha,\beta,\gamma\in \mathbb{R}\) tels que \[\alpha \mathbf{p}^{(1)} + \beta \mathbf{p}^{(2)} + \gamma \mathbf{p}^{(3)} = ax^2 + bx + c.\]
La simplification à gauche donne \[ \gamma x^2 + (-\alpha + \beta)x + (\alpha +2\beta + \gamma) = ax^2 + bx + c.\]
En comparant les coefficients de chaque côté, on obtient \[\begin{align*} \gamma & = a \\ -\alpha + \beta & = b \\ \alpha + 2\beta + \gamma & = c. \\ \end{align*}\] Ce système admet la solution unique \(\alpha = \frac{-a - 2b + c}{3}\), \(\beta = \frac{-a+b+c}{3}\). et \(\gamma = a\).
Notons que le polynôme nul s’obtient avec \(a = b = c = 0\). Mais ceci impose \(\alpha = \beta = \gamma = 0\), d’où \(\{\mathbf{p}^{(1)},\mathbf{p}^{(2)},\mathbf{p}^{(3)}\}\) est un ensemble linéairement indépendant. C’est donc une base de \(P_2(\mathbb{R})\).
\(x^2 + 2x = -\frac{5}{3}\mathbf{p}^{(1)} + \frac{1}{3}\mathbf{p}^{(2)} + \mathbf{p}^{(3)}\).
Notons que \(\begin{bmatrix} 1\\1\\1\end{bmatrix} \in {\operatorname{Col}({\mathbf{A}})}\) si et seulement s’il existe \(\alpha,\beta \in \mathbb{R}\) tels que \[\begin{bmatrix} 1\\1\\1\end{bmatrix} = \alpha \begin{bmatrix} 1 \\ 0 \\ -1\end{bmatrix} + \beta \begin{bmatrix} 1 \\ 2 \\ 0\end{bmatrix},\] ou, de façon équivalente, \[\begin{bmatrix} 1\\1\\1\end{bmatrix} = \begin{bmatrix} \alpha + \beta \\ 2\beta \\ -\alpha\end{bmatrix}.\] On voit aisément que le système n’admet pas de solution. Ainsi, \(\begin{bmatrix} 1\\1\\1\end{bmatrix} \notin {\operatorname{Col}({\mathbf{A}})}\).
Soient \(k\) la nullité de \(\mathbf{A}\) et \(r\) son rang. D’après le théorème 6.3, on doit avoir \(r+k=4.\) Le rang d’une matrice \(2\times 4\) est au plus \(2\) puisqu’en FER, il peut y avoir au plus deux pivots. Ainsi, \(2 + k \geq r + k\) implique que \(2 + k \geq 4\), d’où \(k \geq 2.\) Notons que la nullité peut être 2 (c’est le cas pour \(\mathbf{A} = \begin{bmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \end{bmatrix}\), par exemple.) La nullité de \(\mathbf{A}\) doit donc être supérieure ou égale à 2.
Nous devons écrire \(\mathbf{u}\) en tant que combinaison linéaire des éléments de la base ordonnée. Si \(\alpha, \beta, \gamma \in \mathbb{R}\) sont tels que \[\mathbf{u} = \alpha (x^2-1) + \beta (x+1) + \gamma x,\] alors, \([\mathbf{u}]_{\Gamma} = \begin{bmatrix} \alpha \\ \beta \\ \gamma \end{bmatrix}.\)
Cette équation peut se réécrire sous la forme \[x-1 = \alpha x^2 + (\beta+\gamma)x + (-\alpha + \beta). \] En comparant les coefficients de chaque côté, on obtient \[\begin{align*} 0 & = \alpha \\ 1 & = \beta + \gamma \\ -1 & = -\alpha + \beta. \end{align*}\] Ce système admet la solution unique \(\alpha = 0\). \(\beta = -1\). et \(\gamma = 2\), d’où \([\mathbf{u}]_{\Gamma} = \begin{bmatrix} 0 \\ -1 \\ 2\end{bmatrix}\).
De la deuxième équation, on voit que \(b = c - 2d\). En substituant dans la première équation, on obtient \(a = -2c + d\). Ainsi, le sous-espace, que l’on nomme \(W\), peut être écrit sous la forme \(\left \{ \begin{bmatrix} -2c+d & c-2d \\ c & d \end{bmatrix} \,:\,c,d \in \mathbb{R}\right \}\).
Chaque matrice de \(W\) est alors une combinaison linéaire: \(c \begin{bmatrix} -2 & 1 \\ 1 & 0\end{bmatrix} + d\begin{bmatrix} 1 & -2 \\ 0 & 1\end{bmatrix}\), d’où \(W\) est l’espace engendré par \(\left\{ \begin{bmatrix} -2 & 1 \\ 1 & 0\end{bmatrix}, \begin{bmatrix} 1 & -2 \\ 0 & 1\end{bmatrix}\right\}\).
Puisque les deux matrices ne sont pas des multiples scalaires l’une de l’autre, ils forment un ensemble linéairement indépendant et une base de \(W\), d’où \(\dim(W) = 2\).
Pour montrer que \(W\) est un sous-espace propre de \(\mathbb{R}^3\), nous devons montrer qu’il existe \(\mathbf{x} \in \mathbb{R}^3\) qui n’appartient pas à \(W\).
Cependant, nous n’allons pas essayer directement de trouver un tel \(\mathbf{x}\). Nous allons plutôt montrer que la dimension de \(W\) est inférieure à 3. Puisque la dimension de \(\mathbb{R}^3\) est 3, il s’ensuit que \(W \neq \mathbb{R}^3.\)
Rappelons que l’espace engendré par \(\{\mathbf{t},\mathbf{u},\mathbf{v},\mathbf{w}\}\) est donné par l’ensemble de combinaisons linéaires de \(\mathbf{t}\), \(\mathbf{u}\), \(\mathbf{v}\) et \(\mathbf{w}\). Notons que si \(\mathbf{A}\) est une matrice \(\begin{bmatrix}\mathbf{t} & \mathbf{u} & \mathbf{v} & \mathbf{w}\end{bmatrix},\) alors l’espace des colonnes de \(\mathbf{A}\) est précisement l’ensemble des combinaisons linéaires de \(\mathbf{t}, \mathbf{u}, \mathbf{v}, \mathbf{w}.\) Donc, la dimension de l’espace engendré par \(\{\mathbf{t},\mathbf{u},\mathbf{v},\mathbf{w}\}\) est le rang de \[\begin{bmatrix} 1 & 1 & -3 & 2\\ 0 &-1 & 2 & -1 \\ -2 & 2 & -2 & 0\end{bmatrix}.\] En réduisant la matrice ci-dessus sous FER, on obtient \[\begin{bmatrix} 1 & 0 & -1 & 1\\ 0 & 1 & -2 & 1 \\ 0 & 0 & 0 & 0\end{bmatrix}.\] Puisqu’il n’y a que deux colonnes pivots, le rang est \(2\).
Ainsi, la dimension de l’espace engendré par \(\{\mathbf{t},\mathbf{u},\mathbf{v},\mathbf{w}\}\) est \(2\), d’où \(\dim(W) < 2\).