6.7 Indépendance linéaire

Un ensemble de vecteurs est dit minimal si on ne peut retirer un des vecteurs sans modifier l’espace engendré.

Exemple 6.11 L’ensemble \(\left\{\begin{bmatrix} 1\\0\\1\end{bmatrix}, \begin{bmatrix} 1\\1\\0\end{bmatrix}\right\}\) est minimal dans \(\mathbb{R}^{3}\). En effet, si on retire le premier élément, on ne peut engendrer de vecteurs avec une troisième composante non nulles. Si on retire le second, auncun des vecteurs engendrés ne possède une seconde composante non nulle.

Exemple 6.12 L’ensemble \(\{\mathbf{u}, \mathbf{v}, \mathbf{w}\}\), où \(\mathbf{u},\mathbf{v},\mathbf{w}\) sont des vecteurs d’un espace vectoriel à scalaires dans \(\mathbb{R}\) satisfaisant à \(\mathbf{u} = 2\mathbf{v} - \mathbf{w}\) n’est pas minimal. Dans l’espace engendré par \(\{\mathbf{u},\mathbf{v},\mathbf{w}\}\), chaque vecteur peut s’écrire sous la forme \(\alpha\mathbf{u} + \beta \mathbf{v} + \gamma \mathbf{w}\), pour des scalaires \(\alpha, \beta, \gamma\). Puisque \(\mathbf{u} = 2\mathbf{v} - \mathbf{w}\), \(\alpha\mathbf{u} + \beta \mathbf{v} + \gamma \mathbf{w}\) peut aussi s’écrire sous la forme \[\alpha(2\mathbf{v} -\mathbf{w} ) + \beta \mathbf{v} + \gamma \mathbf{w} = (2\alpha + \beta)\mathbf{v} + (\gamma - \alpha) \mathbf{w},\] qui n’est qu’une combinaison linéaire de \(\mathbf{v}\) et \(\mathbf{w}\). On peut alors retirer \(\mathbf{u}\) avec impunité.

Soit \(V\) un espace vectoriel à scalaires dans un corps \(\mathbb{K}\). Les vecteurs \(\mathbf{v}^{(1)},\ldots, \mathbf{v}^{(k)}\) de \(V\) sont dit linéairement indépendants s’il n’existe pas d’indice \(i \in \{1,\ldots,k\}\) tel que \(\mathbf{v}^{(i)}\) appartient à l’espace engendré par les \(k-1\) autres vecteurs.

On peut définir l’indépendance linéaire d’une façon équivalente: \(\mathbf{v}^{(1)},\ldots, \mathbf{v}^{(k)}\) sont linéairement indépendants si et seulement si la seule combinaison linéaire pour laquelle \(\lambda_1 \mathbf{v}^{(1)} + \cdots + \lambda_k \mathbf{v}^{(k)} = \mathbf{0}_V\) est celle où \(\lambda_1=\cdots =\lambda_k = 0\).

Si \(\mathbf{v}^{(1)},\ldots,\mathbf{v}^{(k)}\) sont linéairement indépendants, \(\left\{\mathbf{v}^{(1)},\ldots,\mathbf{v}^{(k)}\right\}\) est appelé un ensemble linéairement indépendant.

Proposition 6.2 Un ensemble fini de vecteurs est minimal si et seulement s’il est linéairement indépendant.

Les détails de la preuve sont laissés en exercice.

Observons que tout l’ensemble de vecteurs contenant le vecteur nul n’est pas linéairement indépendant, par définition. (Pourquoi?)

L’indépendance linéaire est une notion fondamentale de l’étude des espaces vectoriels. Comme nous allons le voir, plusieurs résultats ne peuvent être exprimés sans passer par ce concept.

Exemple 6.13 Les vecteurs \(\begin{bmatrix} 1\\0\\1\end{bmatrix}\), \(\begin{bmatrix} 1\\1\\0\end{bmatrix}\) et \(\begin{bmatrix} 0\\0\\1\end{bmatrix}\) sont linéairement indépendants dans \(\mathbb{R}^3\).

On le démontre en considérant l’équation \[\lambda_1 \begin{bmatrix} 1\\0\\1\end{bmatrix}+ \lambda_2\begin{bmatrix} 1\\1\\0\end{bmatrix}+ \lambda_3\begin{bmatrix} 0\\0\\1\end{bmatrix}= \begin{bmatrix} 0\\0\\0\end{bmatrix}, \] ou, de façon équivalente, \(\begin{bmatrix} \lambda_1+\lambda_2\\ \lambda_2\\ \lambda_1+\lambda_3\end{bmatrix}= \begin{bmatrix} 0\\0\\0\end{bmatrix}.\) La solution unique est \(\lambda_1 = \lambda_2 = \lambda_3 = 0\). Il s’ensuit que les vecteurs sont linéairement indépendants.

Exemple 6.14 Montrons que \(x^2 - 1\) et \(x+1\) sont linéairement indépendants dans \(P_2(\mathbb{R})\).

Soit \(\lambda_1\) et \(\lambda_2\) des nombres réels tels que \(\lambda_1(x^2-1) + \lambda_2(x+1) = 0\). En réécrivant le côté gauche, on obtient \(\lambda_1 x^2+\lambda_2 x + (-\lambda_1 + \lambda_2) = 0\). Puisque le côté droit est le polynôme \(0\), les coefficients de \(x^2\) et de \(x\) doivent tous deux être nuls. Ceci implique que \(\lambda_1 = 0\) et \(\lambda_2 = 0\). Par définition, \(x^2 - 1\) et \(x+1\) sont donc linéairement indépendants.

Exercices

  1. Montrez que \(\left\{ \begin{bmatrix} 1 \\ 0 \\ 1\end{bmatrix}, \begin{bmatrix} 1 \\ 2 \\ 1\end{bmatrix}, \begin{bmatrix} 1 \\ -1 \\ 1\end{bmatrix} \right\}\) est un ensemble linéairement indépendant de \(\mathbb{Q}^3\).

  2. Montrez que \(\left \{ \begin{bmatrix} 1 & 0 \\ 0 & 0 \end{bmatrix}, \begin{bmatrix} 0 & 1 \\ -1 & 0 \end{bmatrix}, \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} \right \}\) est un sous-ensemble linéairement indépendant de \(\mathbb{R}^{2\times 2}\).

  3. Déterminez si \(\{ x - 1, x^2 + 2x, x^2 + 2\}\) est un ensemble linéairement indépendant de \(P_2(\mathbb{R})\).

  4. Soit \(S=\{\mathbf{v}^{(1)},\ldots,\mathbf{v}^{(k)}\}\) un sous-ensemble de vecteurs appartenant à un espace vectoriel. Montrez que \(S\) est minimal si et seulement s’il est linéairement indépendant.

Solutions

  1. Soit \(\lambda_1,\lambda_2,\lambda_3\) des nombres rationnels tels que \[\lambda_1 \begin{bmatrix} 1\\ 0 \\ -1 \end{bmatrix} + \lambda_2 \begin{bmatrix} 1\\ 2 \\ 1 \end{bmatrix} + \lambda_3 \begin{bmatrix} 1\\ -1 \\ 1 \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \\ 0 \end{bmatrix}.\] Le système peut s’exprimer sous la forme \[\begin{bmatrix} 1 & 1 & 1 \\ 0 & 2 & -1 \\ -1 & 1 & 1\end{bmatrix} \begin{bmatrix} \lambda_1 \\ \lambda_2 \\ \lambda_3 \end{bmatrix} =\begin{bmatrix} 0 \\ 0 \\ 0 \end{bmatrix}.\] La matrice des coefficients se réduit à \(\begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1\end{bmatrix}\), d’où \(\lambda_1 = \lambda_2 = \lambda_3 = 0\) est l’unique solution. Ainsi, l’ensemble donné est linéairement indépendant.

  2. Soit \(\lambda_1,\lambda_2,\lambda_3\) des nombres réels tels que \[\lambda_1 \begin{bmatrix} 1 & 0 \\ 0 & 0 \end{bmatrix} + \lambda_2 \begin{bmatrix} 0 & 1 \\ -1 & 0 \end{bmatrix} + \lambda_3 \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} = \begin{bmatrix} 0 & 0 \\ 0 & 0 \end{bmatrix}.\] Cette équation se réécrit sous la forme
    \[\begin{bmatrix} \lambda_1 + \lambda_3 & \lambda_2 \\ -\lambda_2 & \lambda_3 \end{bmatrix} = \begin{bmatrix} 0 & 0 \\ 0 & 0 \end{bmatrix}.\] En comparant les éléments correspondants de chaque côté, on constate que \(\lambda_1,\lambda_2,\lambda_3\) satisfont à \[\begin{align*} \lambda_1 + \lambda_3 & = 0 \\ \lambda_2 & = 0 \\ \lambda_3 & = 0 \end{align*}\] Ainsi, \(\lambda_1 = \lambda_2 = \lambda_3 = 0\) est l’unique solution, on en conclut que l’ensemble donné est linéairement indépendant.

  3. Ce n’est pas le cas si \(\lambda_1 = 2\), \(\lambda_2 = -1\), et \(\lambda_3 = 1\), nous obtenons \[ \lambda_1(x-1) + \lambda_2(x^2+2x) + \lambda_3(x^2+2) = 0.\] Il y a donc une combinaison linéaire non triviale qui donne le vecteur nul. Les polynômes sont linéairement dépendants.

  4. Supposons que \(S\) ne soit pas minimal. Sans perte de généralité, supposons que \(\mathbf{v}^{(1)}\) puisse s’exprimer comme combinaison linéaire des \(n-1\) autres vecteurs de \(S.\) Par définition, il existe des scalaires \(\lambda_2,\ldots,\lambda_k\) tels que \[\mathbf{v}^{(1)} = \sum_{i=2}^k \lambda_i \mathbf{v}^{(i)}.\] Si \(\lambda_1 = -1,\) on a alors \[\sum_{i=1}^k \lambda_i \mathbf{v}^{(i)} = \mathbf{0}.\] Puisque \(\lambda_1 \ne 0\), nous avons trouvé une combinaison linéaire non triviale qui donne le vecteur nul et \(S\) est linéairement dépendant.

    Réciproquement, supposons que \(S\) soit linéairement dépendant. Par définition, il existe des scalaires \(\lambda_1,\ldots,\lambda_k\), non tous nuls tels que \[\sum_{i=1}^k \lambda_i \mathbf{v}^{(i)} = \mathbf{0}.\] Sans perte de généralité, on peut supposer que \(\lambda_1 \neq 0,\) Alors, \[\mathbf{v}^{(1)} = \sum_{i=2}^k (-\lambda_1)^{-1}\lambda_i \mathbf{v}^{(i)},\] ce qui implique que \(S\) n’est pas minimal.