6.1 Motivation

Vous avez peut-être vu dans un cours de physique à l’école secondaire qu’un vecteur est une quantité ayant une longueur et une direction. Une telle définition est suffisante pour les problèmes de physique du secondaire, mais nous allons introduire une notion plus générale (et plus abstraite) de façon à pouvoir analyser des applications plus avancées.

Comme c’était le cas pour les corps, la définition d’un espace vectoriel peut sembler technique et arbitraire à première vue. Le concept à une longue histoire. En bref, les propriétés d’un espace vectoriel font abstraction de propriétés communes à plusieurs structures mathématiques.

On motive la définition des espaces vectoriels à l’aide de plusieurs exemples.

Considérons le système \[\begin{align*} u - 3v + 2 z & = 0 \\ y - z & = 0. \end{align*}\] On peut l’écrire sous la forme \(\mathbf{A}\mathbf{x} = \mathbf{0}\), où \(\mathbf{A} = \begin{bmatrix} 1 & -3 & 0 & 2 \\ 0 & 0 & 1 & -1\end{bmatrix}\) et \(\mathbf{x} = \begin{bmatrix} u \\ v \\ y \\ z \end{bmatrix}\).

Notons que \(\mathbf{A}\) est déjà sous forme échelonnée réduite. De plus, \(v\) et \(z\) sont des variables libres. Ainsi, toutes les solutions sont donnés par \[\begin{bmatrix} u \\ v \\ y \\ z \end{bmatrix} = s \begin{bmatrix} 3 \\ 1 \\ 0 \\ 0 \end{bmatrix} + t \begin{bmatrix} -2 \\ 0 \\ 1 \\ 1 \end{bmatrix},\]\(s, t \in \mathbb{R}\).

Notons que l’on peut aussi l’écrire sous la forme \(\mathbf{A}' \mathbf{x}' = 0\), où \(\mathbf{A}' = \begin{bmatrix} 2 & 0 & -3 & 1 \\ -1 & 1 & 0 & 0 \end{bmatrix}\) et \(\mathbf{x}' = \begin{bmatrix} z \\ y \\ v \\ u \end{bmatrix}\).

La forme échelonnée réduite de \(\mathbf{A}'\) est \[\begin{bmatrix} 1 & 0 & -\frac{3}{2} & \frac{1}{2} \\ 0 & 1 & -\frac{3}{2} & \frac{1}{2}\end{bmatrix}.\]

Les deux dernières colonnes de cette matrice ne sont pas des pivots. Mais les variables qui correspondent à ces colonnes sont les variables en troisième et quatrième position dans \(\mathbf{x}'\), c’est-à-dire \(v\) et \(u\). Donc, toutes les solutions sont données par \[\begin{bmatrix} u \\ v \\ y \\ z \end{bmatrix} = s' \begin{bmatrix} 0 \\ 1 \\ \frac{3}{2} \\ \frac{3}{2} \end{bmatrix}+ t' \begin{bmatrix} 1 \\ 0 \\ -\frac{1}{2} \\ -\frac{1}{2} \end{bmatrix},\]\(s', t' \in \mathbb{R}\).

Nous avons donc deux descriptions apparemment différentes pour les solutions de \[\begin{align*} u - 3v + 2 z & = 0 \\ y - z & = 0, \end{align*}\] plus précisément, \[\begin{bmatrix} u \\ v \\ y \\ z \end{bmatrix} = s \begin{bmatrix} 3 \\ 1 \\ 0 \\ 0 \end{bmatrix} + t \begin{bmatrix} -2 \\ 0 \\ 1 \\ 1 \end{bmatrix}~~~~s,t \in \mathbb{R}\] et \[\begin{bmatrix} u \\ v \\ y \\ z \end{bmatrix} = s' \begin{bmatrix} 0 \\ 1 \\ \frac{3}{2} \\ \frac{3}{2} \end{bmatrix}+ t' \begin{bmatrix} 1 \\ 0 \\ -\frac{1}{2} \\ -\frac{1}{2} \end{bmatrix}\ ~~~~s', t' \in \mathbb{R}.\]

Il y a une certaine ressemblance entre \(\begin{bmatrix} -2 \\ 0 \\ 1 \\ 1 \end{bmatrix}\) (première description) et \(\begin{bmatrix} 1 \\ 0 \\ -\frac{1}{2} \\ -\frac{1}{2} \end{bmatrix}\) (seconde description); la première est obtenue en multipliant la deuxième par \(-2\). Cependant, il n’y a aucun lien immédiat entre \(\begin{bmatrix} 3 \\ 1 \\ 0 \\ 0 \end{bmatrix}\) et \(\begin{bmatrix} 0 \\ 1 \\ \frac{3}{2} \\ \frac{3}{2} \end{bmatrix}\). Il doit y avoir un lien, étant donné les deux mêmes ensembles solutions, mais quel est-il?

Comme \(\begin{bmatrix} u \\ v \\ y \\ z\end{bmatrix} = \begin{bmatrix} 0 \\ 1 \\ \frac{3}{2} \\ \frac{3}{2} \end{bmatrix}\) est une solution, il doit exister des nombres réels \(s\) et \(t\) tels que \[\begin{bmatrix} 0 \\ 1 \\ \frac{3}{2} \\ \frac{3}{2} \end{bmatrix} = s \begin{bmatrix} 3 \\ 1 \\ 0 \\ 0 \end{bmatrix} + t \begin{bmatrix} -2 \\ 0 \\ 1 \\ 1 \end{bmatrix}.\] Notons que c’est le cas de \(s = 1\) et de \(t = \frac{3}{2}\).

De la même manière, comme \(\begin{bmatrix} u \\ v \\ y \\ z\end{bmatrix} =\begin{bmatrix} 3 \\ 1 \\ 0 \\ 0 \end{bmatrix}\) est une solution, il doit exister des nombres réels \(s'\) et \(t'\) tels que \[\begin{bmatrix} 3 \\ 1 \\ 0 \\ 0 \end{bmatrix} = s' \begin{bmatrix} 0 \\ 1 \\ \frac{3}{2} \\ \frac{3}{2} \end{bmatrix}+ t' \begin{bmatrix} 1 \\ 0 \\ -\frac{1}{2} \\ -\frac{1}{2} \end{bmatrix}.\] C’est le cas de \(s' = 1\) et \(t' = 3\).

Nous sommes maintenant prêts à faire quelques remarques d’ordre général.

Observons que les deux descriptions ont la forme \(\alpha \mathbf{u} + \alpha' \mathbf{u}'\), où \(\alpha\) et \(\alpha'\) sont des scalaires et \(\mathbf{u}\) et \(\mathbf{u}'\) sont des uplets de même taille. Nous appelons \(\alpha \mathbf{u} + \alpha' \mathbf{u}'\) une combinaison linéaire de \(\mathbf{u}\) et \(\mathbf{u}'\). Ce n’est pas une coïncidence — on s’attend à ce que toute description de l’ensemble solution s’exprime à l’aide de telles combinaisons linéaires. Nous discuterons de ce phénomène lorsque nous aborderons les bases et la dimension d’un espace vectoriel.

Plus généralement, si \(\mathbf{u}^{(1)},\ldots,\mathbf{u}^{(k)}\) sont des \(n\)-uplets et \(\alpha_1,\ldots,\alpha_k\) sont des scalaires, alors \[\alpha_1 \mathbf{u}^{(1)} + \cdots + \alpha_k \mathbf{u}^{(k)}\] est appelé une combinaison linéaire de \(\mathbf{u}^{(1)},\ldots,\mathbf{u}^{(k)}\).

Ainsi, si \(\mathbf{A} \in \mathbb{K}^{m\times n}\), où \(\mathbb{K}\) est un corps, les solutions de \(\mathbf{A}\mathbf{x} = \mathbf{0}\) peuvent être exprimées en tant que combinaisons linéaires de \(n\)-uplets dans \(\mathbb{K}^n\).

Rappelons que \({\operatorname{Ker}({\mathbf{A}})}\) dénote l’ensemble des solutions du système \(\mathbf{A}\mathbf{x} =\mathbf{0}\), pour \(\mathbf{A}\in \mathbb{K}^{m \times n}\).

Si \(\mathbf{u}, \mathbf{v} \in {\operatorname{Ker}({\mathbf{A}})}\), alors \(\mathbf{u} + \mathbf{v}\) est aussi une solution de \(\mathbf{A}\mathbf{x} = \mathbf{0}\). En effet, \[\mathbf{A}(\mathbf{u}+\mathbf{v}) = \mathbf{A}\mathbf{u} + \mathbf{A}\mathbf{v} = \mathbf{0} + \mathbf{0} = \mathbf{0}.\] Ainsi, \(\mathbf{u} + \mathbf{v} \in {\operatorname{Ker}({\mathbf{A}})}\). Autrement dit, la somme de deux éléments de \({\operatorname{Ker}({\mathbf{A}})}\) est aussi un élément de \({\operatorname{Ker}({\mathbf{A}})}\).

Ensuite, si \(\alpha \in \mathbb{K}\) et \(\mathbf{v} \in {\operatorname{Ker}({\mathbf{A}})}\), alors \(\mathbf{A}(\alpha \mathbf{v}) = \alpha (\mathbf{A}\mathbf{v}) = \alpha \mathbf{0} = \mathbf{0}\), d’où \(\alpha \mathbf{v} \in {\operatorname{Ker}({\mathbf{A}})}\). Autrement dit, le multiple scalaire par un scalaire d’un élément de \({\operatorname{Ker}({\mathbf{A}})}\) est aussi un élément de \({\operatorname{Ker}({\mathbf{A}})}\).

Puisque la somme de deux éléments de \({\operatorname{Ker}({\mathbf{A}})}\) est un élément de \({\operatorname{Ker}({\mathbf{A}})}\) et que la multiple d’un élément de \({\operatorname{Ker}({\mathbf{A}})}\) par un scalaire est un élément de \({\operatorname{Ker}({\mathbf{A}})}\), nous disons de \({\operatorname{Ker}({\mathbf{A}})}\) qu’il est fermé par rapport à l’addition (donné par l’addition d’uplets) et à la multiplication par un scalaire.

Dans la prochaine section, nous verrons que \({\operatorname{Ker}({\mathbf{A}})}\) n’est pas le seul tel ensemble.

Exercices

  1. Écrivez \(\begin{bmatrix} 3 \\ 0 \end{bmatrix}\) en tant que combinaison linéaire de \(\begin{bmatrix} 1 \\ 2 \end{bmatrix}\) et \(\begin{bmatrix} -1 \\ 1 \end{bmatrix}\).

  2. Écrivez \(\begin{bmatrix} 1 \\ 1 \\ 1\end{bmatrix}\) en tant que combinaison linéaire de \(\begin{bmatrix} 1 \\ 2 \\ 0\end{bmatrix}\), \(\begin{bmatrix} -1 \\ 1 \\ -1 \end{bmatrix}\), et \(\begin{bmatrix} 1 \\ 0 \\ 0\end{bmatrix}\).

Solutions

  1. \(\begin{bmatrix} 3 \\ 0 \end{bmatrix}= (1) \begin{bmatrix} 1 \\ 2 \end{bmatrix}+ (-2)\begin{bmatrix} -1 \\ 1 \end{bmatrix}.\)

  2. \(\begin{bmatrix} 1 \\ 1 \\ 1\end{bmatrix}= (1) \begin{bmatrix} 1 \\ 2 \\ 0 \end{bmatrix} + (-1)\begin{bmatrix} -1 \\ 1 \\ -1 \end{bmatrix} + (-1)\begin{bmatrix} 1 \\ 0 \\ 0 \end{bmatrix}.\)