8.4 Bijections et isomorphismes

Soit \(T:V\rightarrow W\) une application linéaire où \(V\) et \(W\) sont des espaces vectoriels à scalaires dans un corps \(\mathbb{K}.\) Si \(T\) est surjective et injective, alors \(T\) est bijective et \(T\) est une bijection.

Si \(T\) est une bijection, alors l’inverse de \(T\) existe. Nous montrons maintenant que l’inverse de \(T\) est aussi une application linéaire.

Soit \(S:W\rightarrow V\) une application (pas nécessairement linéaire, a priori) telle que \(S(T(\mathbf{u})) = \mathbf{u}\) pour tout \(\mathbf{u}\in V.\)

Prenons \(\mathbf{y}^{(1)}, \mathbf{y}^{(2)} \in W\) et \(\alpha \in \mathbb{K}.\) On doit montrons que \(S(\mathbf{y}^{(1)} + \mathbf{y}^{(2)}) = S(\mathbf{y}^{(1)}) + S(\mathbf{y}^{(2)})\) et \(S(\alpha \mathbf{y}^{(1)}) = \alpha S(\mathbf{y}^{(1)}).\)

Soit \(\mathbf{x}^{(1)}, \mathbf{x}^{(2)} \in V\) telle que \(T(\mathbf{x}^{(i)}) = \mathbf{y}^{(i)}\) pour \(i = 1,2.\) (L’existence de \(\mathbf{x}^{(1)}\) et \(\mathbf{x}^{(2)}\) est garantie par surjectivité de \(T\).) Alors \(S(\mathbf{y}^{(i)}) = S(T(\mathbf{x}^{(i)})) = \mathbf{x}_i\) pour \(i = 1,2.\) Puisque \(T\) est une application linéaire, nous obtenons \[\begin{align*} S(\mathbf{y}^{(1)} + \mathbf{y}^{(2)}) & = S(T(\mathbf{x}^{(1)})+T(\mathbf{x}^{(2)}))\\ & = S(T(\mathbf{x}^{(1)} + \mathbf{x}^{(2)})) \\ & = \mathbf{x}^{(1)} + \mathbf{x}^{(2)} \\ & = S(\mathbf{y}^{(1)}) + S(\mathbf{y}^{(2)}) \end{align*}\] et \[\begin{align*} S(\alpha \mathbf{y}^{(1)}) & = S(\alpha T(\mathbf{x}^{(1)})) \\ & = S(T(\alpha \mathbf{x}^{(1)})) \\ & = \alpha \mathbf{x}^{(1)} \\ & = \alpha S(\mathbf{y}^{(1)}). \end{align*}\] Ceci montre que \(S\) est une application linéaire.

Exemple 8.8 Les applications linéaires correspondant aux opérations élémentaires sur les lignes d’une matrice sont bijectives.

Exemple 8.9 Soit \(T:\mathbb{R}^3\rightarrow \mathbb{R}^3\) donnée par \(T\left(\begin{bmatrix} x\\y\\z\end{bmatrix}\right) =\begin{bmatrix} x\\y\\0\end{bmatrix}.\) Puisque \(T\) n’est ni surjective ni injective, \(T\) n’est pas bijective.

(Mentionnons en passant que \(T\) est appelée une projection parce qu’elle « projète » les points de \(\mathbb{R}^3\) dans le plan \(x\)-\(y\).)

Le résultat suivant est très utile.

Proposition 8.2 Soit \(\mathbf{A} \in \mathbb{K}^{n\times n},\) \(\mathbb{K}\) un corps. Si \(T:\mathbb{K}^n \rightarrow FF^n\) est donnée par \(T(\mathbf{u}) = \mathbf{A}\mathbf{u}\), alors \(T\) est bijective si et seulement si \(\mathbf{A}\) est inversible.

8.4.1 Isomorphisme

Soient \(V\) et \(W\) des espaces vectoriels à scalaires dans un corps \(\mathbb{K}.\) On dit que \(V\) est isomorphe à \(W\) s’il existe une application linéaire \(T:V \rightarrow W\) qui est bijective. On dit que \(T\) est un isomorphisme.

Puisque l’inverse d’une application linéaire bijective est aussi une application linéaire, \(V\) est isomorphe à \(W\) si et seulement si \(W\) est isomorphe à \(V.\) Donc, on peut simplement dire que \(V\) et \(W\) sont isomorphe.

Théorème 8.3 Soient \(V\) et \(W\) des espaces vectoriels de dimensions finis sur le même corps \(\mathbb{K}.\) Alors \(V\) et \(W\) sont isomorphe si et seulement si \(\dim(V) = \dim(W).\)

Démonstration. Nous démontrons la suffisance. La nécessité est laissée en exercice.

Supposons que \(\dim(V) = \dim(W) = n\) pour un entier positif \(n.\) Le cas où \(n = 0\) est trivial. Supposons alors que \(n > 0.\) Soit \(\{\mathbf{v}^{(1)},\ldots,\mathbf{v}^{(n)}\}\) une base de \(V\) et \(\{\mathbf{w}^{(1)},\ldots,\mathbf{w}^{(n)}\}\) une base de \(W.\) Pour \(\lambda_1,\ldots,\lambda_n \in \mathbb{K},\) on définit \(T\) par \[T\left(\sum_{i=1}^n \lambda_i \mathbf{v}^{(i)}\right) = \sum_{i=1}^n \lambda_i \mathbf{w}^{(i)}.\] Alors \(T\) est une fonction bijective de \(V\) dans \(W\) puisque pour chaque \(\mathbf{u} \in V,\) il existe une unique image pour tous \(\lambda_1,\ldots,\lambda_n \in \mathbb{K}\) tel que \(\mathbf{u} = \sum_{i=1}^n \lambda_i \mathbf{v}^{(i)}.\) Il ne reste que montrer que \(T\) est une application linéaire.

Soient \(\mathbf{x}, \mathbf{y} \in V,\) et \(\gamma \in \mathbb{K}.\) Puisque \(\{\mathbf{v}^{(1)},\ldots,\mathbf{v}^{(n)}\}\) est une base de \(V,\) il existe \(\alpha_1,\ldots,\alpha_n,\beta_1,\ldots,\beta_n \in \mathbb{K}\) tels que \[\mathbf{x} = \sum_{i=1}^n \alpha_i \mathbf{v}^{(i)}\] et \[\mathbf{y} = \sum_{i=1}^n \beta_i \mathbf{v}^{(i)}.\] Alors \[\begin{align*} T(\mathbf{x} + \mathbf{y}) & = T\left(\sum_{i=1}^n \alpha_i \mathbf{v}^{(i)} +\sum_{i=1}^n \beta_i \mathbf{v}^{(i)}\right) \\ & = T\left(\sum_{i=1}^n (\alpha_i +\beta_i)\mathbf{v}^{(i)}\right) \\ & = \sum_{i=1}^n (\alpha_i +\beta_i)\mathbf{w}^{(i)} \\ & = \sum_{i=1}^n \alpha_i \mathbf{w}^{(i)} + \sum_{i=1}^n \beta_i\mathbf{w}^{(i)} \\ & = T\left(\sum_{i=1}^n \alpha_i \mathbf{v}^{(i)}\right) + T\left(\sum_{i=1}^n \beta_i\mathbf{v}^{(i)}\right) \\ & = T(\mathbf{x}) + T(\mathbf{y}). \end{align*}\] De plus, \[\begin{align*} T(\alpha \mathbf{x}) & = T\left(\gamma \sum_{i=1}^n \alpha_i \mathbf{v}^{(i)}\right) \\ & = T\left( \sum_{i=1}^n (\gamma \alpha_i) \mathbf{v}^{(i)}\right) \\ & = \sum_{i=1}^n (\gamma \alpha_i) \mathbf{w}^{(i)} \\ & = \gamma \sum_{i=1}^n \alpha_i \mathbf{w}^{(i)} \\ & = \gamma T\left(\sum_{i=1}^n \alpha_i \mathbf{v}^{(i)}\right) \\ & = \gamma T(\mathbf{x}), \end{align*}\] ce qui termine la démonstration.

Exercices

  1. Déterminez si les application linéaires suivantes sont inversibles.

    1. \(T:\mathbb{R}^2\rightarrow \mathbb{R}^2\) donnée par \(T\left(\begin{bmatrix} x\\y\end{bmatrix}\right) = \begin{bmatrix} x+y \\ 2x-y \end{bmatrix}.\)

    2. \(T:\mathbb{C}^2\rightarrow \mathbb{C}^2\) donnée par \(T(\mathbf{z}) = \mathbf{A}\mathbf{z}\)\(\mathbf{A} = \begin{bmatrix} i & 2 \\ 1 & -2i \end{bmatrix}.\)

  2. Montrez que \(\mathbb{R}^4\) et \(\mathbb{R}^{2\times 2}\) sont isomorphes.

  3. Soit \(W\) le sous-espace \(\left\{ \begin{bmatrix} a & 0 \\ b-a & b \end{bmatrix} \,:\,a, b \in \mathbb{R}\right\} \subseteq \mathbb{R}^{2\times 2}.\) Montrez que \(W\) et \(\mathbb{R}^2\) sont isomorphes.

Solutions

    1. \(T\) est inversible.

    2. \(T\) n’est pas inversible.

  1. On peut facilement voir que \(T:\mathbb{R}^4 \rightarrow \mathbb{R}^{2\times 2}\) donnée par \[T\left( \begin{bmatrix} a\\ b\\ c\\ d\end{bmatrix} \right) = \begin{bmatrix} a & b \\ c & d \end{bmatrix}\] est inversible. Donc, \(\mathbb{R}^4\) et \(\mathbb{R}^{2\times 2}\) sont isomorphes.

  2. Il suffit de montrer que \(\dim(W) = 2\). Observons que \[W = \left \{ a\begin{bmatrix} 1 & 0 \\ -1 & 0 \end{bmatrix} + b \begin{bmatrix} 0 & 0 \\ 1 & 1 \end{bmatrix} \,:\,a,b, \in \mathbb{R}\right \}.\] Ainsi, \(W\) est l’espace vectoriel engendré par \[\left\{\begin{bmatrix} 1 & 0 \\ -1 & 0 \end{bmatrix}, \begin{bmatrix} 0 & 0 \\ 1 & 1 \end{bmatrix}\right\}\] qui est, de toute évidence, linéairement indépendant et est donc une base de \(W,\) d’où \(\dim(W) = 2.\)