10.1 Bases orthonormées
Soit \((V,\mathbb{K})\) un espace vectoriel de dimension \(k\) muni d’un produit scalaire où \(\mathbb{K}\) dénote \(\mathbb{R}\) ou \(\mathbb{C}.\)
On dit qu’une base \(\left\{\mathbf{u}^{(1)},\ldots, \mathbf{u}^{(k)}\right\}\) de \(V\) est une base orthogonale si \(\mathbf{u}^{(i)}\) et \(\mathbf{u}^{(j)}\) sont orthogonales (c’est-à-dire \(\langle {\mathbf{u}^{(i)}},{\mathbf{u}^{(j)}} \rangle = 0\)) pour tous \(i, j \in \{1,\ldots,k\}\), \(i \ne j\).
Une base orthogonale \(\left\{\mathbf{u}^{(1)},\ldots, \mathbf{u}^{(k)}\right\}\) de \(V\) est appelée base orthonormée si de plus \(\mathbf{u}^{(i)}\) est un vecteur unitaire (c’est-à-dire que \(\|\mathbf{u}^{(i)}\| = 1\)) pour chaque \(i = 1,\ldots,k.\)
Exemple 10.1 \(\left\{ \begin{bmatrix} 1\\0\\0\end{bmatrix}, \begin{bmatrix} 0\\1\\0\end{bmatrix}, \begin{bmatrix} 0\\0\\1\end{bmatrix} \right\}\) est une base orthonormée de \(\mathbb{R}^3\) muni du produit scalaire usuel.
Exemple 10.2 \(\left\{ \begin{bmatrix} \frac{2}{\sqrt{5}} \\ \frac{1}{\sqrt{5}} \\ 0 \\ 0\end{bmatrix}, \begin{bmatrix} 0 \\ 0 \\ \frac{1}{\sqrt{2}} \\ -\frac{1}{\sqrt{2}} \end{bmatrix}\right\}\) est une base orthonormée du noyau de \(\mathbf{A} = \begin{bmatrix} 1 & -2 & 0 & 0 \\ 0 & 0 & 1 & 1\end{bmatrix},\) muni du produit scalaire usuel.
Les bases orthonormées permettent d’obtenir facilement la représentation par uplet d’un vecteur. Soit \(\left\{\mathbf{u}^{(1)},\ldots,\mathbf{u}^{(k)}\right\}\) une base orthonormale de \(V\). Si \(\Gamma\) dénote la base ordonnée \(\left(\mathbf{u}^{(1)},\ldots,\mathbf{u}^{(k)}\right)\), alors pour tout \(\mathbf{v} \in V\), \([\mathbf{v}]_\Gamma\) est donné par \(\begin{bmatrix} \langle { \mathbf{v} },{ \mathbf{u}^{(1)} } \rangle \\ \langle { \mathbf{v} },{ \mathbf{u}^{(2)} } \rangle \\ \vdots \\ \langle { \mathbf{v} },{ \mathbf{u}^{(k)} } \rangle \end{bmatrix}\).
Par exemple, \(\mathbf{v} = \begin{bmatrix} 2 \\ 1 \\ -1 \\ 1\end{bmatrix}\) appartient au noyau de \(\mathbf{A} = \begin{bmatrix} 1 & -2 & 0 & 0 \\ 0 & 0 & 1 & 1\end{bmatrix}\). Si \(\Gamma = \left(\mathbf{u}^{(1)},\mathbf{u}^{(2)}\right)\) où \(\mathbf{u}^{(1)} = \begin{bmatrix} \frac{2}{\sqrt{5}} \\ \frac{1}{\sqrt{5}} \\ 0 \\ 0\end{bmatrix}\) et \(\mathbf{u}^{(2)} = \begin{bmatrix} 0 \\ 0 \\ \frac{1}{\sqrt{2}} \\ -\frac{1}{\sqrt{2}}\end{bmatrix}\), on obtient \[[\mathbf{v}]_\Gamma = \begin{bmatrix} \langle { \mathbf{v} },{ \mathbf{u}^{(1)} } \rangle \\ \langle { \mathbf{v} },{ \mathbf{u}^{(2)} } \rangle \\ \end{bmatrix} = \begin{bmatrix} \sqrt{5} \\ -\sqrt{2} \end{bmatrix}.\] On peut vérifier que \(\mathbf{v} = \sqrt{5} \mathbf{u}^{(1)} - \sqrt{2} \mathbf{u}^{(2)}\).
De façon plus générale, voyons maintenant pourquoi \([\mathbf{v}]_\Gamma = \begin{bmatrix} \langle { \mathbf{v} },{ \mathbf{u}^{(1)} } \rangle \\ \langle { \mathbf{v} },{ \mathbf{u}^{(2)} } \rangle \\ \vdots \\ \langle { \mathbf{v} },{ \mathbf{u}^{(k)} } \rangle \end{bmatrix}\).
Soient \(\lambda_1,\ldots,\lambda_k\) des scalaires tels que \(\mathbf{v} = \lambda_1 \mathbf{u}^{(1)} + \cdots + \lambda_k \mathbf{u}^{(k)}.\)
Alors \[\begin{align*} \langle { \mathbf{v} },{ \mathbf{u}^{(i)} } \rangle & = \langle { \lambda_1 \mathbf{u}^{(1)} + \cdots + \lambda_k \mathbf{u}^{(k)} },{ \mathbf{u}^{(i)} } \rangle \\ & = \lambda_1 \langle { \mathbf{u}^{(1)} },{ \mathbf{u}^{(i)} } \rangle + \cdots + \lambda_k \langle { \mathbf{u}^{(k)} },{ \mathbf{u}^{(i)} } \rangle \\ & = \lambda_i \langle { \mathbf{u}^{(i)} },{ \mathbf{u}^{(i)} } \rangle \\ & = \lambda_i \|\mathbf{u}^{(i)}\|^2 \\ & = \lambda_i, \end{align*}\] pour chaque \(i = 1,\ldots, k,\) tel que désiré.
10.1.1 Matrice orthogonale
Si \(\left \{ \mathbf{q}^{(1)},\ldots, \mathbf{q}^{(n)} \right\}\) est une base orthonormée de \(\mathbb{R}^n\) muni du produit scalaire usuel, alors la matrice \(\mathbf{Q} = \begin{bmatrix} \mathbf{q}^{(1)} & \cdots & \mathbf{q}^{(n)}\end{bmatrix}\) possède la propriété suivante : \[\mathbf{Q}^\mathsf{T}\mathbf{Q} = \mathbf{I}_n.\]
Pour démontrer ce résultat, notons que l’élément \((i,j)\) de \(\mathbf{Q}\) est donné par \[{\mathbf{q}^{(i)}}^\mathsf{T}\mathbf{q}^{(j)} = \mathbf{q}^{(i)} \cdot \mathbf{q}^{(j)} = \begin{cases} 0 & \text{si } i \neq j \\ 1 & \text{autrement. } \end{cases}\]
Puisque \(\mathbf{Q}\) est une matrice carrée, on voit que \(\mathbf{Q}^{-1} = \mathbf{Q}^\mathsf{T},\) d’où \(\mathbf{Q}\mathbf{Q}^\mathsf{T}= \mathbf{I}_n\).
Une matrice \(\mathbf{U} \in \mathbb{R}^{n\times n}\) satisfaisant à \(\mathbf{U}^\mathsf{T}\mathbf{U} = \mathbf{U}\mathbf{U}^\mathsf{T}= \mathbf{I}_n\) est appelée matrice orthogonale. Les matrices orthogonales apparaissent dans plusieurs applications, tout comme les matrices hermitiennes (ou auto-adjointes) qui généralisent la notion d’orthogonalité des matrices aux complexes.
Exercices
Soit \(V\) un espace vectoriel muni d’un produit scalaire. Soient \(\mathbf{u}^{(1)},\ldots, \mathbf{u}^{(k)} \in V\) tels que \(\mathbf{u}^{(i)} \neq \mathbf{0}\) pour tout \(i \in \{1,\ldots,k\}\) et \(\langle {\mathbf{u}^{(i)}},{\mathbf{u}^{(j)}} \rangle = 0\) pour tous \(i, j \in \{1,\ldots,k\},\) \(i \neq j.\) Démontrez que \(\{\mathbf{u}^{(1)},\ldots, \mathbf{u}^{(k)}\}\) est un ensemble de vecteurs linéairement indépendants.
Dans cette exercice, \(\mathbb{R}^n\) est muni du produit scalaire usuel.
Construisez une base orthogonale de \(\mathbb{R}^2\) contenant \(\begin{bmatrix} 1\\-2\end{bmatrix}.\)
Construisez une base orthogonale de \(\mathbb{R}^2\) contenant \(\begin{bmatrix} 1\\0\\ -1 \end{bmatrix}\) et \(\begin{bmatrix} 1\\2\\ 1 \end{bmatrix}.\)
On sait1 que la matrice \[\frac{1}{n}\begin{bmatrix} a^2+b^2-c^2-d^2 & 2(-ad+bc) & 2(ac+bd) \\ 2(ad+bc) & a^2 - b^2 + c^2 - d^2 & 2 (-ab+cd) \\ 2(-ac+bd) & 2(ab+cd) & a^2 - b^2 - c^2 + d^2 \end{bmatrix}\] est orthogonale pour tous \(a,b,c,d,n\in \mathbb{Z}\), où \(n = a^2+b^2+c^2+d^2\) est impair. Montrez en utilisant des calculs directs que la matrice obtenue en substituant \(a = b = c = 1\) et \(d = 2\) est bien orthogonale.
Solutions
Soit \(\lambda_1,\ldots,\lambda_k\) des scalaires tels que \[\lambda_1\mathbf{u}^{(1)}+\cdots+\lambda_k \mathbf{u}^{(k)} = \mathbf{0}.\] Ainsi, pour chaque \(i \in \{1,\ldots,k\},\) \[0 = \langle {\mathbf{0}},{\mathbf{u}^{(i)}} \rangle = \langle {\lambda_1\mathbf{u}^{(1)}+\cdots+\lambda_k \mathbf{u}^{(k)}},{\mathbf{u}^{(i)}} \rangle = \lambda_i \| \mathbf{u}^{(i)} \|^2.\] Or \(\mathbf{u}^{(i)}\neq \mathbf{0}\) pour chaque \(i \in \{1,\ldots,k\},\) d’où \(\lambda_i = 0\) pour chaque \(i \in \{1,\ldots,k\},\) ce qui termine la démonstration.
En utilisant le résultat de l’exercice précédent, on peut simplement choisir n’importe quel vecteur non nul orthogonal à \(\begin{bmatrix} 1 \\ 2 \end{bmatrix},\) comme \(\begin{bmatrix} 2 \\ 1 \end{bmatrix},\) par exemple.
De même, il suffit de trouver un vecteur non nul \(\begin{bmatrix} x_1\\x_2\\x_3\end{bmatrix}\) tel que \[\begin{bmatrix} 1 & 0 & -1 \\ 1 & 2 & 1 \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \\ x_3\end{bmatrix} = \begin{bmatrix} 0 \\ 0 \end{bmatrix},\] comme \(\begin{bmatrix} 1 \\ -1 \\ 1\end{bmatrix},\) par exemple.
Avec la substitution donnée dans l’exercice, la matrice devient \[\frac{1}{7}\begin{bmatrix} -3 & -2 & 6 \\ 6 & -3 & 2 \\ 2 & 6 & 3 \end{bmatrix}.\] Il est aisé de vérifier que cette matrice est bien orthogonale.