9.2 Forme bilinéaire symétrique

Le produit scalaire usuel de \(\mathbb{R}^n\) nous permet de combiner deux vecteurs de \(\mathbb{R}^n\) afin d’obtenir un scalaire. Nous allons maintenant étudier un procédé plus général, qui s’avère être beaucoup plus qu’une curiosité théorique. Pour un exemple d’une application utilisant une notion plus générale que le produit scalaire usuel, consulter Abril, Torra, et Navarro-Arribas (2015).

Rappelons que \(\mathbf{u} \cdot \mathbf{v} = \mathbf{u}^\mathsf{T}\mathbf{v}\) pour \(\mathbf{u},\mathbf{v} \in \mathbb{R}^n.\) La symétrie du produit scalaire usuel est immédiate : \(\mathbf{u} \cdot \mathbf{v} = \mathbf{v} \cdot \mathbf{u}.\)

Notons que l’on peut réécrit \(\mathbf{u}^\mathsf{T}\mathbf{v}\) comme \(\mathbf{u}^\mathsf{T}\mathbf{I}_n\mathbf{v}.\) En remplaçant \(\mathbf{I}_n\) par une matrice \(\mathbf{A} \in \mathbb{R}^{n\times n}\) arbitraire, nous obtenons \(\mathbf{u}^\mathsf{T}\mathbf{A}\mathbf{v},\) qui est aussi un scalaire. La fonction \(B:\mathbb{R}^n \times \mathbb{R}^n \rightarrow \mathbb{R}\) définie par \(B(\mathbf{u},\mathbf{v})= \mathbf{u}^\mathsf{T}\mathbf{A}\mathbf{v},\) se comporte de bien des façons comme le produit scalaire usuel.

Cependant, la symétrie \(B(\mathbf{u}, \mathbf{v}) = B( \mathbf{v}, \mathbf{u})\) n’est garantie que si la matrice \(\mathbf{A}\) est symétrique. Cette supposition doit donc être ajoutée. La fonction \(B\) ainsi définie est appelée forme billinéaire symétrique sur \(\mathbb{R}^n.\) Le nom vient du fait que pour un vecteur fixé \(\mathbf{u},\) la fonction \(T:\mathbb{R}^n \rightarrow \mathbb{R}\) définie par \(T(\mathbf{v}) = B(\mathbf{u},\mathbf{v})\) est linéaire, et pour un vecteur fixé \(\mathbf{v},\) la fonction \(T:\mathbb{R}^n \rightarrow \mathbb{R}\) définie par \(T(\mathbf{u}) = B(\mathbf{u},\mathbf{v})\) l’est également.

Une forme quadratique \(q\) dans \(\mathbb{R}^n\) est définie par \(q(\mathbf{u}) = \mathbf{u}^\mathsf{T}\mathbf{A} \mathbf{u}\) pour \(\mathbf{A} \in \mathbb{R}^{n\times n}\) quelconque.

Rappelons que le produit scalaire usuel induit une norme \(\| \mathbf{u} \| = \sqrt{ \mathbf{u} \cdot \mathbf{u} }\) possédant les propriétés suivantes :

  1. \(\| \mathbf{u}\|\geq 0.\)
  2. \(\| \mathbf{u} - \mathbf{v} \|=\| \mathbf{v} - \mathbf{u} \|.\)
  3. \(\| \mathbf{u}\|=0\) si et seulement si \(\mathbf{u}=\mathbf{0}.\)
  4. \(\| \mathbf{u} + \mathbf{v} \| \leq \|\mathbf{u}\| + \|\mathbf{v}\|.\)
  5. \(\| \alpha \mathbf{u} \| = \lvert \alpha \rvert \| \mathbf{u} \|\) pour tout \(\alpha \in \mathbb{R}.\)

Si on défini \(\| \cdot \|\) par \(\| \mathbf{u} \| = \sqrt{ \mathbf{u}^\mathsf{T}\mathbf{A}\mathbf{u} },\) quelles autres hypothèses doit-on apporter sur \(\mathbf{A}\) pour obtenir une norme?

Puisque la fonction racine carrée n’est définie que sur l’ensemble des nombres réels non négatifs, on doit avoir \(\mathbf{u}^\mathsf{T}\mathbf{A} \mathbf{u} \geq 0\) pour tout \(\mathbf{u} \in \mathbb{R}^n,\) avec égalité si et seulement si \(\mathbf{u} = \mathbf{0}\) si on veut en plus satisfaire à la propriété 3. En admettant cette supposition supplémentaire, une forme plus générale de l’inégalité de Cauchy-Schwarz suit : \[(\mathbf{u}^\mathsf{T}\mathbf{A} \mathbf{v})^2 \leq (\mathbf{u}^\mathsf{T}\mathbf{A} \mathbf{u})(\mathbf{v}^\mathsf{T}\mathbf{A}\mathbf{v}).\]

L’inégalité de Cauchy-Schwarz originale est obtenue en substituant \(\mathbf{A} = \mathbf{I}\) dans l’inégalité précédente. Les cinq propriétés préalablement peuvent maintenant être vérifiées.

On présente maintenant une démonstration de \[(\mathbf{u}^\mathsf{T}\mathbf{A} \mathbf{v})^2 \leq (\mathbf{u}^\mathsf{T}\mathbf{A} \mathbf{u})(\mathbf{v}^\mathsf{T}\mathbf{A}\mathbf{v}).\] De toute évidence, l’inégalité est valide si \(\mathbf{u}\) ou \(\mathbf{v}\) est nul.

Supposons que \(\mathbf{u} \neq \mathbf{0},\) et posons \(t = \frac{ \mathbf{u}^\mathsf{T}\mathbf{A} \mathbf{v} }{ \mathbf{u}^\mathsf{T}\mathbf{A}\mathbf{u} }.\) Alors, \(0 \leq \| t \mathbf{u} - \mathbf{v} \|^2.\) Mais \[\begin{align*} 0 \leq \| t \mathbf{u} - \mathbf{v} \|^2 & = (t \mathbf{u} - \mathbf{v})^\mathsf{T}\mathbf{A} (t \mathbf{u} - \mathbf{v}) \\ & = t^2 \mathbf{u}^\mathsf{T}\mathbf{A} \mathbf{u} - 2t\mathbf{u}^\mathsf{T}\mathbf{A}\mathbf{v} + \mathbf{v}^\mathsf{T}\mathbf{A}\mathbf{v} \\ & = \frac{(\mathbf{u}^\mathsf{T}\mathbf{A} \mathbf{v})^2}{\mathbf{u}^\mathsf{T}\mathbf{A}\mathbf{u}} - 2\frac{(\mathbf{u}^\mathsf{T}\mathbf{A}\mathbf{v})^2}{\mathbf{u}^\mathsf{T}\mathbf{A}\mathbf{u}} + \mathbf{v}^\mathsf{T}\mathbf{A}\mathbf{v} \\ & = -\frac{(\mathbf{u}^\mathsf{T}\mathbf{A} \mathbf{v})^2}{\mathbf{u}^\mathsf{T}\mathbf{A}\mathbf{u}} + \mathbf{v}^\mathsf{T}\mathbf{A}\mathbf{v}, \end{align*}\] d’où \[\frac{(\mathbf{u}^\mathsf{T}\mathbf{A} \mathbf{v})^2}{\mathbf{u}^\mathsf{T}\mathbf{A}\mathbf{u}} \leq \mathbf{v}^\mathsf{T}\mathbf{A}\mathbf{v},\] ce qui implique que \[(\mathbf{u}^\mathsf{T}\mathbf{A} \mathbf{v})^2\leq (\mathbf{u}^\mathsf{T}\mathbf{A}\mathbf{u}) (\mathbf{v}^\mathsf{T}\mathbf{A}\mathbf{v})\] tel que désiré.

9.2.1 Matrices définies positives

Une matrice symétrique \(\mathbf{A} \in \mathbb{R}^{n\times n}\) telle que \(\mathbf{u}^\mathsf{T}\mathbf{A} \mathbf{u} > 0\) pour tout \(\mathbf{u} \in \mathbb{R}^n,\) \(\mathbf{u} \neq \mathbf{0}\) est dite définie positive.

Il y a trois autres types de matrices définies :

  • Une matrice symétrique \(\mathbf{A} \in \mathbb{R}^{n\times n}\) telle que \(\mathbf{u}^\mathsf{T}\mathbf{A} \mathbf{u} \geq 0\) pour tout \(\mathbf{u} \in \mathbb{R}^n\) est dite semi-définie positive.
  • Une matrice symétrique \(\mathbf{A} \in \mathbb{R}^{n\times n}\) est dite définie négative si \(-\mathbf{A}\) est définie positive.
  • Une matrice symétrique \(\mathbf{A} \in \mathbb{R}^{n \times n}\) est dite semi-définie négative si \(-\mathbf{A}\) est semi-définie positive.

Exemple 9.3 La matrice \(\mathbf{A}=\begin{bmatrix} 3 & 2 \\ 2 & 3\end{bmatrix}\) est définie positive. En effet, si \(\mathbf{u} = \begin{bmatrix} u_1 \\ u_2\end{bmatrix} \neq \begin{bmatrix} 0 \\ 0 \end{bmatrix},\) alors \[\begin{align*} \mathbf{u}^\mathsf{T}\mathbf{A} \mathbf{u} & = \begin{bmatrix} u_1 & u_2 \end{bmatrix} \begin{bmatrix} 3 & 2 \\ 2 & 3\end{bmatrix} \begin{bmatrix} u_1 \\ u_2 \end{bmatrix} \\ & = \begin{bmatrix} u_1 & u_2 \end{bmatrix} \begin{bmatrix}3u_1 + 2u_2 \\ 2u_1 + 3u_2\end{bmatrix} \\ & = 3u_1^2 + 4u_1u_2 + 3u_2^2 \\ & = 3\left(u_1^2 + \frac{4}{3}u_1u_2 + \left(\frac{2}{3}u_2\right)^2\right) +\frac{5}{3}u_2^2 \\ & = 3\left(u_1+\frac{2}{3}u_2\right)^2 +\frac{5}{3}u_2^2 \\ & > 0. \end{align*}\]

Pour le moment, l’identification de matrices (semi-)définies positive semble requérir des manipulations algébriques complexes. Cependant, nous verrons plus tard que toute matrice symétrique réelle \(\mathbf{A}\) peut s’écrire comme \(\mathbf{Q}^\mathsf{T}\mathbf{D} \mathbf{Q}\) pour des matrices \(\mathbf{Q}, \mathbf{D} \in \mathbb{R}^{n\times n},\)\(\mathbf{D}\) est une matrice diagonale ayant les valeurs propres de \(\mathbf{A}\) sur sa diagonale. Ceci nous permet de conclure que \(\mathbf{A}\) est définie positive si et seulement si toutes les valeurs propres de \(\mathbf{A}\) sont positives et que \(\mathbf{A}\) est semi-définie positive si et seulement si les valeurs propres de \(\mathbf{A}\) sont non négatives.

Exercices

  1. Montrez que \(\mathbf{A}=\begin{bmatrix} 4 & 1 \\ 1 & 2\end{bmatrix}\) est définie positive.

  2. Une forme symétrique bilinéaire est un cas spécial d’une forme bilinéaire. Si \(V\) et \(W\) sont des espaces vectoriels sur le corps \(\mathbb{K},\) \(B:V \times W \rightarrow \mathbb{K}\) est une forme bilinéaire si les conditions suivantes sont satisfaites :
    • Pour chaque \(\mathbf{y} \in W,\) \(f:V \rightarrow \mathbb{K}\) définie par \(f(\mathbf{x}) = B(\mathbf{x}, \mathbf{y})\) est une fonctionnelle linéaire sur \(V.\)
    • Pour chaque \(\mathbf{x} \in V,\) \(f:W \rightarrow \mathbb{K}\) définie par \(f(\mathbf{y}) = B(\mathbf{x}, \mathbf{y})\) est une fonctionnelle linéaire sur \(W.\)

    Montrez que \(B:V^* \times V \rightarrow \mathbb{K}\) définie par \(B(f, \mathbf{x}) = f(\mathbf{x})\) est une forme bilinéaire.

    Rappel : \(V^*\) dénote l’espace duel de \(V.\)

Solutions

  1. Soit \(\mathbf{u} = \begin{bmatrix} u_1 \\ u_2\end{bmatrix} \neq \begin{bmatrix} 0 \\ 0 \end{bmatrix}.\) Alors \[\begin{align*} \mathbf{u}^\mathsf{T}\mathbf{A} \mathbf{u} & = \begin{bmatrix} u_1 & u_2 \end{bmatrix} \begin{bmatrix} 4 & 1 \\ 1 & 2\end{bmatrix} \begin{bmatrix} u_1 \\ u_2 \end{bmatrix} \\ & = \begin{bmatrix} u_1 & u_2 \end{bmatrix} \begin{bmatrix}4u_1 + u_2 \\ u_1 + 2u_2\end{bmatrix} \\ & = 4u_1^2 + 2u_1u_2 + 2u_2^2 \\ & = 4\left(u_1^2 + \frac{1}{2}u_1u_2 + \left(\frac{1}{4}u_2\right)^2\right) +\frac{7}{4}u_2^2 \\ & = 4\left(u_1+\frac{1}{4}u_2\right)^2 +\frac{7}{4}u_2^2 \\ & > 0. \end{align*}\]

  2. Soit \(\mathbf{u} \in V.\) Pour \(f, g \in V^*\) et \(\lambda \in \mathbb{K},\) \[\begin{align*} B(\lambda f+g,\mathbf{u}) & = (\lambda f+g)(\mathbf{u}) \\ & = \lambda f(\mathbf{u}) + g(\mathbf{u}) \\ & = \lambda B(f,\mathbf{u}) + B(g, \mathbf{u}). \end{align*}\] Donc, \(B(\cdot, \mathbf{u})\) est une fonctionnelle linéaire sur \(V^*.\)

    Soit \(f \in V^*.\) Pour \(\mathbf{u}, \mathbf{w} \in V\) et \(\lambda \in \mathbb{K},\) \[\begin{align*} B(f, \lambda \mathbf{u} + \mathbf{w}) & = f(\lambda \mathbf{u} + \mathbf{w}) \\ & = \lambda f(\mathbf{u}) + f(\mathbf{w}) \\ & = \lambda B(f,\mathbf{u}) + B(f, \mathbf{w}). \end{align*}\] Alors, \(B(f, \cdot)\) est une fonctionnelle linéaire sur \(V.\)

    Il s’ensuit que \(B\) est une forme bilinéaire.

Bibliographie

Abril, Daniel, Vicenç Torra, et Guillermo Navarro-Arribas. 2015. « Supervised Learning Using a Symmetric Bilinear Form for Record Linkage ». Inf. Fusion 26 (C). Amsterdam, The Netherlands, The Netherlands: Elsevier Science Publishers B. V.:144‑53. https://doi.org/10.1016/j.inffus.2014.11.004.