Considérons les trois vecteurs suivants de l’espace vectoriel $E_{3}$ :
\begin{equation}
\beq{e_{1}}=(1,0,0), \beq{e_{2}}=(0,1,0), \beq{e_{3}}=(0,0,1)
\tag{1.3.1}
\end{equation}
Effectuons une combinaison linéaire de ces vecteurs : ($\lambda _{1}\,\beq {e_{1}}+\lambda _{2}\,\beq {e_{2}}+\lambda _{3}\,\beq {e_{3}}$) et cherchons pour quelles valeurs de $\lambda _{1}$,$\lambda _{2}$,$\lambda _{3}$, cette combinaison linéaire est égale au vecteur nul $\mathbf {0}$=(0,0,0). On a :
\begin{equation}
\lambda_{1}\,\beq{e_{1}}+\lambda_{2}\,\beq{e_{2}}+\lambda_{3}\,\beq{e_{3}}=\lambda_{1}(1,0,0)+\lambda_{2}(0,1,0)+\lambda_{3}(0,0,1)=(0,0,0)
\tag{1.3.2}
\end{equation}
La multiplication par les scalaires donne :
\begin{equation}
(\lambda_{1},0,0)+(0,\lambda_{2},0)+(0,0,\lambda_{3})=(0,0,0)
\tag{1.3.3}
\end{equation}
Manifestement, cette relation vectorielle est vérifiée si et seulement si :
\begin{equation}
\lambda_{1}=\lambda_{2}=\lambda_{3}=0
\tag{1.3.4}
\end{equation}
On dit que ces trois vecteurs $\mathbf {e_{1}}$, $\mathbf {e_{2}}$, $\mathbf {e_{3}}$ sont linéairement $ind\acute {e}pendants$.
Par contre, si l’on prend les deux vecteurs suivants : $\mathbf {x}$=(3,4,-2) et $\mathbf {y}$=(6,8,-4), et que l’on cherche $\lambda _{1}$ et $\lambda _{2}$ tels que $\lambda _{1}\,\beq {x}+\lambda _{2}\beq {y}=\beq {0}$, on obtient, en remarquant que $\beq {y}=2\beq {x}$ :
\begin{equation}
\lambda_{1}\,\beq{x}+\lambda_{2}\,\beq{y}=(\lambda_{1}+2\lambda_{2})\,\beq{x}=\beq{0}
\tag{1.3.5}
\end{equation}
ce qui implique que $(\lambda _{1}+2\lambda _{2})=0$ puisque $\mathbf {x}$ n’est pas nul. Tous les nombres $\lambda _{1}$ et $\lambda _{2}$ qui vérifient $\lambda _{1}=-2\lambda _{2}$
permettent de satisfaire la relation vectorielle précédente. On dit que les vecteurs $\mathbf {x}$ et $\mathbf {y}$ sont
linéairement $d\acute {e}pendants$ : l’un peut se déduire de l’autre.
Pour plus de deux vecteurs, on dira qu’ils sont linéairement dépendants si l’un d’entre eux peut être déterminé à partir des autres.
Considérons $p$ vecteurs $\mathbf {x_{i}}$ d’un espace vectoriel $E$ et écrivons qu’une combinaison linéaire de ces $p$ vecteurs est égale au vecteur nul, soit :
\begin{equation}
\lambda_{1}\,\beq{x_{1}}+\lambda_{2}\,\beq{x_{2}}+...+\lambda_{i}\,\beq{x_{i}}=\beq{0}
\tag{1.3.6}
\end{equation}
Si la seule combinaison linéaire qui vérifie cette égalité correspond à des scalaires $\lambda _{i}$
tous nuls, on dit que ces $p$ vecteurs sont linéairement indépendants. On a un système de $p$
vecteurs indépendants.
Dans le cas contraire, les vecteurs sont linéairement dépendants et l’un au moins d’entre eux est une combianaison linéaire des autres. Supposons par exemple que $\lambda _{1}$ soit différent de zéro dans l’égalité précédente, on a alors :
\begin{equation}
\beq{x_{1}}=(-1/\lambda_{1})\,(\lambda_{2}\,\beq{x_{2}}+...+\lambda_{p}\,\beq{x_{p}})
\tag{1.3.7}
\end{equation}
En prélevant un certain nombre de vecteurs dans un espace vectoriel $E$, on peut former
des ensembles de vecteurs indépendants. Il existe des espaces vectoriels où le nombre de
vecteurs formant un système linéairement indépendant n’est pas fini mais nous ne les
considérons pas ici.
On suppose donc que le nombre maximum de vecteurs indépendants est borné et
l’on appelle $n$ ce nombre maximum. Cela signifie, qu’après avoir choisi $n$ vecteurs
indépendants, si l’on ajoute un vecteur quelconque, le système devient dépendant. Un tel
système de $n$ vecteurs indépendants est appelé une base de l’espace vectoriel
E.
Ces $n$ vecteurs indépendants sont appelés des vecteurs de base. Ils forment un système
de $n$ vecteurs qui sera noté sous la forme $\mathbf {(e_{1},e_{2},...,e_{n})}$ ou plus brièvement $\mathbf {(e_{i})}$. Pour rappeler que l’espace
vectoriel comporte $n$ vecteurs de base, on le note $E_{n}$.
Le nombre $n$ est appelé la dimension de l’espace vectoriel $E$. Un espace vectoriel de
dimension $n$ sera noté $E_{n}$.
Exemple - Les trois vecteurs $\beq {e_{1}}=(1,0,0)$, $\beq {e_{2}}=(0,1,0)$, $\beq {e_{3}}=(0,0,1)$, constituent une base de l’espace vectoriel $E_{3}$. La dimension de cet espace est égale à trois.
Soient $\mathbf {(e_{1},e_{2},e_{3})}$ une base d’un espace vectoriel $E_{n}$. Le système suivant de $(n+1)$ vecteurs : $\mathbf {(x,e_{1},e_{2},...,e_{n})}$ est formé de
vecteurs linéairement dépendants ; si l’on a :
\begin{equation}
\lambda_{0}\,\beq{x}+\lambda_{1}\,\beq{e_{1}}+\lambda_{2}\,\beq{e_{2}}+...+\lambda_{p}\,\beq{e_{p}}=\beq{0}
\tag{1.3.8}
\end{equation}
On peut ainsi décomposer sur la base $E_{n}$ le vecteur $\mathbf {x}$ qui peut être représenté par une
combinaison linéaire des vecteurs de base :
\begin{equation}
\beq{x}=x^{1}\,\beq{e_{1}}+x^{2}\,\beq{e_{2}}+...+x^{n}\,\beq{e_{n}}=x^{i}\,\beq{e_{i}}
\tag{1.3.9}
\end{equation}
avec $x^{i}=(-\lambda _{i}/\lambda _{0})$. Cette combinaison est unique, car si l’on avait une autre décomposition :
\begin{equation}
\beq{x}=a^{1}\,\beq{e_{1}}+a^{2}\,\beq{e_{2}}+...+a^{n}\,\beq{e_{n}}=a^{i}\,\beq{e_{i}}
\tag{1.3.10}
\end{equation}
on en déduirait :
\begin{equation}
(x^{1}-a^{1})\,\beq{e_{1}}+(x^{2}-a^{2})\,\beq{e_{2}}+...+(x^{n}-a^{n})\,\beq{e_{n}}=(x^{i}-a^{i})\,\beq{e_{i}}=\beq{0}
\tag{1.3.11}
\end{equation}
Les vecteurs $\mathbf {e_{i}}$ étant indépendants, une telle relation n’est possible que si
tous les termes $(x^{i}-a^{i})$ sont nuls, donc si $x^{i}=a^{i}$, ce qui correspond à deux décompositions
identiques.
Les nombres $x^{i}$ sont les $composantes$ du vecteur $\mathbf {x}$ par rapport à la base $\mathbf {(e_{i})}$. D’où le théorème suivant :
Dans un espace vectoriel $E_{n}$ où existe une base $\mathbf {(e_{1},e_{2},...,e_{n})}$, tout vecteur peut s’exprimer
d’une manière et d’une seule par une combinaison linéaire des vecteurs
formant cette base.
Exemple 1 - Tout vecteur $\beq {x}=(a^{1},a^{2},a^{3})$ de l’espace vectoriel $E_{3}$ peut être décomposé sur la base $\beq {e_{1}}=(1,0,0), \beq {e_{2}}=(0,1,0),\beq {e_{3}}=(0,0,1)$. On
obtient :
\[\begin {array}[b]{lcl} \beq {x}&=&(a^{1},a^{2},a^{3})=(a^{1},0,0)+(0,a^{2},0)+(0,0,a^{3}) \\ &=&a^{1}(1,0,0)+a^{2}(0,1,0)+a^{3}(0,0,1)=a^{1}\,\beq {e_{1}}+a^{2}\,\beq {e_{2}}+a^{3}\,\beq {e_{3}} \end {array}\]
Dans cette base, les composantes du vecteur sont identiques aux nombres qui figurent
dans le triplet qui définit le vecteur lui-même. Il n’en est évidemment pas de même
lorsque la base est quelconque.
Exemple 2 - L’espace vectoriel des polynômes $P_{2}(t)$ de degré 2 admet, par exemple, la base suivante : $\beq {e_{1}}=3$, $\beq {e_{2}}=4t$, $\beq {e_{3}}=2t^{2}$. Tout polynôme de degré deux se décompose sur cette base sous la forme : $P_{2}(t)=a^{1}+a^{2}t+a^{3}t^{2}=c^{1}\,\beq {e_{1}}+c^{2}\,\beq {e_{2}}+c^{3}\,\beq {e_{3}}$, avec $a^{1}=3c^{1}, a^{2}=4c^{2}, a^{3}=2c^{3}$.
Soient deux bases ($\mathbf {e_{1},e_{2},e_{3}}$) et ($\mathbf {e'_{1},e'_{2},e'_{3}}$) d’un espace vectoriel $E_{n}$. Chaque vecteur d’une base peut être décomposé sur l’autre base sous la forme suivante :
\begin{equation}
\beq{e_{i}}=A’^{k}_{i}\,\beq{e’_{k}}
\tag{1.3.12}
\label{1.3.12}
\end{equation}
\begin{equation}
\beq{e’_{k}}=A^{i}_{k}\,\beq{e_{i}}
\tag{1.3.13}
\label{1.3.13}
\end{equation}
où l’on utilise la convention de sommation pour $i,k=1,2...,n$.
Changement des composantes d’un vecteur - Un vecteur $\mathbf {x}$ de $E_{n}$ peut être décomposé sur chaque base sous la forme :
\begin{equation}
\beq{x}=x^{i}\,\beq{e_{i}}=x’^{k}\,\beq{e’_{k}}
\tag{1.3.14}
\label{1.3.14}
\end{equation}
Cherchons les relations entre les composantes $x^{i}$ et $x'^{k}$. Remplaçons les vecteurs $\mathbf {e_{i}}$ et $\mathbf {e'_{k}}$ dans la relation (1.3.14) par leur expression respective (1.3.12) et (1.3.13) ; il vient :
\begin{equation}
\beq{x}=x^{i}\,\beq{e_{i}}=x^{i}\,A’^{k}_{i}\,e’_{k}=x’^{k}\,\beq{e’_{k}}=x’^{k}\,A^{i}_{k}\,\beq{e_{i}}
\tag{1.3.15}
\label{1.3.15}
\end{equation}
Par suite de l’unicité de la décomposition d’un vecteur sur une base, on peut égaler les coefficients des vecteurs $\mathbf {e'_{k}}$ et l’on obtient :
\begin{equation}
x’^{k}=A’^{k}_{i}\,x^{i}
\tag{1.3.16}
\label{1.3.16}
\end{equation}
De même, les coefficients des vecteurs $\mathbf {e_{i}}$ donnent :
\begin{equation}
x^{i}=A^{i}_{k}\,x’^{k}
\tag{1.3.17}
\label{1.3.17}
\end{equation}
Ce sont les formules de changement de base des composantes d’un vecteur. On
remarque que les composantes d’un vecteur quelconque se transforment de façon contraire
de celle des vecteurs de base (voir (1.3.12) et (1.3.13)), les grandeurs $A$ et $A'$ s’échangeant.
Par suite de ce genre de transformation, ces composantes sont appelées des composantes
contravariantes.
Matrice de changement de base - Les relations (1.3.12) et (1.3.13) nous donnent :
\begin{equation}
\beq{e_{i}}=A’^{k}_{i}\,A^{j}_{k}\,\beq{e_{j}}
\tag{1.3.18}
\label{1.3.18}
\end{equation}
d’òu : \begin{equation}
A’^{k}_{i}\,A^{j}_{k}=\delta^{j}_{i}
\tag{1.3.19}
\label{1.3.19}
\end{equation}
La matrice de changement de base $A=[A'^{k}_{i}]$ a donc pour matrice inverse $A^{-1}=[A^{i}_{k}]$. On a la relation : $A\,A^{-1}=I$, où $I$ est la matrice unité. En vertu de la règle donnant le déterminant du produit des matrices, on a :
\begin{equation}
\text{det($A$)}\,\text{det($A^{-1}$)} = 1
\tag{1.3.20}
\label{1.3.20}
\end{equation}
Les déterminants de deux matrices inverses sont inverses l’un de l’autre.