Pages

Combinaisons linéaires et familles génératrices

Si vous n'arrivez pas à lire cette page essayez:
Cette page en IMAGE
Cette page en PDF
  • Exercice 11 Soit $E=\{(2,1),(-3,1),(-1,1)\}$ une famille de $\mathbb{R}^{2}$. Peut-on exprimer $(1,2)$ comme combinaison linéaire des éléments de $E$? Même question pour un élément $(a,b)$ quelconque. Est-elle une famille génératrice? Est-elle une base?
  • Correction 11 On écrit la combinaison linéaire: $$\begin{eqnarray*} (1,2)=\alpha(2,1)+\beta(-3,1)+\gamma(-1,1) & \iff & (1,2)=(2\alpha,\alpha)+(-3\beta,\beta)+(-\gamma,\gamma)\\ & \iff & (1,2)=(2\alpha-3\beta-\gamma,\alpha+\beta+\gamma)\\ & \iff & \begin{cases} 1=2\alpha-3\beta-\gamma & \text{...(1)}\\ 2=\alpha+\beta+\gamma & \text{...(2)}\end{cases}\end{eqnarray*}$$ On remarque qu'on a 3 inconnus et seulement deux équations, on laisse l'un des inconnus comme paramètre libre (par exemple $\beta$) et on exprime les deux autres en fonction de ce paramètre: $$\text{(1)+(2)}\Longrightarrow3=3\alpha-2\beta\iff\alpha=1+\frac{2}{3}\beta$$ $$\begin{eqnarray*} \text{(2)}\Longrightarrow\gamma & = & 2-\alpha-\beta\\ & = & 2-1-\frac{2}{3}\beta-\beta\\ & = & 1-\frac{5}{3}\beta\end{eqnarray*}$$ Donc il suffit de choisir une valeur pour $\beta$ et on obtiendra un triplet $(\alpha,\beta,\gamma)$, ce qui veut dire qu'on peut écrire $(1,2)$ comme combinaison linéaire des éléments de $E$ en plus d'une infinité de manières. Voyons si c'est aussi le cas pour un élément $(a,b)$ quelconque: $$\begin{eqnarray*} (a,b)=\alpha(2,1)+\beta(-3,1)+\gamma(-1,1) & \iff & (a,b)=(2\alpha,\alpha)+(-3\beta,\beta)+(-\gamma,\gamma)\\ & \iff & (a,b)=(2\alpha-3\beta-\gamma,\alpha+\beta+\gamma)\\ & \iff & \begin{cases} a=2\alpha-3\beta-\gamma & \text{...(1)}\\ b=\alpha+\beta+\gamma & \text{...(2)}\end{cases}\end{eqnarray*}$$ $$\text{(1)+(2)}\Longrightarrow a-b=3\alpha-2\beta\iff\alpha=\frac{a-b}{3}+\frac{2}{3}\beta$$ $$\begin{eqnarray*} \text{(2)}\Longrightarrow\gamma & = & 2-\alpha-\beta\\ & = & 2-\frac{a-b}{3}-\frac{2}{3}\beta-\beta\\ & = & 2-\frac{a-b}{3}-\frac{5}{3}\beta\end{eqnarray*}$$ On peut alors toujours écrire $(a,b)$ comme combinaison linéaire des éléments de $E$, $E$ est donc une famille génératrice, mais est-elle une base? Pour être une base, il faut qu'elle soit une famille libre en plus d'être génératrice, voyons donc si elle est libre: [bientôt...]

Combinaisons linéaires

Si vous n'arrivez pas à lire cette page essayez:
Cette page en IMAGE
Cette page en PDF
  • Exercice 9 Soit $E=\{(1,3),(-1,-2)\}$ une famille de $\mathbb{R}^{2}$. Peut-on exprimer $(2,0)$ comme combinaison linéaire des éléments de $E$? Même question pour une élément quelconque $(a,b)$ de $\mathbb{R}^{2}$. Que peut-on conclure?
  • Correction 9 On écrit $(2,0)$ comme combinaison linéaire des éléments deux $E$ avec des coefficients inconnus et on cherche si ces coefficients existent:
    $$\begin{eqnarray*} (2,0)=\alpha(1,3)+\beta(-1,-2) & \iff & (2,0)=(\alpha,3\alpha)+(-\beta,-2\beta)\\ & \iff & (2,0)=(\alpha-\beta,3\alpha-2\beta)\\ & \iff & \begin{cases} 2=\alpha-\beta & \text{...(1)}\\ 0=3\alpha-2\beta & \text{...(2)}\end{cases}\end{eqnarray*}$$ $$\text{3}\times\text{(1)-(2)}\iff6=-\beta\iff\begin{cases} \beta=-6\\ \alpha=2+\beta=-4\end{cases}$$ On a pu trouver $\alpha$ et $\beta$, donc $(2,0)$ peut être écrit comme combinaison linéaire des éléments de $E$: $$(2,0)=-4(1,3)-6(-1,-2)$$ On peut facilement vérifier que cette dernière relation est juste. Voyons maintenant si n'importe quel vecteur $(a,b)$ peut aussi l'être: $$\begin{eqnarray*} (a,b)=\alpha(1,3)+\beta(-1,-2) & \iff & (a,b)=(\alpha,3\alpha)+(-\beta,-2\beta)\\ & \iff & (a,b)=(\alpha-\beta,3\alpha-2\beta)\\ & \iff & \begin{cases} a=\alpha-\beta & \text{...(1)}\\ b=3\alpha-2\beta & \text{...(2)}\end{cases}\end{eqnarray*}$$ $$\text{3}\times\text{(1)-(2)}\iff3a-b=-\beta\iff\begin{cases} \beta=b-3a\\ \alpha=2+\beta=2+b-3a\end{cases}$$ On voit donc que $\alpha$ et $\beta$ existent toujours quel que soit $(a,b)$, donc n'importe quel vecteur $(a,b)$ peut être exprimé comme combinaison linéaire des éléments de $E$. On dit alors que $E$ est une famille génératrice car à partir de elle ont construire n'importe quelle autre vecteur, autrement dit, générer tout l'espace vectoriel.
  • Exercice 10 Soit $E=\{(4,6),(-6,-9)\}$ une famille de $\mathbb{R}^{2}$. Peut-on exprimer $(2,0)$ comme combinaison linéaire des éléments de $E$? Même question pour un élément quelconque $(a,b)$ de $\mathbb{R}^{2}$. Que peut-on conclure?
  • Correction 10 On procède comme auparavant: $$\begin{eqnarray*} (2,3)=\alpha(4,6)+\beta(-6,-9) & \iff & (2,3)=(4\alpha,6\alpha)+(-6\beta,-9\beta)\\ & \iff & (2,3)=(4\alpha-6\beta,6\alpha-9\beta)\\ & \iff & \begin{cases} (2=4\alpha-6\beta) & \times3\\ (3=6\alpha-9\beta) & \times2\end{cases}\\ & \iff & \begin{cases} 6=12\alpha-18\beta\\ 6=12\alpha-18\beta\end{cases}\\ & \iff & 6=12\alpha-18\beta\end{eqnarray*}$$ On voit alors que les deux équations sont en fait une seule et unique, on se retrouve avec deux inconnus $\alpha$ et $\beta$ mais une seule équation à résoudre, le mieux qu'on puisse faire donc, c'est de laisser l'un des inconnus ($\beta$ par exemple) comme paramètre libre et faire sortir l'autre en fonction de ce paramètre libre. $$6=12\alpha-18\beta\iff\alpha=\frac{6+18\beta}{12}=\frac{1}{2}+\frac{3}{2}\beta$$ Tout les couples $(\alpha,\beta)$ qui sont reliés par cette relation donc donnent $(2,3)$ comme combinaison linéaire des vecteurs de la famille $E$, par exemple: $$\begin{eqnarray*} \beta=0\Longrightarrow\alpha=\frac{1}{2} & \iff & (2,3)=\frac{1}{2}(4,6)+0(-6,-9)\\ \beta=-1\Longrightarrow\alpha=-1 & \iff & (2,3)=-1(4,6)-1(-6,-9)\end{eqnarray*}$$ Donc la réponse est oui, on peut écrire $(2,3)$ comme combinaison linéaire des éléments de $E$, et en plus, d'une infinité de manières (tous les couples $(\alpha,\beta)$ qui satisfont la relation), voyons maintenant si c'est le cas pour un vecteur $(a,b)$ arbitraire: $$\begin{eqnarray*} (a,b)=\alpha(4,6)+\beta(-6,-9) & \iff & (a,b)=(4\alpha,6\alpha)+(-6\beta,-9\beta)\\ & \iff & (a,b)=(4\alpha-6\beta,6\alpha-9\beta)\\ & \iff & \begin{cases} (a=4\alpha-6\beta) & \times3\\ (b=6\alpha-9\beta) & \times2\end{cases}\\ & \iff & \begin{cases} 3a=12\alpha-18\beta & \text{...(1)}\\ 2b=12\alpha-18\beta & \text{...(2)}\end{cases}\\ \\\end{eqnarray*}$$ $$\text{(1)-(2)}\iff3a-2b=0\iff a=\frac{2}{3}b$$ On voit donc que le vecteur $(a,b)$ ne peut pas être n'importe lequel, mais doit être tel que la relation précédente soit satisfaite, on ne peut donc pas écrire n'importe quel vecteur $(a,b)$ comme combinaison linéaire des éléments de $E$; ce n'est pas une famille génératrice.

Sous-espaces vectoriels

Si vous n'arrivez pas à lire cette page essayez:
Cette page en IMAGE
Cette page en PDF
  • Exercice 5 Est-ce que $\mathbb{Q}$ est un sous espace vectoriel de $\mathbb{R}$?
  • Correction 5 On doit utiliser le théorème de caractérisation d'un sev, que j'ai déjà donné ici, dans ce théorème, on voit qu'on doit connaître sur quel corps on travaille, ce qui n'a pas été donné dans l'exercice, on va donc considérer les deux cas:
    • $\mathbb{R}$ est un $\mathbb{R}$-espace vectoriel: c'est à dire que les vecteurs sont des réels et les scalaires aussi
    • $\mathbb{R}$ est un $\mathbb{Q}$-espace vectoriel: c'est à dire que les vecteurs sont des réels mais les scalaires sont des rationnels
    On commence donc:
    1. $\mathbb{R}$ est un $\mathbb{R}$-espace vectoriel
      • $\forall (v,v') \in \mathbb{Q} : v + v' \in \mathbb{Q}$ (toujours vérifiée)
      • $\forall \alpha \in \mathbb{R}, \forall v \in \mathbb{Q} : \alpha . v \in \mathbb{Q}$ (pas toujours vérifiée exemple: $\sqrt{2}.v \not\in \mathbb{Q}$)
      On voit donc que $\mathbb{Q}$ est fermé sous l'addition vectoriel mais n'est pas fermé sous la multiplication par un scalaire, il ne peut donc pas être un sev de $\mathbb{R}$
    2. $\mathbb{R}$ est un $\mathbb{Q}$-espace vectoriel
      • $\forall (v,v') \in \mathbb{Q} : v + v' \in \mathbb{Q}$ (toujours vérifiée)
      • $\forall \alpha \in \mathbb{Q}, \forall v \in \mathbb{Q} : \alpha . v \in \mathbb{Q}$ (toujours vérifiée)
      On voit donc que $\mathbb{Q}$ est fermé sous les deux opérations, l'addition vectorielle et la multiplication par un scalaire.
    Cet exercice confirme donc ce que j'ai déjà dénoncé, que dire: $E$ est un espace vectoriel. SANS préciser sur quel corps $\mathbb{K}$ il est défini est un manque d'information.
  • Exercice 6 Est-ce que $\mathbb{R}$ est un sous espace vectoriel de $\mathbb{C}$?
  • Correction 6 On doit utiliser le théorème de caractérisation d'un sev, que j'ai déjà donné ici, dans ce théorème, on voit qu'on doit connaître sur quel corps on travaille, ce qui n'a pas été donné dans l'exercice, on va donc considérer les deux cas:
    • $\mathbb{C}$ est un $\mathbb{C}$-espace vectoriel: c'est à dire que les vecteurs sont des complexes et les scalaires aussi
    • $\mathbb{C}$ est un $\mathbb{R}$-espace vectoriel: c'est à dire que les vecteurs sont des complexes mais les scalaires sont des réels
    On commence donc:
    1. $\mathbb{C}$ est un $\mathbb{C}$-espace vectoriel
      • $\forall (v,v') \in \mathbb{R} : v + v' \in \mathbb{R}$ (toujours vérifiée)
      • $\forall \alpha \in \mathbb{C}, \forall v \in \mathbb{R} : \alpha . v \in \mathbb{R}$ (pas toujours vérifiée exemple: $i.v \not\in \mathbb{R}$)
      On voit donc que $\mathbb{R}$ est fermé sous l'addition vectoriel mais n'est pas fermé sous la multiplication par un scalaire, il ne peut donc pas être un sev de $\mathbb{C}$
    2. $\mathbb{C}$ est un $\mathbb{R}$-espace vectoriel
      • $\forall (v,v') \in \mathbb{R} : v + v' \in \mathbb{R}$ (toujours vérifiée)
      • $\forall \alpha \in \mathbb{R}, \forall v \in \mathbb{R} : \alpha . v \in \mathbb{R}$ (toujours vérifiée)
      On voit donc que $\mathbb{R}$ est fermé sous les deux opérations, l'addition vectorielle et la multiplication par un scalaire.

L.C.I: Loi de composition interne

Si vous n'arrivez pas à lire cette page essayez:
Cette page en IMAGE
Cette page en PDF
Les but des 4 parties principales de ce nouveau chapitre des espaces vectoriels sont:
  1. Comment montrer qu'un ensemble $E$ muni de deux lois (l'une interne $+$ appelée addition vectoriel et l'autre externe $.$ appelée multiplication par un scalaire) forme un espace vectoriel pour un certain corps $\mathbb{K}$, on dira alors que c'est un $\mathbb{K}$-espace vectoriel, abrégé en $\mathbb{K}$-ev. (généralement on prendra $\mathbb{K} = \mathbb{R}$)
  2. Étant donné un $\mathbb{K}$-ev $E$, comment montrer qu'un sous ensemble $E'$ de $E$ forme lui aussi un $\mathbb{K}$-ev
  3. Les éléments d'un $\mathbb{K}$-ev sont appelés vecteurs et ceux du corps $\mathbb{K}$ scalaires, avec ceci, savoir comment écrire un vecteur en fonction d'autres vecteurs (avec des scalaires comme coefficients), c'est ce qu'on appelle une combinaison linéaire
  4. Et enfin savoir détecter si une famille de vecteurs peut être suffisante pour écrire tout autre vecteur (on dit qu'elle génère le $\mathbb{K}$-ev ou que c'est une famille génératrice), et si c'est le cas, savoir s'il n'existe pas de vecteurs dépendants entre eux dans cette famille (on dit que tout les vecteurs sont indépendants ou qu'ils ne sont pas liés), si c'est le cas on l'appellera base du $\mathbb{K}$-ev
Vous avez déjà eu affaire à des $\mathbb{R}$-ev: $\mathbb{R}$, $\mathbb{R}^{2}$ et $\mathbb{R}^{3}$ sont tous de $\mathbb{R}$-ev, vous aviez l'habitude de représenter les éléments de ces $\mathbb{R}$-ev par des segments de droite, qui sont orientés et qui ont une longueur, c'est ainsi alors que vous imaginiez un vecteur. Maintenant, l'ensemble $E$ peut être absolument n'importe quoi: un ensemble de fonctions, un ensemble d'ensembles, ...etc, il faudra alors pouvoir imaginer une fonction ou un ensemble comme un vecteur! et abandonner cette idée qu'un vecteur ne peut être représenté que par une flèche. Maintenant, les définitions qui nous permettent de faire ces déductions:
  1. Un ensemble $E$ muni de deux lois de composition, l'une interne notée $+$ et appelée addition vectorielle: $$\begin{eqnarray*} +:E\times E & \Longrightarrow & E\\ (v,w) & \Longrightarrow & v+w\in E\end{eqnarray*}$$ et l'autre externe notée $.$ et appelée multiplication par un scalaire: $$\begin{eqnarray*} .\,:\mathbb{K}\times E & \Longrightarrow & E\\ (\alpha,w) & \Longrightarrow & \alpha.w\in E\end{eqnarray*}$$ où $(\mathbb{K},+,.)$ est un corps, est un $\mathbb{K}$-espace vectoriel (abrégé $\mathbb{K}$-ev) si les axiomes suivants sont vérifiés:
    1. $(E,+)$ est un groupe abélien
    2. $\forall(\alpha,\beta)\in\mathbb{K}^{2},\,\forall v\in E\;:\;(\alpha+\beta).v=\alpha.v+\beta.v$
    3. $\forall\alpha\in\mathbb{K}\,,\forall(v,w)\in E^{2}:\,\alpha.(v+w)=\alpha.v+\alpha.w$
    4. $\forall(\alpha,\beta)\in\mathbb{K}^{2},\,\forall v\in E\;:\;\alpha.(\beta.v)=(\alpha.\beta).v$
    5. $\forall v\in E\;:\;1_{\mathbb{K}}.v=v$
    où $1_{\mathbb{K}}$ est l'élément neutre par rapport à la deuxième loi de $\mathbb{K}$
  2. Soit $E$ un $\mathbb{K}$-espace vectoriel et $E'$ un sous ensemble de l'ensemble $E$, alors $E'$ est appelé $\mathbb{K}$-sous-espace vectoriel de $E$ si lui-même est un $\mathbb{K}$-espace vectoriel. On peut montrer (voir cours) qu'il suffit simplement de vérifier les deux choses suivantes:
    1. $E'$ est fermé sous l'addition vectoriel, c-à-d: $$\forall(v,w)\in E^{2}:\,(v+w)\in E$$
    2. $E'$ est fermé sous la multiplication par un scalaire c-à-d: $$\forall\alpha\in\mathbb{K}\,,\forall v\in E:\,\alpha.v\in E$$
  3. Une combinaisons linéaire d'un ensemble de vecteurs $\{v_{1},\,v_{2},\,v_{3},\,\dots\}$ du $\mathbb{K}$-ev $E$ est un autre vecteur $w$ de $E$ qui s'exprime ainsi: $$w=\alpha . v_{1}+\beta . v_{2}+\gamma . v_{3}+\dots$$ où $(\alpha,\,\beta,\,\gamma,\,\dots)$ sont des scalaires (des éléments de $\mathbb{K}$)
  4. Une famille (un ensemble) de $n$ vecteurs $\{v_{1},\, v_{2},\, v_{3},\,\dots,\, v_{n}\}$ du $\mathbb{K}$-ev $E$ est appelée famille génératrice de $E$ si tout vecteur $w$ de $E$ peut s'écrire comme combinaison linéaire de ces $n$ vecteurs. Si en plus tout les éléments de cette famille sont indépendants, on l'appelle base pour le $\mathbb{K}$-ev $E$. Pour montrer qu'ils sont indépendants il suffit de vérifier l'implication suivante: $$\alpha_{1}v_{1}+\alpha_{2}v_{2}+\alpha_{3}v_{3}+\dots+\alpha_{n}v_{n}=0\,\Longrightarrow\alpha_{1}=\alpha_{2}=\alpha_{3}=\dots=\alpha_{n}=0$$
Quelques remarques:
  • Il y a deux sortes d'addition ici, et deux sortes de multiplications, en effet il y'a l'addition vectorielle qui apparaît dans le groupe $(E,+)$ et l'addition des scalaires qui apparaît dans le corps $(\mathbb{K},+,.)$, aussi, il y a la multiplication par un scalaire qui compose un scalaire avec un vecteur $\alpha v$, et il y a la multiplication entre les scalaires qui apparaît dans $(\mathbb{K},+,.)$. Bien comprendre de quelle opération on parle dans les axiomes est primordiale pour la bonne compréhension de ce chapitre.
    PS: essayez de réécrire les axiomes en utilisant différentes couleurs pour les deux genres d'opérations qui s'écrivent de la même façon, vous verrez alors que ces axiomes ne sont pas du tout triviaux.
  • Une remarque très importante qu'il faut dire, c'est qu'il ne faut jamais dire "espace vectoriel" tout court, mais préciser sur quel corps on travaille et dire "un $\mathbb{K}$-espace vectoriel" ou "un espace vectoriel sur $\mathbb{K}$", si vous me demandez pourquoi, je peux vous donner une infinité de raisons:
    • L'ensemble $\mathbb{R}$ vu comme un $\mathbb{R}$-ev est de dimension $1$, mais vu comme un $\mathbb{Q}$-ev est de dimension infinie! Je vais y revenir quand on parlera de bases, mais pour linstant, voyez que ne pas préciser sur quel corps on travaille est une grave erreur!
  • Il est facile de voir que la condition d'indépendance de la famille génératrice: $$\alpha_{1}v_{1}+\alpha_{2}v_{2}+\alpha_{3}v_{3}+\dots+\alpha_{n}v_{n}=0\,\Longrightarrow\alpha_{1}=\alpha_{2}=\alpha_{3}=\dots=\alpha_{n}=0$$ est belle et bien équivalente à dire que tout les vecteurs sont indépendants, en effet, si l'implication n'arrive pas, c-à-d si il existe au moins un $\alpha_{p}$ qui ne soit pas nul, on pourra écrire:
    • Si il existe un seul $\alpha_{p}$ non nul on aura: $$\alpha_{p}v_{p}=0\Longrightarrow v_{p}=0$$ mais alors $v_{p}$ peut être écris en fonction des autres membres de la famille: $$v_{p}=0.v_{1}+0.v_{2}+0.v_{3}+\dots$$
    • Si il existe deux non nuls, $\alpha_{p}$ et $\alpha_{q}$ on pourra écrire: $$\alpha_{p}v_{p}+\alpha_{q}v_{q}=0\Longrightarrow v_{p}=\frac{\alpha_{q}}{\alpha_{p}}v_{q}$$ On voit alors que les deux vecteurs ne sont pas indépendants (on dit qu'ils sont colinéaires)
    • Ainsi de suite, on aura toujours un vecteur ou plusieurs qui seront dépendants d'un autre vecteur ou de plusieurs autres. Ainsi, la condition: $$\alpha_{1}=\alpha_{2}=\alpha_{3}=\dots=\alpha_{n}=0$$ nous assurera que cela n'arrive jamais.


  • Exercice 4 Montrer que l'ensemble $\mathbb{R}^{3}$ muni de la l.c.i $+$ et de la l.c.e $.$ définies comme suit: $$\begin{eqnarray*} (a,b,c)+(d,e,f) & = & (a+d,b+e,c+f)\\ \alpha.(a,b,c) & = & (\alpha.a,\alpha.b,\alpha.c)\end{eqnarray*}$$ est un $\mathbb{R}$-ev
  • Correction 4 Il suffit de vérifier tout les axiomes qui définissent un $\mathbb{R}$-ev:
    1. $(\mathbb{R}^{3},+)$ est un groupe abélien car:
      • $+$ est commutative car: $$\begin{eqnarray*} \forall(a,b,c),(d,e,f)\in(\mathbb{R}^{3})^{2}\,:\,(a,b,c)+(d,e,f) & = & (a+d,b+e,c+f)\\ & = & (d+a,e+b,f+c)\\ & = & (d,e,f)+(a,b,c)\end{eqnarray*}$$
      • $+$ est une l.c.i car: $$\begin{eqnarray*} \forall(a,b,c),(d,e,f)\in(\mathbb{R}^{3})^{2}\,:\,(a,b,c)+(d,e,f) & = & (a+d,b+e,c+f)\\ & = & (d+a,e+b,f+c)\in\mathbb{R}^{3}\end{eqnarray*}$$ parce que $+$ est une l.c.i dans $\mathbb{R}$
      • $(0,0,0) \in \mathbb{R}^{3}$ est l'élément neutre car: $$\begin{eqnarray*} \forall(a,b,c)\in\mathbb{R}^{3}\,:\,(a,b,c)+(0,0,0) & = & (a+0,b+0,c+0)\\ & = & (a,b,c)\end{eqnarray*}$$
      • $(-a,-b,-c) \in \mathbb{R}^{3}$ est le symétrique de $(a,b,c) \in \mathbb{R}^{3}$ car: $$\begin{eqnarray*} \forall(a,b,c)\in\mathbb{R}^{3}\,:\,(-a,-b,-c)+(a,b,c) & = & (-a+a,-b+b,-c+c)\\ & = & (0,0,0)\end{eqnarray*}$$
      • $+$ est associative car: $$\begin{eqnarray*} \forall(a,b,c),(d,e,f),(g,h,i)\in(\mathbb{R}^{3})^{3}:\\{} [(a,b,c)+(d,e,f)]+(g,h,i) & = & (a+d,b+e,c+f)+(g,h,i)\\ & = & ([a+d]+g,[b+e]+h,[f+c]+i)\\ & = & (a+[d+g],b+[e+h],f+[c+i])\\ & & \text{ (car +est associative dans }\mathbb{R}\text{ )}\\ & = & (a,b,c)+(d+g,e+h,c+i)\\ & = & (a,b,c)+[(d,e,f)+(g,h,i)]\end{eqnarray*}$$
    2. $$\begin{eqnarray*} \forall(\alpha,\beta)\in\mathbb{R}^{2},\,\forall(a,b,c)\in\mathbb{R}^{3}\;:\\ \;(\alpha+\beta).(a,b,c) & = & ([\alpha+\beta].a,[\alpha+\beta].b,[\alpha+\beta].c)\\ & = & (\alpha.a+\beta.a,\alpha.b+\beta.b,\alpha.c+\beta.c)\\ & = & (\alpha.a,\alpha.b,\alpha.c)+(\beta.a,\beta.b,\beta.c)\\ & = & \alpha.(a,b,c)+\beta.(a,b,c)\end{eqnarray*}$$
    3. $$\begin{eqnarray*} \forall\alpha\in\mathbb{R},\,\forall(a,b,c),(d,e,f)\in(\mathbb{R}^{3})^{2}\;:\;\\ \alpha.[(a,b,c)+(d,e,f)] & = & \alpha(a+d,b+e,c+f)\\ & = & (\alpha.[a+d],\alpha.[b+e],\alpha.[c+f])\\ & = & (\alpha.a+\alpha.d,\alpha.b+\alpha.e,\alpha.c+\alpha.f)\\ & & \text{(car . est distributive par rapport a +dans }\mathbb{R}\text{)}\\ & = & (\alpha.a,\alpha.b,\alpha.c)+(\alpha.d,\alpha.e,\alpha.f)\\ & = & \alpha.(a,b,c)+\alpha.(d,e,f)\end{eqnarray*}$$
    4. $$\begin{eqnarray*} \forall(\alpha,\beta)\in\mathbb{R}^{2},\,\forall(a,b,c)\in\mathbb{R}^{3}\;:\;\\ \alpha.[\beta.(a,b,c)] & = & \alpha.(\beta.a,\beta.b,\beta.c)\\ & = & (\alpha.[\beta.a],\alpha.[\beta.b],\alpha.[\beta.c])\\ & = & ([\alpha.\beta].a,[\alpha.\beta].b,[\alpha.\beta].c)\\ & & \text{(car . est associative dans }\mathbb{R}\text{)}\\ & = & (\alpha.\beta).(a,b,c)\end{eqnarray*}$$
    5. $$\begin{eqnarray*} \forall(a,b,c)\in\mathbb{R}^{3}\;:\;1.(a,b,c) & = & (1.a,1.b,1.c)\\ & = & (a,b,c)\end{eqnarray*}$$
    On a donc montré que tout les axiomes sont vérifiés.