SlideShare ist ein Scribd-Unternehmen logo
1 von 33
Downloaden Sie, um offline zu lesen
UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE 
U.F.R. SEGMI Année universitaire 2013 – 2014 
Master d’économie Cours de M. Desgraupes 
MATHS/STATS 
Document 2 : Solution des exercices d’algèbre linéaire 
Table des matières 
1 Espaces Vectoriels 1 
2 Applications linéaires 4 
3 Représentation matricielle 9 
4 Diagonalisation 15 
5 Décompositions matricielles 23 
1 Espaces Vectoriels 
Corrigé ex. 1 : Espaces définis par paramètres 
On considère les deux ensembles suivants : 
E1 = f(a; 2b; b  a) j a; b 2 Rg 
E2 = f(c; c + d; d) j c; d 2 Rg 
1-1) Montrons que E1 est stable par addition et par multiplication par un scalaire. 
Si x = (a; 2b; b  a) et x0 = (a0; 2b0; b0  a0) alors on a 
x + x0 = (a; 2b; b  a) + (a0; 2b0; b0  a0) 
= (a + a0; 2b + 2b0; b  a + b0  a0) 
= (a + a0; 2(b + b0); (b + b0)  (a + a0)) 
= (A; 2B; B  A) 
avec A = a + a0 et B = b + b0. Le vecteur x + x0 est bien de la forme voulue et 
appartient donc à E1. Pour la multiplication par un scalaire, calculons x : 
x = (a; 2b; b  a) 
= (a; 2b; (b  a)) 
= (a; 2b; b  a) 
= (A; 2B; B  A) 
avec A = a et B = b. 
1
On procède de manière analogue pour l’ensemble E2. Ce sont donc des sous-espaces 
vectoriels de R3. 
1-2) Soit !x 
= (x1; x2; x3) 2 E1. On va trouver l’équation vérifiée par x1, x2 
et x3 en éliminant les paramètres a et b entre les équations : 
8 
: 
x1 = a 
x2 = 2b 
x3 = b  a 
On a 
x3 = b  a = 1=2x2  x1 
d’où 
2x1  x2 + 2x3 = 0 
Il s’agit d’un plan passant par l’origine. 
Dans le cas de E2, on obtient de façon analogue : 
x1  x2 + x3 = 0 
1-3) L’intersection E1  E2 est une droite vérifiant les deux équations précé-dentes 
:  
2x1  x2 + 2x3 = 0 
x1  x2 + x3 = 0 
qui conduisent à x1 = x3 et x2 = 0. C’est la droite passant par l’origine et de vecteur 
directeur (1; 0;1). 
Corrigé ex. 2 : Espaces définis par équations linéaires 
Dans R3, on considère les sous-ensembles suivants : 
P = f(x1; x2; x3) j x1  2x2 + x3 = 0g 
D = f(x1; x2; x3) j x1 + x2 + x3 = 0 et x2  x3 = 0g 
2-1) Pour montrer que P et D sont des sous-espaces vectoriels de R3, il suffit de 
monter qu’ils sont stables par addition et par multiplication par un scalaire. 
Si x = (x1; x2; x3) et x0 = (x0 
1; x0 
3) sont des vecteurs de P, ils vérifient 
2; x0 
respectivement les équations 
 
x1  2x2 + x3 = 0 
x0 
1  2x0 
2 + x0 
3 = 0 
En additionnant les deux lignes, on voit que leur somme vérifie elle aussi l’équation 
et donc x + x0 2 P. De même, on montre que le vecteur x vérifie l’équation en la 
multipliant par . 
On procède de manière analogue pour D. 
2-2) P est un plan car il est défini par une seule équation dans R3. Il est donc 
de dimension 2 et il suffit de trouver deux vecteurs indépendants vérifiant son équation 
pour former une base. Par exemple, les deux vecteurs suivants : (2; 1; 0) et (0; 1; 2). 
On peut aussi raisonner au moyen d’applications linéaires. P est l’ensemble des 
vecteurs qui annulent la fonction f de R3 dans R définie par 
f(x1; x2; x3) = x1  2x2 + x3 
2
On a donc P = Kerf. L’espace image est R qui est de dimension 1, donc par le 
théorème des dimensions on obtient : 
dim Ker f = dim E  dim Im f = 3  1 = 2 
ce qui confirme que le noyau est un plan. 
L’espace D est de dimension 1 car il est défini par l’annulation de deux équations 
linéaires indépendantes, d’où : 
dim D = 3  2 = 1 
Un vecteur directeur de cette droite est un vecteur qui vérifie les deux équations défi-nissant 
D :  
x1 + x2 + x3 = 0 
x2  x3 = 0 
On en déduit x2 = x3 et x1 = 2x3. Un vecteur directeur possible est donc (2; 1; 1). 
Corrigé ex. 3 : Rang d’une famille de vecteurs 
Le rang de la famille des trois vecteurs 
a = (1; m; m) b = (m; 1; m) c = (m; m; 1) 
est aussi le rang de la matrice 
M = 
0 
@ 
1 m m 
m 1 m 
m m 1 
1 
A 
Son déterminant vaut 
det M = 2m3  3m2 + 1 = (m  1)2(2m + 1) 
Si m est différent de 1 et de -1/2, le déterminant n’est pas nul et la matrice est donc de 
rang maximal 3. 
Si m = 1=2, la matrice sera de rang 2. On note que, dans ce cas, la somme des 
trois lignes de la matrice est nulle mais que les deux premières sont indépendantes, ce 
qui est une autre façon de voir que le rang est 2. 
Enfin, si m = 1, les trois lignes de la matrice sont identiques, ce qui signifie qu’elle 
est de rang 1. 
Corrigé ex. 4 : Sous-espace dépendant d’un paramètre 
Fm est le sous-espace vectoriel de R3 défini par 
Fm = f(x1; x2; x3) j x2  2x3 = 0 et mx2 + 3x3 = 0g 
Les deux équations sont indépendantes si et seulement si les deux lignes de la 
matrice 
M = 
 
1 2 
m 3 
 
3
sont indépendantes, ce qui a lieu lorsque le déterminant est non nul. On calcule : 
det M = 3 + 2m. 
Si m6= 3=2, les deux équations sont indépendantes et ne peuvent être vérifiées 
simultanément que si x2 = x3 = 0. L’espace Fm est alors l’ensemble des vecteurs de 
la forme (x1; 0; 0), c’est-à-dire l’axe des x1 qui a pour vecteur directeur (1; 0; 0). 
Si m = 3=2, l’ensemble Fm est le plan d’équation x2  2x3 = 0. Il est donc de 
dimension 2. Pour constituer une base, il suffit de prendre deux vecteurs indépendants 
vérifiant cette équation. Par exemple, les vecteurs (1; 0; 0) et (0; 2; 1). 
Corrigé ex. 5 : Base d’un sous-espace 
Dans R4, si on a les égalités x1 = x2 = x3 = x4, tout vecteur s’écrit 
!x 
= (x1; x2; x3; x4) 
= (x1; x1; x1; x1) 
= x1(1; 1; 1; 1) 
Le sous-espace est donc l’ensemble des multiples du vecteur (1; 1; 1; 1). Il est donc de 
dimension 1 : c’est la droite passant par l’origine et de vecteur directeur (1; 1; 1; 1). 
2 Applications linéaires 
Corrigé ex. 6 : Dimensions des espaces de départ et d’arrivée 
Si f est une application linéaire de R3 dans R2, l’espace de départ est de dimension 
strictement plus grande que l’espace d’arrivée. On en déduit que : 
1. f ne peut pas être injective car, si c’était le cas, l’espace de départ serait “injecté” 
dans l’espace d’arrivée. Ce dernier devrait donc être de dimension au moins 3. 
2. f pourrait être surjective. 
3. f ne peut pas être bijective. Pour cela, il faudrait déjà que les deux espaces aient 
la même dimension. 
Si f est une application linéaire de R2 dans R3, l’espace de départ est de dimension 
strictement plus petite que l’espace d’arrivée. On en déduit que 
1. f pourrait être injective. 
2. f ne peut pas être surjective car l’espace image sera au mieux de dimension 2 et 
ne pourra donc jamais remplir l’espace d’arrivée. 
3. f ne peut pas être bijective. Pour cela, il faudrait déjà que les deux espaces aient 
la même dimension. 
Enfin, si f est une application linéaire de R2 dans R2, elle peut tout à fait être 
injective, surjective ou bijective. Les espaces de départ et d’arrivée ayant même dimen-sion, 
on peut même dire que si elle est injective elle sera automatiquement surjective, 
et vice-versa. 
4
Corrigé ex. 7 : Noyau et image en fonction d’un paramètre 
u est l’endomorphisme de R3 défini par 
u 
0 
@ 
x1 
x2 
x3 
1 
A = 
0 
@ 
x1 + x2 + x3 
x1 + x2 + x3 
x1 + x2 
1 
A 
Pour déterminer son noyau, on pose les équations suivantes : 
8 
: 
x1 + x2 + x3 = 0 
x1 + x2 + x3 = 0 
x1 + x2 = 0 
Par soustraction des deux dernières équations, on obtient x3 = 0. 
Supposons que 6= 0. On en déduit que x3 = 0, ce qui conduit à 
 
x1 + x2 = 0 
x1 + x2 = 0 
Si 6= 1, ces deux équations sont indépendantes et donnent x1 = 0 et x2 = 0. On 
trouve alors que le noyau ne contient que le vecteur nul !0 
. Si au contraire  = 1, il 
reste l’équation x1 + x2 = 0 (et toujours x3 = 0). Le noyau est alors la droite passant 
par l’origine et de vecteur directeur (1;1; 0). 
Il reste à examiner le cas où  = 0. Le système initial se ramène alors simplement 
à : 
x1 + x2 + x3 = 0 
x1 = 0 
Le noyau est cette fois la droite de vecteur directeur (0; 1;1). 
Déterminons maintenant l’image dans les trois cas précédents. Si 6= 0 et 6= 1, 
le noyau est réduit à !0 
et l’application est donc injective. Il en résulte qu’elle est 
aussi surjective puisque l’espace de départ et l’espace d’arrivée ont même dimension. 
L’espace image est donc l’espace d’arrivée R3 tout entier. Le rang est 3. 
Si  = 1, l’image de l’application est définie par 
8 
: 
X = x1 + x2 + x3 
Y = x1 + x2 + x3 
Z = x1 + x2 
où X, Y et Z sont les coordonnées dans l’espace d’arrivée. On voit ici que X = Y , 
autrement dit que X  Y = 0. C’est l’équation d’un plan dans R3. Une base possible 
est formée des vecteurs (0; 0; 1) et (1; 1; 0). Le rang est 2. 
Si  = 0, l’image de l’application est définie par 
8 
: 
X = x1 + x2 + x3 
Y = x1 
Z = x1 
On voit que Y = Z, autrement dit que Y Z = 0. C’est l’équation d’un plan dans R3. 
Une base possible est formée des vecteurs (0; 1; 1) et (1; 0; 0). Le rang est 2. 
5
Corrigé ex. 8 : Matrice de permutation 
Soit u l’application de R3 dans R3 définie par 
u 
0 
@ 
x1 
x2 
x3 
1 
A = 
0 
@ 
x3 
x1 
x2 
1 
A 
8-1) u est linéaire car elle est définie par des combinaisons linéaires des variables 
x1, x2 et x3. 
8-2) La matrice associée à u dans la base canonique est 
M = 
0 
@ 
0 1 0 
0 0 1 
1 0 0 
1 
A 
C’est une matrice de permutation. L’application u opère une permutation circulaire des 
variables x1, x2 et x3. 
8-3) On calcule 
M2 = 
0 
@ 
1 
A M3 = 
0 0 1 
1 0 0 
0 1 0 
0 
@ 
1 
A 
1 0 0 
0 1 0 
0 0 1 
On voit donc que M3 = I, ce qui peut s’écrire MM2 = M2M = I et montre que 
M2 est l’inverse de M. On a donc M1 = M2. 
8-4) Calculons les puissances successives de la matrice M. 
Puisque M3 = I, on a M4 = M, M5 = M2, M6 = I, etc. 
De même, puisque M1 = M2, on calcule M2 = M4 = M, et ensuite M3 = 
I, M4 = M2, M5 = M, M6 = I, etc. 
Corrigé ex. 9 : Base d’un noyau 
On considère l’application u de R4 dans R2 définie par 
u : 
0 
BB@ 
x1 
x2 
x3 
x4 
1 
CCA 
! 
 
x1 + 2x2 + 3x3 + x4 
x1 + x2 + 3x3 + x4 
 
Il s’agit de déterminer une base du noyau de cette application. Puisque les deux 
expressions sont indépendantes, l’espace image sera de dimension 2. On en déduit 
que le noyau est de dimension 4  2 = 2. Il suffit donc de trouver deux vecteurs 
indépendants vérifiant les équations données. Si on soustrait les deux équations, on 
trouve : 
2x1 + x2 = 0 
On peut prendre, par exemple, les vecteurs (1; 2; 0; 0) et (0; 0; 1;3). 
6
Corrigé ex. 10 : Application définie sur les vecteurs d’une base 
f est l’application linéaire de R2 dans R3 définie par 
f(1; 1) = (4; 2; 0) et f(1;1) = (2; 0; 6): 
10-1) Pour trouver les images par f des vecteurs de la base canonique de R2, il 
suffit d’exprimer ces vecteurs en fonction des vecteurs (1; 1) et (1;1) dont on nous 
donne les images par f. On trouve facilement que e1 = (1; 0) = 1=2((1; 1)+(1;1)). 
D’où, par linéarité, 
 
f(1; 1) + f(1;1) 
f(e1) = f(1; 0) = 1=2 
 
 
(4; 2; 0) + (2; 0; 6) 
= 1=2 
 
= (3; 1; 3) 
De même, e2 = (0; 1) = 1=2((1; 1)  (1;1)) d’où : 
 
f(1; 1)  f(1;1) 
f(e2) = f(0; 1) = 1=2 
 
 
(4; 2; 0)  (2; 0; 6) 
= 1=2 
 
= (1; 1; 3) 
10-2) L’image par f d’un vecteur quelconque de R2 s’écrit 
f(x1; x2) = f(x1e1 + x2e2) 
= x1f(e1) + x2f(e2) 
= x1(3; 1; 3) + x2(1; 1; 3) 
= (3x1 + x2; x1 + x2; 3x1  3x2) 
10-3) Le noyau de f est défini par les équations 
8 
: 
3x1 + x2 = 0 
x1 + x2 = 0 
3x1  3x2 = 0 
qui donnent x1 = x2 = 0. Le noyau est donc réduit au vecteur !0 
et l’application f est 
injective. Par le théorème des dimensions, on en déduit que l’image est de dimension 
2  0 = 2 L’application n’est donc pas surjective (puisque 2  3). Par élimination 
entre les équations suivantes 
8 
: 
y1 = 3x1 + x2 
y2 = x1 + x2 
y3 = 3x1  3x2 
on obtient la relation : 
3y1  6y2  y3 = 0 
C’est l’équation de l’image. Il s’agit d’un plan dans l’espace d’arrivée R3. 
Le rang de f est la dimension de l’espace image, c’est-à-dire 2. 
7
10-4) La droite de R2 d’équation x1 + x2 a pour vecteur directeur (1;1). Son 
image est donc la droite de vecteur directeur f(1;1) = (2; 0; 6). C’est un sous-espace 
vectoriel de dimension 1 de R3. 
10-5) Dans l’équation du plan y1 +y2 +y3 = 0, on remplace y1, y2, y3 par leurs 
valeurs en fonction de x1, x2, x3. On obtient donc 
(3x1 + x2) + (x1 + x2) + (3x1  3x2) = 0 
et par conséquent 
7x1  x2 = 0 
C’est l’équation d’une droite passant par l’origine dans R2. C’est donc un sous-espace 
vectoriel de dimension 1 de R2. 
Corrigé ex. 11 : Noyau et image sans calculs 
f(x1; x2; x3; x4) = 
 
2x1  x2 + x3 
x1 + 2x2  x4 
 
11-1) L’application f est linéaire car les deux expressions qui définissent le vec-teur 
image sont homogènes de degré 1 (linéaires). 
11-2) L’application f n’est pas injective car la dimension de l’espace départ est 
strictement supérieure à la dimension de l’espace d’arrivée. 
11-3) Pour déterminer le noyau de f, on doit résoudre les équations 
2x1  x2 + x3 = 0 
x1 + 2x2  x4 = 0 
On peut facilement exprimer toutes les variables en fonction de x1 et x2 comme ceci : 
0 
x1 
x2 
x3 
x4 
BB@ 
1 
CCA 
= 
0 
BB@ 
x1 
x2 
2x1 + x2 
x1 + 2x2 
1 
CCA 
= x1 
0 
1 
0 
2 
1 
BB@ 
1 
CCA 
+ x2 
0 
0 
1 
1 
2 
BB@ 
1 
CCA 
Les deux vecteurs V1 = 
0 
1 
0 
2 
1 
BB@ 
1 
CCA 
et V2 = 
0 
BB@ 
1 
0 
1 
1 
2 
CCA 
sont indépendants et constituent 
une base du noyau. Celui-ci est donc un sous-espace de dimension deux (un plan) dans 
R4. 
11-4) On vérifie facilement que f(V ) = 0 et donc que le vecteur V appartient 
au noyau de f. Pour trouver les coordonnées de V dans la base (V1; V2) trouvée à la 
question précédente, il faut déterminer 1 et 2 tels que : 
V = 1V1 + 2V2 
On trouve 1 = 2 et 2 = 1, donc V = 2V1 + V2. 
11-5) Le théorème des dimensions stipule que, pour toute application linéaire 
f : E ! F, on a 
Dim Ker(f) + Dim Im(f) = DimE 
où E est l’espace de départ. Puisque la dimension du noyau est 2 et que la dimension 
de l’espace de départ est 4, on en déduit que la dimension de l’image est 2. L’image est 
donc l’espace d’arrivée tout entier. 
8
3 Représentation matricielle 
Corrigé ex. 12 : Images de la base canonique 
On considère l’endomorphisme u de R3 défini par les relations : 
8 
: 
u(!e 
1) = !e 
1 + !e 
2 + !e 
3 
u(!e 
2) = !e 
1 + !e 
2 
u(!e 
3) = 2u(!e 
1)  u(!e 
2) 
La dernière relation conduit, par substitution, à 
u(!e 
3) = !e 
1 + !e 
2 + 2!e 
3 
Les images des vecteurs de base ont respectivement pour coordonnées (1; 1; 1), (1; 1; 0) 
et (1; 1; 2). La matrice de l’application dans la base canonique est donc 
M = 
0 
@ 
1 1 1 
1 1 1 
1 0 2 
1 
A 
On voit immédiatement que les deux premières lignes de cette matrice sont identiques 
tandis que la troisième est indépendante. La matrice est donc de rang 2. 
Le noyau est défini par les équations 
 
x1 + x2 + x3 = 0 
x1 + 0x2 + 2x3 = 0 
On en tire x1 = 2x3 puis x2 = x3. C’est la droite passant par l’origine et de vecteur 
directeur (2; 1; 1). Le noyau est de dimension 1. 
L’image est l’ensemble des vecteurs vérifiant 
8 
: 
y1 = x1 + x2 + x3 
y2 = x1 + x2 + x3 
y3 = x1 + 2x3 
ce qui conduit à y1 = y2 et y3 quelconque. L’image est donc un plan et a pour dimen-sion 
2. 
Le théorème des dimensions se vérifie puisque la somme de la dimension du noyau 
et de celle de l’image est égale à celle de l’espace lui-même : 1 + 2 = 3. 
Enfin l’endomorphisme u n’est ni injectif (noyau non réduit à 0), ni surjectif (image 
différente de l’espace d’arrivée). 
Corrigé ex. 13 : Composition d’applications 
On considère les fonctions f : (x; y) ! (3x + y; y) et g : (x; y) ! (y; 2x) de 
R2 dans R2. 
13-1) On calcule 
f  g(x; y) = f 
 
g(x; y) 
 
= f(y; 2x) = (3y + 2x; 2x) 
9
De même on trouve 
g  f(x; y) = g 
 
f(x; y) 
 
= g(3x + y; y) = (y; 6x + 2y) 
Ces deux applications sont bien linéaires puisqu’elles sont définies par des combi-naisons 
linéaires des variables. 
13-2) Les matrices représentant les applications f, g, f  g et g  f dans la base 
canonique sont respectivement : 
Mf = 
 
3 1 
0 1 
 
Mg = 
 
0 1 
2 0 
 
Mfg = 
 
2 3 
2 0 
 
Mgf = 
 
0 1 
6 2 
 
On vérifie facilement les relations Mfg = MfMg et Mgf = MgMf . 
Corrigé ex. 14 : Matrice dans des bases données 
On considère l’application u : R47! R3 définie par les relations suivantes dans 
!f 
1; 
les bases canoniques B4 = f!e 
1; !e 
2; !e 
3; !e 
4g et B3 = f 
!f 
2; 
!f 
3g : 
8 
: 
u(!e 
1) = 
!f 
1  
!f 
2 
u(!e 
2) = 
!f 
2 + 2 
!f 
3 
u(!e 
3) = 
!f 
1 + 
!f 
2 + 
!f 
3 
u(!e 
!f 
1 + 
4) = 2 
!f 
2 + 3 
!f 
3 
14-1) La matrice associée à u dans ces bases est faite en colonnes des images 
des vecteurs de la base de départ, exprimées dans la base d’arrivée. On obtient donc à 
partir des relations précédentes : 
M = 
0 
@ 
1 
A 
1 0 1 2 
1 1 1 1 
0 2 1 3 
C’est une matrice 3  4. 
14-2) On montre facilement que les lignes de cette matrice sont indépendantes 
(le bloc des trois premières colonnes, par exemple, est de déterminant non nul). Le rang 
de u (qui est aussi le rang de la matrice) est donc 3. 
14-3) Les coordonnées de l’image d’un vecteur !x 
= (x1; x2; x3; x4) s’ob-tiennent 
en multipliant la matrice M par le vecteur x (en colonne) : 
u(x) = Mx = 
0 
@ 
1 
A 
1 0 1 2 
1 1 1 1 
0 2 1 3 
0 
BB@ 
x1 
x2 
x3 
x4 
1 
CCA 
= 
0 
@ 
x1 + x3 + 2x4 
x1 + x2 + x3 + x4 
2x2 + x3 + 3x4 
1 
A 
Corrigé ex. 15 : Changement de base 
La matrice 
M = 
0 
@ 
1 
A 
0 0 0 
1 1 0 
1 1 2 
10
représente un endomorphisme u de R3 dans une base B = f!e 
1; !e 
2; !e 
3g. 
15-1) Les vecteurs 
!e 
0 
1, 
!e 
0 
2 et 
!e 
0 
3 sont définis dans la base canonique au moyen des 
relations suivantes : 8 
: 
!e 
0 
1 = !e 
1 + !e 
2 + !e 
3 
!e 
0 
2 = !e 
2 + !e 
3 
!e 
0 
= 3 3 
!e 
Ils ont donc respectivement pour coordonnées (1; 1; 1), (0; 1; 1) et (0; 0; 1) dans la base 
canonique. 
Leurs images (toujours dans la base canonique) sont obtenues en les multipliant à 
gauche par la matrice M. On trouve 
f(e0 
1) = Me0 
1 = 
0 
@ 
1 
A 
0 
0 
0 
2) = Me0 
f(e0 
2 = 
0 
@ 
1 
A 
0 
1 
1 
3) = Me0 
f(e0 
3 = 
0 
@ 
1 
A 
0 
0 
2 
On constate donc les relations suivantes f(e0 
1) = 0, f(e0 
2) = e0 
2 et f(e0 
3) = 2e0 
3. 
La matrice M0 associée à u dans la base B0 est faite en colonnes des images des 
vecteurs de B0 exprimées elles aussi dans la base B0. On a donc : 
M0 = 
0 
@ 
1 
A 
0 0 0 
0 1 0 
0 0 2 
15-2) La matrice M0 étant diagonale, on obtient : 
(M0)n = 
0 
@ 
0 0 0 
0 1 0 
0 0 2n 
1 
A 
On en déduit Mn en faisant le changement de base en sens inverse. La matrice de 
passage P de la base B à la base B0 est 
P = 
0 
@ 
1 
A 
1 0 0 
1 1 0 
1 1 1 
La relation de changement de base est M0 = P1MP. Par conséquent M = 
PM0P1 et donc Mn = P(M0)nP1. On calcule 
P1 = 
0 
@ 
1 
A 
1 0 0 
1 1 0 
0 1 1 
11
et on trouve, tous calculs faits, que 
Mn = 
0 
@ 
0 0 0 
1 1 0 
1 1  2n 2n 
1 
A 
Corrigé ex. 16 : Indépendance dans l’image 
On considère l’application linéaire h de R3 dans R3 définie par 
f : (a; b; c) ! (a + b; b + c; a  c): 
16-1) Calculons les images des vecteurs de base : 
f(e1) = f(1; 0; 0) = (1; 0; 1) 
f(e2) = f(0; 1; 0) = (1; 1; 0) 
f(e3) = f(0; 0; 1) = (0; 1;1) 
16-2) Cherchons une relation de dépendance entre les vecteurs f(e1), f(e2), 
f(e3). Cela revient à chercher trois coefficients a1, a2, a3 non tous nuls tels que : 
a1f(e1) + a2f(e2) + a3f(e3) = 0 
On a donc : 
a1(1; 0; 1) + a2(1; 1; 0) + a3(0; 1;1) 
D’où les équations : 8 
: 
a1 + a2 = 0 
a2 + a3 = 0 
a1  a3 = 0 
qui donnent a1 = a2 = a3 et donc, par exemple, a1 = 1, a2 = 1 et a3 = 1. La 
combinaison recherchée est finalement : 
f(e2) = f(e1) + f(e3) 
16-3) Les vecteurs f(e1), f(e2), f(e3) sont liés mais ils sont deux à deux indé-pendants 
: l’application f est donc de rang 2. 
16-4) Par le théorème des dimensions, on en déduit que le noyau de f est de 
dimension 3  2 = 1. En posant que f(x) = 0, on obtient les mêmes expressions que 
précédemment : 8 
: 
a + b = 0 
b + c = 0 
a  c = 0 
Les éléments du noyau sont donc de la forme (a;a; a). Ce sont tous les multiples 
de (1;1; 1). Le noyau est ainsi la droite passant par l’origine et de vecteur directeur 
(1;1; 1). 
12
16-5) Si f est une application linéaire de Rp dans Rq et que les vecteurs f(e1),. . . , 
f(ep) forment un système linéairement indépendant dans l’image f(Rp), on a 
dim Im f = p 
Par conséquent 
dim Ker f = p  p = 0 
ce qui montre que f est injective. 
La réciproque est vraie : si f est injective, les vecteurs f(e1),. . . , f(ep) sont linéai-rement 
indépendants. Ils constituent une base de f(Rp). 
Remarque : f(Rp) n’est pas forcément Rq tout entier (il faudrait en plus que p = q). 
Corrigé ex. 17 : Systèmes dégénérés 
Dans le système d’équations linéaires : 
8 
: 
x1 + 3x2  x3 = 0 
mx2 + 3x3 = 0 
x2 + x3 = 0 
le déterminant est égal à (m  3). Si m6= 3, le système a une solution unique qui est 
(0; 0; 0). On aura donc des solutions autres que (0; 0; 0) seulement si m = 3. 
Cela signifie que le noyau de l’application linéaire associée 
u : 
0 
@ 
x1 
x2 
x3 
1 
A ! 
0 
@ 
x1 + 3x2  x3 
mx2 + 3x3 
x2 + x3 
1 
A 
n’est pas réduit à l’élément !0 
et, par conséquent, que l’application n’est pas injective. 
Corrigé ex. 18 : Matrices par blocs 
M = 
 
A B 
0 C 
 
où A et C sont des blocs carrés. 
 18-1) Cherchons l’inverse M1 sous la forme d’une matrice par blocs M1 = 
E F 
G H 
 
. Il faut queM M1 = I etM1M = I. En développant ces deux égalités, 
on obtient les équations suivantes : 
8 
: AE + BG = I EA = I 
AF + BH = 0 EB + FC = 0 
CG = 0 GA = 0 
CH = I HC = I 
Les deux dernières relations imposent que C soit inversible. Dans ce cas, la relation 
CG = 0 impose que G = 0. 
Les deux premières relations imposent alors que AE = EA = I, c’est-à-dire que 
A soit inversible. 
13
18-2) Sous la condition que A et C sont inversibles, on peut alors résoudre les 
équations précédentes pour obtenir l’inverse de M. 
On trouve facilement : 8 
E = A1 
F = A1BC1 
G = 0 
H = C1 
: 
et donc finalement 
M1 = 
 
A1 A1BC1 
0 C1 
 
: 
On vérifie a posteriori que M M1 = M1M = I. 
Corrigé ex. 19 : Bloc identité 
On a M = 
 
A 0 
I B 
 
et on souhaite trouver un inverse de la même forme, c’est-à-dire 
M1 = 
 
C 0 
I D 
 
. 
Il faut que M M1 = I et M1M = I. En développant la première égalité, on 
obtient les équations suivantes : 
8 
: 
AC = I 
C + B = 0 
BD = I 
La deuxième égalité donne de même : 
8 
: 
CA = I 
A + D = 0 
DB = I 
Puisque les blocs sont tous carrés par hypothèse, les produits obtenus ne sont pos-sibles 
que si ils ont tous la même taille. C’est une première condition. 
Les relations AC = CA = I signifient que A doit être inversible et alors on a 
C = A1. De la même manière, B doit être inversible et on a D = B1. 
La condition A + D = 0 enfin impose que A = B1. 
14
4 Diagonalisation 
Corrigé ex. 20 : Valeurs et vecteurs propres 
Modèle de résolution 
Prenons, à titre d’exemple, la matrice 
0 
@ 
1 
A. 
2 0 1 
1 4 1 
1 2 0 
On commence par calculer son polynôme caractéristique : 
P() = det 
0 
@ 
1 
A 
2   0 1 
1 4   1 
1 2  
= 3 + 62  11 + 6 
= (  1)(  2)(  3) 
Il y a donc trois valeurs propres : 1 = 1, 2 = 2 et 3 = 3. 
Les vecteurs propres associés X sont solution de l’équation (A  I)X = 0 pour 
chacune des valeurs propres respectivement. 
Valeur propre 1 : on pose le système (A  I)X = 0, ce qui donne 
8 
: 
x1 + 0x2 + x3 = 0 
x1 + 3x2  x3 = 0 
x1 + 2x2  x3 = 0 
En faisant la différence entre la deuxième et la troisième équation, on obtient x2 = 0, 
ce qui 0 donne ensuite x3 = x1. On peut donc choisir comme vecteur propre V1 = 
@ 
1 
A (ou n’importe quel multiple de ce vecteur). 
1 
0 
1 
Valeur propre 2 : le système (A  2I)X = 0 s’écrit 
8 
: 
0x1 + 0x2 + x3 = 0 
x1 + 2x2  x3 = 0 
x1 + 2x2  2x3 = 0 
La première équation donne x3 = 0, 0 
ce 1 
qui conduit ensuite à x1 = 2x2. On peut donc 
choisir comme vecteur propre V2 = 
@ 
A. 
2 
1 
0 
Valeur propre 3 : le système (A  3I)X = 0 s’écrit 
8 
: 
x1 + 0x2 + x3 = 0 
x1 + x2  x3 = 0 
x1 + 2x2  3x3 = 0 
15
La première équation donne x1 = x3. En reportant dans la deuxième, on obtient alors 
x2 = 2x3. On peut donc choisir comme vecteur propre V3 = 
0 
@ 
1 
2 
1 
1 
A. 
Finalement, la matrice de passage est la matrice formée en colonne des vecteurs 
propres : 
P = 
0 
@ 
1 
A 
1 2 1 
0 1 2 
1 0 1 
et la matrice diagonalisée comporte les valeurs propres sur la diagonale : 
D = 
0 
@ 
1 
A 
1 0 0 
0 2 0 
0 0 3 
La relation entre A, P et D est : 
D = P1 AP 
Solution de tous les exemples 
Pour tous les exemples de cet exercice, on donne le polynôme caractéristique et les 
valeurs propres. Lorsque la matrice est diagonalisable, on indique aussi la matrice de 
passage et la matrice diagonale, sinon on indique seulement les vecteurs propres. 
 Matrice 
 
 
2 1 
1 2 
Polynôme caractéristique : P() = 2  4  + 3 = (  1) (  3). 
Valeurs propres : 1 = 1, 2 = 3. 
Matrice de passage : P = 
 
1 1 
1 1 
 
. 
Matrice diagonale : D = 
 
1 0 
0 3 
 
. 
 Matrice 
 
6=5 8=5 
8=5 6=5 
 
Polynôme caractéristique : P() = 2  4 = (  2) ( + 2). 
Valeurs propres : 1 = 2, 2 = 2. 
Matrice de passage : P = 
 
1 2 
2 1 
 
. 
Matrice diagonale : D = 
 
2 0 
0 2 
 
. 
 Matrice 
 
1 1 
1 1 
 
Polynôme caractéristique : P() = 2  2  + 2. 
Valeurs propres : 1 = 1  i, 2 = 1 + i. 
Matrice de passage : P = 
 
1 1 
i i 
 
. 
Matrice diagonale : D = 
 
1  i 0 
 
. 
0 1 + i 
16
Matrice 
 
 
2 1 
1 2 
Polynôme caractéristique : P() = 2  4  + 5. 
Valeurs propres : 1 = 2   
i, 2 = 2 + i. 
Matrice de passage : P = 
1 1 
i i 
 
. 
Matrice diagonale : D = 
 
2  i 0 
 
. 
0 2 + i 
 Matrice 
0 
@ 
1 
A 
2 0 1 
1 4 1 
1 2 0 
Polynôme caractéristique : P() = 3+6 211 +6 = (  1) (  2) (  3). 
Valeurs propres : 1 = 1, 2 0 
= 2, 3 = 1 
3. 
Matrice de passage : P = 
@ 
A. 
1 2 1 
0 1 2 
1 0 1 
Matrice diagonale : D = 
0 
@ 
1 
A. 
1 0 0 
0 2 0 
0 0 3 
 Matrice 
0 
@ 
1 
A 
1 2 0 
2 4 3 
2=3 3 2 
Polynôme caractéristique : P() = 3  2 + 5   3 = (  1)2 ( + 3). 
Valeurs propres : 1 = 3 simple, 2 = 1 double. 
0 
La valeur propre simple 1 = 3 a pour vecteur propre V1 = 
@ 
1 
2 
4=3 
1 
A. 
0 La valeur propre double 2 = 1 ne possède qu’un seul vecteur propre V2 = 
@ 
1 
A. 
La matrice n’est donc pas diagonalisable. 
1 
0 
2=3 
 Matrice 
0 
@ 
1 
A 
4 6 3 
2 3 2 
1 2 0 
Polynôme caractéristique : P() = 3 + 2 +   1 = (  1)2 ( + 1). 
Valeurs propres : 1 = 1 double, 0 
2 = 1 
1 simple. 
Matrice de passage : P = 
@ 
A. 
1 0 3 
0 1 2 
1 2 1 
Matrice diagonale : D = 
0 
@ 
1 
A. 
1 0 0 
0 1 0 
0 0 1 
17
Matrice 
0 
@ 
1 
A 
3 0 0 
8 7 1 
4 1 5 
Polynôme caractéristique : P() = 3+15 272 +108 = (  6)2 (  3). 
Valeurs propres : 1 = 3 simple, 2 = 6 double. 
0 
1 
La valeur propre simple 1 = 3 a pour vecteur propre V1 = 
@ 
A. 
3 
4 
8 
La valeur propre double 2 = 6 ne possède qu’un vecteur propre V2 = 
0 
@ 
1 
A. 
0 
1 
1 
La matrice n’est donc pas diagonalisable. 
 Matrice 
0 
@ 
1 
A 
3 0 2 
7 2 11 
3 0 4 
Polynôme caractéristique : P() = 3 + 2 + 8   12 = (  2)2 ( + 3). 
Valeurs propres : 1 = 3 simple, 2 = 2 double. 
0 
La valeur propre simple 1 = 3 a pour vecteur propre V1 = 
@ 
5 
26 
15 
1 
A. 
La valeur propre double 2 = 2 ne possède qu’un vecteur propre V2 = 
0 
@ 
1 
A. 
0 
1 
0 
La matrice n’est donc pas diagonalisable. 
 Matrice 
0 
@ 
1 
A 
4=3 2=3 2=3 
1 1 0 
1=3 1=3 2=3 
Polynôme caractéristique : P() = 3  3 2  2  =  ( + 1) ( + 2). 
Valeurs propres : 1 = 0, 2 0 
= 1, 3 = 1 
2. 
Matrice de passage : P = 
@ 
A. 
1 0 1 
1 1 1 
1 1 0 
Matrice diagonale : D = 
0 
@ 
0 0 0 
0 1 0 
0 0 2 
1 
A. 
 Matrice 1 
2 
0 
BB@ 
5 3 3 3 
1 3 1 1 
1 1 5 1 
1 1 1 7 
1 
CCA 
Polynôme caractéristique : P() = 410 3+35 250 +24 = (  1) (  2) (  3) (  4). 
Valeurs propres : 1 = 1, 2 = 2, 3 = 3, 4 = 4. 
Matrice de passage : P = 
0 
1 0 0 1 
1 1 0 0 
0 1 1 0 
0 0 1 1 
BB@ 
1 
CCA 
. 
18
Matrice diagonale : D = 
0 
BB@ 
1 0 0 0 
0 2 0 0 
0 0 3 0 
0 0 0 4 
1 
CCA 
. 
 Matrice 
0 
1 1 1 1 
0 0 0 0 
1 1 1 1 
0 0 0 2 
BB@ 
1 
CCA 
Polynôme caractéristique : P() = 4  4 3 + 4 2 = 2 (  2)2. 
Valeurs propres : 1 = 0 double, 2 = 2 double. 
Matrice de passage : P = 
0 
1 0 0 1 
1 1 0 0 
0 1 1 0 
0 0 1 1 
BB@ 
1 
CCA 
. 
Matrice diagonale : D = 
0 
0 0 0 0 
0 0 0 0 
0 0 2 0 
0 0 0 2 
BB@ 
1 
CCA 
. 
Corrigé ex. 21 : Matrice paramétrique 
On considère la matrice A = 
 
m  2 m 
1 m  2 
 
où m est un paramètre réel. 
21-1) Pour que A ait une valeur propre nulle, il faut et il suffit que son déterminant 
soit nul (puisque le déterminant est le produit des valeurs propres). On calcule : 
det(A) = (m  2)2  m = m2  5m + 4 = (m  1)(m  4): 
Cela se produit donc lorsque m = 1 ou m = 4. 
On détermine la seconde valeur propre en utilisant la trace de la matrice. On a : 
Tr(A) = 2m  4 = 1 + 2 = 0 + 2: 
Par conséquent, 2 = 2m  4 = 
( 
2 si m = 1 
4 si m = 4 
21-2) Le vecteur propre V correspondant à la valeur propre 0 doit vérifier l’équa-tion 
AV = 0V = 0. 
Dans le cas où m = 1, l’équation AV = 0 a pour solution le vecteur V1 = 
 
1 
1 
 
. 
Dans le cas où m = 4, l’équation AV = 0 a pour solution le vecteur V2 = 
 
 
. 
2 
1 
19
Corrigé ex. 22 : Trace et déterminant 
M = 
0 
@ 
1 1 2 
1 2 1 
2 1 1 
1 
A 
22-1) Si on additionne les colonnes de la matrice M, on trouve le vecteur 
0 
@ 
1 
A. 
2 
2 
2 
Or additionner les colonnes, revient à multiplier la matrice à droite par le vecteur 
0 
@ 
1 
A. 
1 
1 
1 
On a donc la relation : 
M 
0 
@ 
1 
A = 
1 
1 
1 
0 
@ 
1 
A = 2 
2 
2 
2 
0 
@ 
1 
A: 
1 
1 
1 
Cela signifie que le vecteur 
0 
@ 
1 
A est un vecteur propre de valeur propre 1 = 2. 
1 
1 
1 
22-2) On note 1, 2 et 3 les valeurs propres de M. 
La trace de la matrice est : 
Tr(A) = 1 + 2  1 = 2 = 1 + 2 + 3 = 2 + 2 + 3: 
On en déduit que 
2 + 3 = 0: 
22-3) Le déterminant de la matrice est : 
det(A) = 14 = 123 = 223: 
On en déduit que 
23 = 7: 
22-4) Des deux questions précédentes, on déduit que 2 =  
p 
7 et 3 = 
p 
7. 
Corrigé ex. 23 : Matrices symétriques 
les matrices symétriques possèdent les propriétés suivantes : 
– toute matrice symétrique est diagonalisable ; 
– les valeurs propres sont toujours réelles (autrement dit, jamais complexes) et les 
vecteurs propres de même ; 
– des vecteurs propres correspondant à des valeurs propres distinctes sont ortho-gonaux 
entre eux ; 
– on peut choisir les vecteurs propres de manière à former une base orthonormée 
(c’est-à-dire constituée de vecteurs unitaires orthogonaux entre eux). 
20
Pour tous les exemples de cet exercice, on donne le polynôme caractéristique, les 
valeurs propres, la matrice de passage P et la matrice diagonale D. La matrice de 
passage est formée en colonnes de vecteurs orthonormés : cela en fait une matrice dite 
orthogonale qui vérifie la propriété P1 = tP. 
 Matrice 
 
0 2 
2 0 
 
Polynôme caractéristique : P() = 2  4 = (  2) ( + 2). 
Valeurs propres : 1 = 2, 2 = 2. 
Matrice de passage : P = 
0 
B@ 
1 
p 
2 
 
1 
p 
2 
1 
p 
2 
1 
p 
2 
1 
CA 
. 
Matrice diagonale : D = 
 
. 
 
2 0 
0 2 
 Matrice 
 
 
3 2 
2 3 
Polynôme caractéristique : P() = 2  6  + 5 = (  1) (  5). 
Valeurs propres : 1 = 1, 2 = 5. 
Matrice de passage : P = 
0 
B@ 
1 
p 
2 
1 
p 
2 
1 
p 
2 
 
1 
p 
2 
1 
CA 
. 
Matrice diagonale : D = 
 
1 0 
0 5 
 
. 
 Matrice 
 
 
3 6 
6 12 
Polynôme caractéristique : P() =  2  15. 
Valeurs propres : 1 = 0, 2 = 15. 
Matrice de passage : P = 
0 
B@ 
2 
p 
5 
1 
p 
5 
1 
p 
2 
 
2 
p 
5 
1 
CA 
. 
Matrice diagonale : D = 
 
0 0 
0 15 
 
. 
 Matrice 
0 
@ 
1 
A 
1 2 2 
2 1=2 1=2 
2 1=2 1=2 
Polynôme caractéristique : P() = 3 + 9  =  (  3) ( + 3). 
Valeurs propres : 1 = 3, 2 = 3, 3 = 0. 
Matrice de passage : P = 
0 
BBBBB@ 
2 
p 
6 
1 
p 
3 
0 
 
1 
p 
6 
1 
p 
3 
1 
p 
2 
 
1 
p 
6 
1 
p 
3 
 
1 
p 
2 
1 
CCCCCA 
. 
21
Matrice diagonale : D = 
0 
@ 
1 
A. 
3 0 0 
0 3 0 
0 0 0 
 Matrice 
0 
@ 
1 
A 
8 1 2 
1 8 2 
2 2 5 
Polynôme caractéristique : P() = 3+21 2135 +243 = (  9)2 (  3). 
Valeurs propres : 1 = 3 simple, 2 = 9 double. 
Matrice de passage : P = 
0 
BBBBB@ 
1 
p 
6 
2 
p 
5 
1 
p 
30 
1 
p 
6 
0  
5 
p 
30 
 
2 
p 
6 
1 
p 
5 
 
2 
p 
30 
1 
CCCCCA 
. 
Matrice diagonale : D = 
0 
@ 
1 
A. 
3 0 0 
0 9 0 
0 0 9 
 Matrice 
0 
@ 
1 
A 
0 1 1 
1 0 1 
1 1 0 
Polynôme caractéristique : P() = 3 + 3  + 2 = (  2) ( + 1)2. 
Valeurs propres : 1 = 2 simple, 2 = 1 double. 
Matrice de passage : P = 
0 
BBBBB@ 
1 
p 
3 
1 
p 
2 
1 
p 
6 
1 
p 
3 
0  
2 
p 
6 
1 
p 
3 
 
1 
p 
2 
1 
p 
6 
1 
CCCCCA 
. 
Matrice diagonale : D = 
0 
@ 
2 0 0 
0 1 0 
0 0 1 
1 
A. 
 Matrice 1 
3 
0 
@ 
1 
A 
7 2 2 
2 1 4 
2 4 1 
Polynôme caractéristique : P() = 3+3 2+3 = (  1) ( + 1) (  3). 
Valeurs propres : 1 = 1, 2 = 1, 3 = 3. 
Matrice de passage : P = 
0 
BBBBB@ 
1 
p 
3 
0  
2 
p 
6 
 
1 
p 
3 
1 
p 
2 
 
1 
p 
6 
1 
p 
3 
1 
p 
2 
1 
p 
6 
1 
CCCCCA 
. 
Matrice diagonale : D = 
0 
@ 
1 
A. 
1 0 0 
0 1 0 
0 0 3 
22
5 Décompositions matricielles 
Corrigé ex. 24 : Décomposition en valeurs singulières 
Définitions et propriétés 
On considère une matrice A de taille mn (donc pas nécessairement carrée) et on 
note r son rang. On a donc r  min(m; n). 
Il est facile de vérifier que la matrice tAA est carrée de taille n  n et symétrique 
de rang r. Puisqu’elle est symétrique, elle est diagonalisable et ses valeurs propres sont 
réelles. On montre que ses valeurs propres sont même positives ou nulles. 
Traditionnellement, les valeurs propres non nulles de tAA sont notées 2 
1; 2 
2; : : : ; 2 
r 
et sont rangées dans l’ordre décroissant, comme ceci : 
2 
1  2 
2      2 
r  0: 
Les nombres 1; 2; : : : ; r sont appelés les valeurs singulières de la matrice A. 
Autrement dit, les valeurs singulières de A sont les racines carrées des valeurs propres 
non nulles de tAA. Il y a r valeurs singulières (compte-tenu de l’ordre de multiplicité) 
et, puisque tAA est de taille n, la valeur propre 0 est de multiplicité n  r. 
On montre qu’il est possible de trouver des matrices orthogonales U et V telles que 
la matrice A s’écrive sous la forme du produit 
A = V tU (1) 
où  est une matrice de la même taille que la matrice A ayant les valeurs singulières sur 
sa diagonale et des 0 partout ailleurs. La matrice  est dite parfois pseudo-diagonale. 
Elle a la forme suivante : 
 = 
0 
BBBBBBBB@ 
1 
1 0 0 0 
0 
. . . 0 0 
CCCCCCCCA 
0 0 r 0 
0 0 0 0 
... 
... 
... 
... 
0 0 0 0 
Le produit matriciel de la relation (1) implique que la matrice V est carrée de taille m, 
la matrice U est carrée de taille n. La matrice  est de taille mn comme A. Puisque 
U et V sont orthogonales, on peut inversement exprimer  en fonction de A par la 
relation suivante : 
 = tV AU (2) 
La relation (1) s’appelle décomposition en valeurs singulières de la matrice A. 
Cette décomposition est toujours possible mais n’est pas unique. Il est cependant facile 
de déterminer des matrices orthogonales U et V . Il se trouve en effet qu’on peut prendre 
pour la matrice U la matrice des vecteurs propres singuliers, c’est-à-dire la matrice 
23
de passage dans la diagonalisation de la matrice symétrique tAA. Si on appelle U1, 
U2,. . .,Un ces vecteurs propres, on définit alors r vecteurs V1, V2,. . .,Vr en posant 
Vi = 
1 
i 
AUi pour 1  i  r: 
Si r  m, on complète ensuite les Vi obtenus afin de former une base orthonormée. 
Les Vi constituent les colonnes de la matrice V . 
Modèle de résolution 
À titre d’exemple, prenons la matrice A = 
 
 
. 
3 1 1 
1 3 1 
On commence par calculer la matrice M = tAA : 
M = tAA =    = 
0 
@ 
10 0 2 
0 10 4 
2 4 2 
1 
A 
Le polynôme caractéristique de M est : 
P() = 3 + 22 2  120  = (  12) (  10)  
Les valeurs propres sont donc 1 = 12, 2 = 10 et 3 = 0. Les valeurs singulières 
sont les racines carrées des valeurs propres non nulles, donc 1 = 
p 
12 et 2 = 
p 
10. 
La matrice  sera la matrice pseudo-diagonale de même taille que A : 
 = 
p 
12 0 0 
0 
p 
10 0 
 
La diagonalisation de la matrice M = tAA conduit aux vecteurs propres suivants 
(qui forment une base orthonormée) : 
U1 = 
0 
BBBBBB@ 
1 
p 
6 
2 
p 
6 
1 
p 
6 
1 
CCCCCCA 
U2 = 
0 
2 
p 
5 
 
BBBB@ 
1 
p 
5 
0 
1 
CCCCA 
U3 = 
0 
1 
p 
30 
2 
p 
30 
 
BBBBBB@ 
5 
p 
30 
1 
CCCCCCA 
On obtient donc la matrice orthogonale U : 
U = 
0 
BBBBBB@ 
1 
p 
6 
2 
p 
5 
1 
p 
30 
2 
p 
6 
 
1 
p 
5 
2 
p 
30 
1 
p 
6 
0  
5 
p 
30 
1 
CCCCCCA 
Il ne reste plus qu’à calculer les vecteurs V1 et V2 par la formule Vi = 1 
i 
AUi. On 
trouve : 
V1 = 
1 
1 
AU1 = 
1 
p 
12 
 
 
3 1 1 
1 3 1 
0 
BBBBBB@ 
1 
p 
6 
2 
p 
6 
1 
p 
6 
1 
CCCCCCA 
= 
0 
BB@ 
p 
2 
2 
p 
2 
2 
1 
CCA 
24
puis 
V2 = 
1 
2 
AU2 = 
1 
p 
10 
 
 
3 1 1 
1 3 1 
0 
2 
p 
5 
 
BBBB@ 
1 
p 
5 
0 
1 
CCCCA 
= 
0 
BB@ 
p 
2 
2 
 
p 
2 
2 
1 
CCA 
Les vecteurs V1 et V2 constituent les colonnes de la matrice V : 
V = 
0 
BB@ 
p 
2 
2 
p 
2 
2 
p 
2 
2 
 
p 
2 
2 
1 
CCA 
On peut vérifier a posteriori que le produit V tU redonne bien la matrice A de 
départ : 
V tU = 
0 
BB@ 
p 
2 
2 
p 
2 
2 
p 
2 
2 
 
p 
2 
2 
1 
CCA 
p 
12 0 0 
0 
p 
10 0 
 
0 
BBBBBB@ 
1 
p 
6 
2 
p 
6 
1 
p 
6 
2 
p 
5 
 
1 
p 
5 
0 
1 
p 
30 
2 
p 
30 
 
5 
p 
30 
1 
CCCCCCA 
= 
p 
6 
p 
 
p p 
5 0 
6  
5 0 
0 
BBBBBB@ 
1 
p 
6 
2 
p 
6 
1 
p 
6 
2 
p 
5 
 
1 
p 
5 
0 
1 
p 
30 
2 
p 
30 
 
5 
p 
30 
1 
CCCCCCA 
= 
 
 
: 
3 1 1 
1 3 1 
Solution de tous les exemples 
 Matrice 
 
 
3 1 1 
1 3 1 
V = 
0 
BB@ 
p 
2 
2 
p 
2 
2 
p 
2 
2 
 
p 
2 
2 
1 
CCA = 
0 
@ 
p 
12 0 0 
0 
p 
10 0 
1 
A U = 
0 
BBBBBB@ 
1 
p 
6 
2 
p 
5 
1 
p 
30 
2 
p 
6 
 
1 
p 
5 
2 
p 
30 
1 
p 
6 
0  
5 
p 
30 
1 
CCCCCCA 
25
Matrice 
0 
@ 
1 
A 
1 1 
1 0 
1 1 
V = 
0 
 
BBBBBB@ 
1 
p 
3 
 
1 
p 
2 
1 
p 
6 
1 
p 
3 
0 
2 
p 
6 
 
1 
p 
3 
1 
p 
2 
1 
p 
6 
1 
CCCCCCA 
 = 
0 
p 
3 0 
BBB@ 
0 
p 
2 
0 0 
1 
CCCA 
U = 
 
1 0 
 
0 1 
 Matrice 
0 
1 1 0 
1 1 0 
1 0 1 
1 0 1 
BB@ 
1 
CCA 
V = 
0 
 
BBBBBBBBBBB@ 
1 
2 
 
1 
2 
p 
2 
2 
0 
 
1 
2 
 
1 
2 
 
p 
2 
2 
0 
 
1 
2 
1 
2 
0  
p 
2 
2 
 
1 
2 
1 
2 
0 
p 
2 
2 
1 
CCCCCCCCCCCA 
 = 
0 
BBBBBB@ 
p 
6 0 0 
0 
1 
CCCCCCA 
p 
2 0 
0 0 0 
0 0 0 
U = 
0 
BBBBBB@ 
1 
p 
3 
0  
2 
p 
6 
 
1 
p 
3 
1 
p 
2 
1 
p 
6 
 
1 
p 
3 
 
1 
p 
2 
1 
p 
6 
1 
CCCCCCA 
 Matrice 
0 
BBBB@ 
p 
3=2  
p 
3=2 
p 
3=2  1  
p 
3=2  1 
p 
3=2 + 1  
p 
3=2 + 1 
1 
CCCCA 
V = 
0 
BBBBBB@ 
1 
p 
3 
0  
2 
p 
6 
1 
p 
3 
 
1 
p 
2 
1 
p 
6 
1 
p 
3 
1 
p 
2 
1 
p 
6 
1 
CCCCCCA 
 = 
0 
@ 
1 
A U = 
3 0 
0 2 
0 0 
0 
BB@ 
1 
p 
2 
 
1 
p 
2 
1 
p 
2 
1 
p 
2 
1 
CCA 
26
Corrigé ex. 25 : Décomposition LU 
Modèle de résolution 
Prenons, à titre d’exemple, la matrice A = 
0 
@ 
1 
A. 
2 4 1 
6 14 6 
4 10 3 
On doit trouver une matrice triangulaire inférieure L et une matrice triangulaire 
supérieure U dont le produit est égal à la matrice donnée. 
La condition nécessaire et suffisante pour que cette décomposition soit possible 
est que les mineurs principaux “nord-ouest” (situés en haut à gauche de la matrice) 
soient non nuls. Si de plus le déterminant de la matrice elle-même est non nul alors la 
décomposition est unique. 
On vérifie ici que : 
det(2) = 26= 0 
det 
 
2 4 
6 14 
 
= 46= 0 
det 
0 
@ 
2 4 1 
6 14 6 
4 10 3 
1 
A = 86= 0 
On applique une méthode du pivot qui construira la matrice U et on remplit au fur 
et à mesure les éléments de la matrice L. 
Au départ la matrice L est égale à 
0 
@ 
1 0 0 
: 1 0 
: : 1 
1 
A. 
Première étape 
On prend la première ligne comme ligne pivot et on cherche à faire apparaître des 0 
dans la première colonne sous le terme pivot (ici 2). On fait pour cela des combinaisons 
linéaires avec la ligne pivot L1. 
On remplace la deuxième ligne L2 par L2  3L1. On obtient la matrice : 
0 
@ 
1 
A 
2 4 1 
0 2 3 
4 10 3 
Le coefficient 
a21 
a11 
= 3 (qui a servi à faire la combinaison) devient le terme d’indice 
(2; 1) de la matrice L. 
De même, on remplace la troisième ligne L3 par L3 + 2L1. On obtient maintenant 
la matrice : 
A0 = 
0 
@ 
1 
A 
2 4 1 
0 2 3 
0 2 1 
Le coefficient 
a31 
a11 
= 2 (qui a servi à faire la combinaison) devient le terme d’indice 
(3; 1) de la matrice L. 
27
À ce stade, la matrice L est égale à 
0 
@ 
1 
A. 
1 0 0 
3 1 0 
2 : 1 
Deuxième étape 
La première ligne et la première colonne ont été traitées. On recommence mainte-nant 
la même procédure sur le sous-bloc suivant : 
0 
2 4 1 
0 
0 
B@ 
2 3 
2 1 
1 
CA 
Dans ce sous-bloc 
 
 
, la première ligne va servir de ligne pivot et il faut 
2 3 
2 1 
faire apparaître un 0 dans la première colonne sous le terme pivot 2. 
Pour cela, on remplace la troisième ligne L3 de la matrice A0 par L3 + L2 et on 
obtient maintenant la matrice : 
A00 = 
0 
@ 
1 
A 
2 4 1 
0 2 3 
0 0 2 
Le coefficient 
a0 
32 
a0 
22 
= 1 (qui a servi à faire la combinaison) devient le terme d’indice 
(3; 2) de la matrice L. 
À ce stade, la matrice L est égale à 
0 
@ 
1 
A. 
1 0 0 
3 1 0 
2 1 1 
La procédure est complète. La matrice A00 obtenue est triangulaire supérieure : c’est 
la matrice U recherchée. 
On peut vérifier effectivement que : 
0 
@ 
1 
A 
1 0 0 
3 1 0 
2 1 1 
0 
@ 
2 4 1 
0 2 3 
0 0 2 
1 
A = 
0 
@ 
2 4 1 
6 14 6 
4 10 3 
1 
A: 
Solution de tous les exemples 
25-1) Tous les exemples de cette question peuvent être factorisés. On donne ci-dessous 
les deux matrices triangulaires L et U dont le produit L  U est égal à la 
matrice initiale. 
 Matrice 
 
 
2 3 
2 1 
L = 
 
 
1 0 
1 1 
U = 
 
2 3 
0 4 
 
28
Matrice 
 
3 2 
6 5 
 
L = 
 
1 0 
2 1 
 
U = 
 
3 2 
0 1 
 
 Matrice 
 
 
b c 
a b a c + b 
L = 
 
 
1 0 
a 1 
U = 
 
b c 
0 b 
 
 Matrice 
0 
@ 
1 
A 
3 4 1 
6 7 4 
3 6 2 
L = 
0 
@ 
1 
A U = 
1 0 0 
2 1 0 
1 2 1 
0 
@ 
1 
A 
3 4 1 
0 1 2 
0 0 1 
 Matrice 
0 
@ 
1 
A 
2 4 1 
6 14 6 
4 10 3 
L = 
0 
@ 
1 
A U = 
1 0 0 
3 1 0 
2 1 1 
0 
@ 
2 4 1 
0 2 3 
0 0 2 
1 
A 
 Matrice 
0 
@ 
1 
A 
2 5 1 
8 24 1 
2 7 19 
L = 
0 
@ 
1 
A U = 
1 0 0 
4 1 0 
1 3 1 
0 
@ 
1 
A 
2 5 1 
0 4 5 
0 0 3 
 Matrice 
0 
4 2 3 1 
4 4 5 4 
8 10 11 15 
4 4 3 15 
BB@ 
1 
CCA 
L = 
0 
BB@ 
1 
1 0 0 0 
1 1 0 0 
2 3 1 0 
1 1 2 1 
CCA 
U = 
0 
4 2 3 1 
0 2 2 3 
0 0 1 4 
0 0 0 3 
BB@ 
1 
CCA 
29
Matrice 
0 
3 0 4 1 1 
15 1 22 5 8 
9 2 15 6 11 
12 2 12 7 4 
3 5 12 4 21 
BBBB@ 
1 
CCCCA 
L = 
0 
1 0 0 0 0 
5 1 0 0 0 
3 2 1 0 0 
4 2 0 1 0 
1 5 2 1 1 
BBBB@ 
1 
CCCCA 
U = 
0 
3 0 4 1 1 
0 1 2 0 3 
0 0 1 3 2 
0 0 0 3 2 
0 0 0 0 1 
BBBB@ 
1 
CCCCA 
25-2) La matrice A = 
0 
@ 
1 2 3 
2 4 5 
1 3 2 
1 
A ne vérifie pas le critère indiqué précé-demment 
concernant les mineurs principaux “nord-ouest”. En effet, le déterminant du 
mineur de taille 2 est nul : det 
 
1 2 
2 4 
 
= 0. 
Cette matrice n’admet donc pas de décomposition LU. 
On transpose les lignes et les colonnes d’indices 2 et 3. On obtient alors la matrice 
suivante : 
A0 = 
0 
@ 
1 
A 
1 3 2 
1 2 3 
2 5 4 
La matrice A0 vérifie le critère. En appliquant l’algorithme, on obtient : 
L = 
0 
@ 
1 
A U = 
1 0 0 
1 1 0 
2 1 1 
0 
@ 
1 3 2 
0 1 5 
0 0 5 
1 
A 
La matrice qui effectue la permutation des lignes et colonnes d’indices 2 et 3 est : 
P = 
0 
@ 
1 
A 
1 0 0 
0 0 1 
0 1 0 
On a donc la relation A = P  L  U. 
Corrigé ex. 26 : Décomposition de Cholesky 
Toutes les matrices de cet exercice sont des matrices symétriques définies positives. 
On peut le vérifier en calculant leurs mineurs principaux “nord-ouest” qui sont tous 
strictement positifs. 
Par exemple, dans le cas de la matrice A = 
0 
@ 
1 2 1 
2 8 2 
1 2 14 
1 
A, on vérifie que 
30
det(1) = 1  0 
det 
 
 
1 2 
2 8 
= 4  0 
det 
0 
@ 
1 
A = 36  0 
1 2 1 
2 8 2 
1 2 14 
On peut donc rechercher une décomposition de Cholesky, c’est-à-dire une matrice 
triangulaire inférieure L telle que la matrice A s’écrive sous la forme A = LtL. 
Modèle de résolution 
Prenons, à titre d’exemple, la matrice A A = 
0 
@ 
1 
A précédente. 
1 2 1 
2 8 2 
1 2 14 
Si on écrit la matrice A donnée et la matrice L recherchée sous forme de matrices 
par blocs, elles ont la forme suivante : 
A = 
 
11 B 
a21 A22 
 
L = 
 
11 0 
l21 L22 
 
où 11 et 11 sont des nombres, a21 et l21 sont des vecteurs colonnes et A22 et L22 
sont des sous-blocs carrés. 
On effectue le produit LtL et on l’identifie avec A. On obtient les relations sui-vantes 
: 8 
: 
11 = 2 
11 
a21 = 11l21 
A22 = l21 
tl21 + L22 
tL22 
On en déduit que 8 
: 
11 = 
p 
11 
l21 = a21=11 
A22  l21 
tl21 = L22 
tL22 
Les deux premières égalités permettent de calculer la première colonne de L et la troi-sième 
signifie qu’il suffit de calculer la quantité A22  l21 
tl21 (qui est un bloc de taille 
2) et de lui appliquer à nouveau la même procédure. 
On a donc ici : 8 
: 11 = 
p 
1 = 1 
l21 = a21=1 = 
  
! 
2 
1 
et d’autre part : 
A22  l21 
tl21 = 
 
8 2 
2 14 
 
 
 
 
2 
1 
2 1 
 
= 
 
8 2 
2 14 
 
 
 
 
4 2 
2 1 
= 
 
4 4 
4 13 
 
31
On a pour l’instant trouvé la première colonne de la matrice L. On arrive à la 
matrice suivante : 0 
1 0 0 
2 
1 
B@ 
4 4 
4 13 
1 
CA 
On recommence la procédure avec la sous-matrice de taille 2 encadrée : 
 
4 4 
4 13 
 
. 
Cette fois on obtient : 
( 
11 = 
p 
4 = 2 
l21 = a21=2 = 4=2 = 2 
A22  l21 
tl21 = 13  2  2 = 9: 
On arrive à la matrice suivante:0 
1 0 0 
2 2 0 
1 2 9 
@ 
1 
A 
On termine en appliquant à nouveau la procédure au sous-bloc de taille 1 encadré : 
11 = 
p 
9 = 3: 
Finalement la matrice recherchée est 
L = 
0 
@ 
1 
A 
1 0 0 
2 2 0 
1 2 3 
On peut vérifier facilement que 
LtL = 
0 
@ 
1 
A 
1 0 0 
2 2 0 
1 2 3 
0 
@ 
1 2 1 
0 2 2 
0 0 3 
1 
A = 
0 
@ 
1 
A = A 
1 2 1 
2 8 2 
1 2 14 
Solution de tous les exemples 
Pour tous les exemples de l’exercice, on indique ci-dessous la matrice triangulaire 
inférieure L telle que le produit LtL soit égal à la matrice donnée. 
 Matrice 
 
 
1 1 
1 2 
L = 
 
 
1 0 
1 1 
 Matrice 
 
 
1 1 
1 5 
L = 
 
 
1 0 
1 2 
32
Matrice 
 
 
4 6 
6 10 
L = 
 
 
2 0 
3 1 
 Matrice 
 
1 a 
a a2 + 1 
 
L = 
 
1 0 
a 1 
 
 Matrice 
 
a2 a2 
a2 2 a2 
 
L = 
 
a 0 
a a 
 
 Matrice 
0 
@ 
1 
A 
1 2 1 
2 8 2 
1 2 14 
L = 
0 
@ 
1 
A 
1 0 0 
2 2 0 
1 2 3 
 Matrice 
0 
@ 
1 
A 
1 2 1 
2 5 0 
1 0 6 
L = 
0 
@ 
1 
A 
1 0 0 
2 1 0 
1 2 1 
 Matrice 
0 
@ 
16 4 4 
4 5 3 
4 3 11 
1 
A 
L = 
0 
@ 
1 
A 
4 0 0 
1 2 0 
1 1 3 
 Matrice 
0 
1 1 1 1 
1 2 4 2 
1 4 11 7 
1 2 7 20 
BB@ 
1 
CCA 
L = 
0 
1 0 0 0 
1 1 0 0 
1 3 1 0 
1 1 3 3 
BB@ 
1 
CCA 
33

Weitere ähnliche Inhalte

Was ist angesagt?

Math Bac 2009_Correction Session principale
Math Bac 2009_Correction Session principaleMath Bac 2009_Correction Session principale
Math Bac 2009_Correction Session principaleAchraf Frouja
 
Math BAC 2010_Correction
Math BAC 2010_CorrectionMath BAC 2010_Correction
Math BAC 2010_CorrectionAchraf Frouja
 
Devoir Math bac 2012 _la correction
Devoir Math bac 2012 _la correctionDevoir Math bac 2012 _la correction
Devoir Math bac 2012 _la correctionAchraf Frouja
 
201972297 es-maths-cned-sequence-01
201972297 es-maths-cned-sequence-01201972297 es-maths-cned-sequence-01
201972297 es-maths-cned-sequence-01Ettaoufik Elayedi
 
202017370 es-maths-cned-sequence-03-limites-et-asymptotes
202017370 es-maths-cned-sequence-03-limites-et-asymptotes202017370 es-maths-cned-sequence-03-limites-et-asymptotes
202017370 es-maths-cned-sequence-03-limites-et-asymptotesEttaoufik Elayedi
 
Devoir Math Bac 2011_La Correction
Devoir Math Bac 2011_La CorrectionDevoir Math Bac 2011_La Correction
Devoir Math Bac 2011_La CorrectionAchraf Frouja
 
Omp math nombres-complexes
Omp math nombres-complexesOmp math nombres-complexes
Omp math nombres-complexesAhmed Ali
 
Sélection de contrôles avec correction
Sélection de contrôles avec correctionSélection de contrôles avec correction
Sélection de contrôles avec correctionJaouad Dabounou
 
Cours programmation en matlab2 (1)
Cours programmation en matlab2 (1)Cours programmation en matlab2 (1)
Cours programmation en matlab2 (1)Guesmi Amal
 
202010514 es-maths-cned-sequence-02-derivation
202010514 es-maths-cned-sequence-02-derivation202010514 es-maths-cned-sequence-02-derivation
202010514 es-maths-cned-sequence-02-derivationEttaoufik Elayedi
 
ALGEBRE BINAIRE ET CIRCUITS LOGIQUES
ALGEBRE BINAIRE ET CIRCUITS LOGIQUESALGEBRE BINAIRE ET CIRCUITS LOGIQUES
ALGEBRE BINAIRE ET CIRCUITS LOGIQUESsarah Benmerzouk
 

Was ist angesagt? (18)

Matrices 2
Matrices 2Matrices 2
Matrices 2
 
Math Bac 2009_Correction Session principale
Math Bac 2009_Correction Session principaleMath Bac 2009_Correction Session principale
Math Bac 2009_Correction Session principale
 
Math BAC 2010_Correction
Math BAC 2010_CorrectionMath BAC 2010_Correction
Math BAC 2010_Correction
 
GEII - Ma3 - Matrices
GEII - Ma3 - MatricesGEII - Ma3 - Matrices
GEII - Ma3 - Matrices
 
Devoir Math bac 2012 _la correction
Devoir Math bac 2012 _la correctionDevoir Math bac 2012 _la correction
Devoir Math bac 2012 _la correction
 
201972297 es-maths-cned-sequence-01
201972297 es-maths-cned-sequence-01201972297 es-maths-cned-sequence-01
201972297 es-maths-cned-sequence-01
 
202017370 es-maths-cned-sequence-03-limites-et-asymptotes
202017370 es-maths-cned-sequence-03-limites-et-asymptotes202017370 es-maths-cned-sequence-03-limites-et-asymptotes
202017370 es-maths-cned-sequence-03-limites-et-asymptotes
 
Devoir Math Bac 2011_La Correction
Devoir Math Bac 2011_La CorrectionDevoir Math Bac 2011_La Correction
Devoir Math Bac 2011_La Correction
 
Integrcurvcor 2
Integrcurvcor 2Integrcurvcor 2
Integrcurvcor 2
 
Omp math nombres-complexes
Omp math nombres-complexesOmp math nombres-complexes
Omp math nombres-complexes
 
Sélection de contrôles avec correction
Sélection de contrôles avec correctionSélection de contrôles avec correction
Sélection de contrôles avec correction
 
Chap 4 déterminant
Chap 4 déterminantChap 4 déterminant
Chap 4 déterminant
 
Cours programmation en matlab2 (1)
Cours programmation en matlab2 (1)Cours programmation en matlab2 (1)
Cours programmation en matlab2 (1)
 
Tp 2 vecteur et matrice
Tp 2 vecteur et matriceTp 2 vecteur et matrice
Tp 2 vecteur et matrice
 
Muscu4
Muscu4Muscu4
Muscu4
 
S2- Math
S2- Math S2- Math
S2- Math
 
202010514 es-maths-cned-sequence-02-derivation
202010514 es-maths-cned-sequence-02-derivation202010514 es-maths-cned-sequence-02-derivation
202010514 es-maths-cned-sequence-02-derivation
 
ALGEBRE BINAIRE ET CIRCUITS LOGIQUES
ALGEBRE BINAIRE ET CIRCUITS LOGIQUESALGEBRE BINAIRE ET CIRCUITS LOGIQUES
ALGEBRE BINAIRE ET CIRCUITS LOGIQUES
 

Andere mochten auch

Portefolio APA 2015 BG2
Portefolio APA 2015 BG2Portefolio APA 2015 BG2
Portefolio APA 2015 BG2Edgar Ramirez
 
A vos MOOC
A vos MOOCA vos MOOC
A vos MOOCleccre35
 
Fixation des panneaux de garde-corps de balcon
Fixation des panneaux de garde-corps de balconFixation des panneaux de garde-corps de balcon
Fixation des panneaux de garde-corps de balconSFS intec
 
L’amélioration de la qualité du travail, principalement pour les personnes ap...
L’amélioration de la qualité du travail, principalement pour les personnes ap...L’amélioration de la qualité du travail, principalement pour les personnes ap...
L’amélioration de la qualité du travail, principalement pour les personnes ap...DRIVERS
 
Cr formation hébert ok
Cr formation hébert ok Cr formation hébert ok
Cr formation hébert ok feugier
 
Les métiers d’avenir de l’industrie
Les métiers d’avenir de l’industrieLes métiers d’avenir de l’industrie
Les métiers d’avenir de l’industrieDataPerformanceSummit
 
Scandale Libor/Euribor
Scandale Libor/EuriborScandale Libor/Euribor
Scandale Libor/EuriborSalim Belghazi
 
Viii.ch2
Viii.ch2Viii.ch2
Viii.ch2Iolibet
 
Maîtriser LinkedIn en 1 dessin 1 vidéo et 3 astuces
Maîtriser LinkedIn en 1 dessin 1 vidéo et 3 astucesMaîtriser LinkedIn en 1 dessin 1 vidéo et 3 astuces
Maîtriser LinkedIn en 1 dessin 1 vidéo et 3 astucesMereFille2
 

Andere mochten auch (18)

Portefolio APA 2015 BG2
Portefolio APA 2015 BG2Portefolio APA 2015 BG2
Portefolio APA 2015 BG2
 
licence
licencelicence
licence
 
PARIS
PARISPARIS
PARIS
 
A vos MOOC
A vos MOOCA vos MOOC
A vos MOOC
 
Fixation des panneaux de garde-corps de balcon
Fixation des panneaux de garde-corps de balconFixation des panneaux de garde-corps de balcon
Fixation des panneaux de garde-corps de balcon
 
L’amélioration de la qualité du travail, principalement pour les personnes ap...
L’amélioration de la qualité du travail, principalement pour les personnes ap...L’amélioration de la qualité du travail, principalement pour les personnes ap...
L’amélioration de la qualité du travail, principalement pour les personnes ap...
 
Matrice du Développement du secteur minier d'Haïti
Matrice du Développement du secteur minier d'HaïtiMatrice du Développement du secteur minier d'Haïti
Matrice du Développement du secteur minier d'Haïti
 
Cr formation hébert ok
Cr formation hébert ok Cr formation hébert ok
Cr formation hébert ok
 
Bibliographie jardin
Bibliographie jardinBibliographie jardin
Bibliographie jardin
 
Tarotmag n°14
Tarotmag n°14Tarotmag n°14
Tarotmag n°14
 
Grafiques
Grafiques    Grafiques
Grafiques
 
SUD AFRICA EL TREN
SUD AFRICA  EL TRENSUD AFRICA  EL TREN
SUD AFRICA EL TREN
 
doc
docdoc
doc
 
Les métiers d’avenir de l’industrie
Les métiers d’avenir de l’industrieLes métiers d’avenir de l’industrie
Les métiers d’avenir de l’industrie
 
Conscience du temps
Conscience du tempsConscience du temps
Conscience du temps
 
Scandale Libor/Euribor
Scandale Libor/EuriborScandale Libor/Euribor
Scandale Libor/Euribor
 
Viii.ch2
Viii.ch2Viii.ch2
Viii.ch2
 
Maîtriser LinkedIn en 1 dessin 1 vidéo et 3 astuces
Maîtriser LinkedIn en 1 dessin 1 vidéo et 3 astucesMaîtriser LinkedIn en 1 dessin 1 vidéo et 3 astuces
Maîtriser LinkedIn en 1 dessin 1 vidéo et 3 astuces
 

Ähnlich wie Msm1 corr algebre

Approximation Linéaire - Droite d ajustement au sens des moindres carrés
Approximation Linéaire  -  Droite d ajustement au sens des moindres carrésApproximation Linéaire  -  Droite d ajustement au sens des moindres carrés
Approximation Linéaire - Droite d ajustement au sens des moindres carrésCédric Mouats
 
M2 An 1986 20 3 371 0
M2 An 1986  20 3 371 0M2 An 1986  20 3 371 0
M2 An 1986 20 3 371 0guest8b8369
 
Cours equation d'une droite
Cours equation d'une droite Cours equation d'une droite
Cours equation d'une droite Alialimehydine
 
Mettre obligatoirement le titre de la leçon ici
Mettre obligatoirement le titre de la leçon iciMettre obligatoirement le titre de la leçon ici
Mettre obligatoirement le titre de la leçon iciwospro-academy
 
Ex determ
Ex determEx determ
Ex determbades12
 
Exercice nombres complexes
Exercice nombres complexesExercice nombres complexes
Exercice nombres complexesYessin Abdelhedi
 
Cours series fourier
Cours series fourierCours series fourier
Cours series fourierismailkziadi
 
Cours series fourier
Cours series fourierCours series fourier
Cours series fourierMehdi Maroun
 
Algèbre resolution des systemes lineaires
Algèbre resolution des systemes lineairesAlgèbre resolution des systemes lineaires
Algèbre resolution des systemes lineairessarah Benmerzouk
 
09 visual basic .net - exercice - geometrie
09 visual basic .net - exercice - geometrie09 visual basic .net - exercice - geometrie
09 visual basic .net - exercice - geometrieHamza SAID
 
Rappel mathématique pour étudiant d'économie gestion
Rappel mathématique pour étudiant d'économie gestionRappel mathématique pour étudiant d'économie gestion
Rappel mathématique pour étudiant d'économie gestionAli Hachimi Kamali
 
HARQUEL ANTHONY exercices 62 et 63.
HARQUEL ANTHONY exercices  62 et 63.HARQUEL ANTHONY exercices  62 et 63.
HARQUEL ANTHONY exercices 62 et 63.Danober
 
Harquel Anthony Exercices 62 Et 63 [1]
Harquel Anthony Exercices 62 Et 63 [1]Harquel Anthony Exercices 62 Et 63 [1]
Harquel Anthony Exercices 62 Et 63 [1]Danober
 
Courschapitre3 trinome2nddegre
Courschapitre3 trinome2nddegreCourschapitre3 trinome2nddegre
Courschapitre3 trinome2nddegrevauzelle
 

Ähnlich wie Msm1 corr algebre (20)

Analyse1 cour.pdf
Analyse1 cour.pdfAnalyse1 cour.pdf
Analyse1 cour.pdf
 
Approximation Linéaire - Droite d ajustement au sens des moindres carrés
Approximation Linéaire  -  Droite d ajustement au sens des moindres carrésApproximation Linéaire  -  Droite d ajustement au sens des moindres carrés
Approximation Linéaire - Droite d ajustement au sens des moindres carrés
 
M2 An 1986 20 3 371 0
M2 An 1986  20 3 371 0M2 An 1986  20 3 371 0
M2 An 1986 20 3 371 0
 
Cours equation d'une droite
Cours equation d'une droite Cours equation d'une droite
Cours equation d'une droite
 
Corriges td algebre
Corriges td algebreCorriges td algebre
Corriges td algebre
 
Quad-expo-stats
Quad-expo-statsQuad-expo-stats
Quad-expo-stats
 
Mettre obligatoirement le titre de la leçon ici
Mettre obligatoirement le titre de la leçon iciMettre obligatoirement le titre de la leçon ici
Mettre obligatoirement le titre de la leçon ici
 
Ex determ
Ex determEx determ
Ex determ
 
05 exos fonction_exponentielle
05 exos fonction_exponentielle05 exos fonction_exponentielle
05 exos fonction_exponentielle
 
Exercice nombres complexes
Exercice nombres complexesExercice nombres complexes
Exercice nombres complexes
 
Cours series fourier
Cours series fourierCours series fourier
Cours series fourier
 
Cours series fourier
Cours series fourierCours series fourier
Cours series fourier
 
Alg.3 resolution des_systemes_lineaires
Alg.3 resolution des_systemes_lineairesAlg.3 resolution des_systemes_lineaires
Alg.3 resolution des_systemes_lineaires
 
Algèbre resolution des systemes lineaires
Algèbre resolution des systemes lineairesAlgèbre resolution des systemes lineaires
Algèbre resolution des systemes lineaires
 
09 visual basic .net - exercice - geometrie
09 visual basic .net - exercice - geometrie09 visual basic .net - exercice - geometrie
09 visual basic .net - exercice - geometrie
 
An2 integ mul
An2 integ mulAn2 integ mul
An2 integ mul
 
Rappel mathématique pour étudiant d'économie gestion
Rappel mathématique pour étudiant d'économie gestionRappel mathématique pour étudiant d'économie gestion
Rappel mathématique pour étudiant d'économie gestion
 
HARQUEL ANTHONY exercices 62 et 63.
HARQUEL ANTHONY exercices  62 et 63.HARQUEL ANTHONY exercices  62 et 63.
HARQUEL ANTHONY exercices 62 et 63.
 
Harquel Anthony Exercices 62 Et 63 [1]
Harquel Anthony Exercices 62 Et 63 [1]Harquel Anthony Exercices 62 Et 63 [1]
Harquel Anthony Exercices 62 Et 63 [1]
 
Courschapitre3 trinome2nddegre
Courschapitre3 trinome2nddegreCourschapitre3 trinome2nddegre
Courschapitre3 trinome2nddegre
 

Kürzlich hochgeladen

Télécommunication et transport .pdfcours
Télécommunication et transport .pdfcoursTélécommunication et transport .pdfcours
Télécommunication et transport .pdfcourshalima98ahlmohamed
 
Neuvaine de la Pentecôte avec des textes de saint Jean Eudes
Neuvaine de la Pentecôte avec des textes de saint Jean EudesNeuvaine de la Pentecôte avec des textes de saint Jean Eudes
Neuvaine de la Pentecôte avec des textes de saint Jean EudesUnidad de Espiritualidad Eudista
 
GIÁO ÁN DẠY THÊM (KẾ HOẠCH BÀI DẠY BUỔI 2) - TIẾNG ANH 6, 7 GLOBAL SUCCESS (2...
GIÁO ÁN DẠY THÊM (KẾ HOẠCH BÀI DẠY BUỔI 2) - TIẾNG ANH 6, 7 GLOBAL SUCCESS (2...GIÁO ÁN DẠY THÊM (KẾ HOẠCH BÀI DẠY BUỔI 2) - TIẾNG ANH 6, 7 GLOBAL SUCCESS (2...
GIÁO ÁN DẠY THÊM (KẾ HOẠCH BÀI DẠY BUỔI 2) - TIẾNG ANH 6, 7 GLOBAL SUCCESS (2...Nguyen Thanh Tu Collection
 
CompLit - Journal of European Literature, Arts and Society - n. 7 - Table of ...
CompLit - Journal of European Literature, Arts and Society - n. 7 - Table of ...CompLit - Journal of European Literature, Arts and Society - n. 7 - Table of ...
CompLit - Journal of European Literature, Arts and Society - n. 7 - Table of ...Universidad Complutense de Madrid
 
Intégration des TICE dans l'enseignement de la Physique-Chimie.pptx
Intégration des TICE dans l'enseignement de la Physique-Chimie.pptxIntégration des TICE dans l'enseignement de la Physique-Chimie.pptx
Intégration des TICE dans l'enseignement de la Physique-Chimie.pptxabdououanighd
 
Bilan énergétique des chambres froides.pdf
Bilan énergétique des chambres froides.pdfBilan énergétique des chambres froides.pdf
Bilan énergétique des chambres froides.pdfAmgdoulHatim
 
Formation qhse - GIASE saqit_105135.pptx
Formation qhse - GIASE saqit_105135.pptxFormation qhse - GIASE saqit_105135.pptx
Formation qhse - GIASE saqit_105135.pptxrajaakiass01
 
RAPPORT DE STAGE D'INTERIM DE ATTIJARIWAFA BANK
RAPPORT DE STAGE D'INTERIM DE ATTIJARIWAFA BANKRAPPORT DE STAGE D'INTERIM DE ATTIJARIWAFA BANK
RAPPORT DE STAGE D'INTERIM DE ATTIJARIWAFA BANKNassimaMdh
 
Cours Généralités sur les systèmes informatiques
Cours Généralités sur les systèmes informatiquesCours Généralités sur les systèmes informatiques
Cours Généralités sur les systèmes informatiquesMohammedAmineHatoch
 
Apolonia, Apolonia.pptx Film documentaire
Apolonia, Apolonia.pptx         Film documentaireApolonia, Apolonia.pptx         Film documentaire
Apolonia, Apolonia.pptx Film documentaireTxaruka
 
La mondialisation avantages et inconvénients
La mondialisation avantages et inconvénientsLa mondialisation avantages et inconvénients
La mondialisation avantages et inconvénientsJaouadMhirach
 
Copie de Engineering Software Marketing Plan by Slidesgo.pptx.pptx
Copie de Engineering Software Marketing Plan by Slidesgo.pptx.pptxCopie de Engineering Software Marketing Plan by Slidesgo.pptx.pptx
Copie de Engineering Software Marketing Plan by Slidesgo.pptx.pptxikospam0
 
Conférence Sommet de la formation 2024 : Développer des compétences pour la m...
Conférence Sommet de la formation 2024 : Développer des compétences pour la m...Conférence Sommet de la formation 2024 : Développer des compétences pour la m...
Conférence Sommet de la formation 2024 : Développer des compétences pour la m...Technologia Formation
 
Les roches magmatique géodynamique interne.pptx
Les roches magmatique géodynamique interne.pptxLes roches magmatique géodynamique interne.pptx
Les roches magmatique géodynamique interne.pptxShinyaHilalYamanaka
 
Formation échiquéenne jwhyCHESS, parallèle avec la planification de projet
Formation échiquéenne jwhyCHESS, parallèle avec la planification de projetFormation échiquéenne jwhyCHESS, parallèle avec la planification de projet
Formation échiquéenne jwhyCHESS, parallèle avec la planification de projetJeanYvesMoine
 
658708519-Power-Point-Management-Interculturel.pdf
658708519-Power-Point-Management-Interculturel.pdf658708519-Power-Point-Management-Interculturel.pdf
658708519-Power-Point-Management-Interculturel.pdfMariaClaraAlves46
 
L application de la physique classique dans le golf.pptx
L application de la physique classique dans le golf.pptxL application de la physique classique dans le golf.pptx
L application de la physique classique dans le golf.pptxhamzagame
 
STRATEGIE_D’APPRENTISSAGE flee_DU_FLE.pdf
STRATEGIE_D’APPRENTISSAGE flee_DU_FLE.pdfSTRATEGIE_D’APPRENTISSAGE flee_DU_FLE.pdf
STRATEGIE_D’APPRENTISSAGE flee_DU_FLE.pdfGamal Mansour
 
L'expression du but : fiche et exercices niveau C1 FLE
L'expression du but : fiche et exercices  niveau C1 FLEL'expression du but : fiche et exercices  niveau C1 FLE
L'expression du but : fiche et exercices niveau C1 FLElebaobabbleu
 

Kürzlich hochgeladen (20)

Télécommunication et transport .pdfcours
Télécommunication et transport .pdfcoursTélécommunication et transport .pdfcours
Télécommunication et transport .pdfcours
 
Neuvaine de la Pentecôte avec des textes de saint Jean Eudes
Neuvaine de la Pentecôte avec des textes de saint Jean EudesNeuvaine de la Pentecôte avec des textes de saint Jean Eudes
Neuvaine de la Pentecôte avec des textes de saint Jean Eudes
 
GIÁO ÁN DẠY THÊM (KẾ HOẠCH BÀI DẠY BUỔI 2) - TIẾNG ANH 6, 7 GLOBAL SUCCESS (2...
GIÁO ÁN DẠY THÊM (KẾ HOẠCH BÀI DẠY BUỔI 2) - TIẾNG ANH 6, 7 GLOBAL SUCCESS (2...GIÁO ÁN DẠY THÊM (KẾ HOẠCH BÀI DẠY BUỔI 2) - TIẾNG ANH 6, 7 GLOBAL SUCCESS (2...
GIÁO ÁN DẠY THÊM (KẾ HOẠCH BÀI DẠY BUỔI 2) - TIẾNG ANH 6, 7 GLOBAL SUCCESS (2...
 
CompLit - Journal of European Literature, Arts and Society - n. 7 - Table of ...
CompLit - Journal of European Literature, Arts and Society - n. 7 - Table of ...CompLit - Journal of European Literature, Arts and Society - n. 7 - Table of ...
CompLit - Journal of European Literature, Arts and Society - n. 7 - Table of ...
 
Intégration des TICE dans l'enseignement de la Physique-Chimie.pptx
Intégration des TICE dans l'enseignement de la Physique-Chimie.pptxIntégration des TICE dans l'enseignement de la Physique-Chimie.pptx
Intégration des TICE dans l'enseignement de la Physique-Chimie.pptx
 
Bilan énergétique des chambres froides.pdf
Bilan énergétique des chambres froides.pdfBilan énergétique des chambres froides.pdf
Bilan énergétique des chambres froides.pdf
 
Formation qhse - GIASE saqit_105135.pptx
Formation qhse - GIASE saqit_105135.pptxFormation qhse - GIASE saqit_105135.pptx
Formation qhse - GIASE saqit_105135.pptx
 
RAPPORT DE STAGE D'INTERIM DE ATTIJARIWAFA BANK
RAPPORT DE STAGE D'INTERIM DE ATTIJARIWAFA BANKRAPPORT DE STAGE D'INTERIM DE ATTIJARIWAFA BANK
RAPPORT DE STAGE D'INTERIM DE ATTIJARIWAFA BANK
 
Cours Généralités sur les systèmes informatiques
Cours Généralités sur les systèmes informatiquesCours Généralités sur les systèmes informatiques
Cours Généralités sur les systèmes informatiques
 
Apolonia, Apolonia.pptx Film documentaire
Apolonia, Apolonia.pptx         Film documentaireApolonia, Apolonia.pptx         Film documentaire
Apolonia, Apolonia.pptx Film documentaire
 
La mondialisation avantages et inconvénients
La mondialisation avantages et inconvénientsLa mondialisation avantages et inconvénients
La mondialisation avantages et inconvénients
 
Copie de Engineering Software Marketing Plan by Slidesgo.pptx.pptx
Copie de Engineering Software Marketing Plan by Slidesgo.pptx.pptxCopie de Engineering Software Marketing Plan by Slidesgo.pptx.pptx
Copie de Engineering Software Marketing Plan by Slidesgo.pptx.pptx
 
Conférence Sommet de la formation 2024 : Développer des compétences pour la m...
Conférence Sommet de la formation 2024 : Développer des compétences pour la m...Conférence Sommet de la formation 2024 : Développer des compétences pour la m...
Conférence Sommet de la formation 2024 : Développer des compétences pour la m...
 
Les roches magmatique géodynamique interne.pptx
Les roches magmatique géodynamique interne.pptxLes roches magmatique géodynamique interne.pptx
Les roches magmatique géodynamique interne.pptx
 
Formation échiquéenne jwhyCHESS, parallèle avec la planification de projet
Formation échiquéenne jwhyCHESS, parallèle avec la planification de projetFormation échiquéenne jwhyCHESS, parallèle avec la planification de projet
Formation échiquéenne jwhyCHESS, parallèle avec la planification de projet
 
658708519-Power-Point-Management-Interculturel.pdf
658708519-Power-Point-Management-Interculturel.pdf658708519-Power-Point-Management-Interculturel.pdf
658708519-Power-Point-Management-Interculturel.pdf
 
L application de la physique classique dans le golf.pptx
L application de la physique classique dans le golf.pptxL application de la physique classique dans le golf.pptx
L application de la physique classique dans le golf.pptx
 
Echos libraries Burkina Faso newsletter 2024
Echos libraries Burkina Faso newsletter 2024Echos libraries Burkina Faso newsletter 2024
Echos libraries Burkina Faso newsletter 2024
 
STRATEGIE_D’APPRENTISSAGE flee_DU_FLE.pdf
STRATEGIE_D’APPRENTISSAGE flee_DU_FLE.pdfSTRATEGIE_D’APPRENTISSAGE flee_DU_FLE.pdf
STRATEGIE_D’APPRENTISSAGE flee_DU_FLE.pdf
 
L'expression du but : fiche et exercices niveau C1 FLE
L'expression du but : fiche et exercices  niveau C1 FLEL'expression du but : fiche et exercices  niveau C1 FLE
L'expression du but : fiche et exercices niveau C1 FLE
 

Msm1 corr algebre

  • 1. UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE U.F.R. SEGMI Année universitaire 2013 – 2014 Master d’économie Cours de M. Desgraupes MATHS/STATS Document 2 : Solution des exercices d’algèbre linéaire Table des matières 1 Espaces Vectoriels 1 2 Applications linéaires 4 3 Représentation matricielle 9 4 Diagonalisation 15 5 Décompositions matricielles 23 1 Espaces Vectoriels Corrigé ex. 1 : Espaces définis par paramètres On considère les deux ensembles suivants : E1 = f(a; 2b; b a) j a; b 2 Rg E2 = f(c; c + d; d) j c; d 2 Rg 1-1) Montrons que E1 est stable par addition et par multiplication par un scalaire. Si x = (a; 2b; b a) et x0 = (a0; 2b0; b0 a0) alors on a x + x0 = (a; 2b; b a) + (a0; 2b0; b0 a0) = (a + a0; 2b + 2b0; b a + b0 a0) = (a + a0; 2(b + b0); (b + b0) (a + a0)) = (A; 2B; B A) avec A = a + a0 et B = b + b0. Le vecteur x + x0 est bien de la forme voulue et appartient donc à E1. Pour la multiplication par un scalaire, calculons x : x = (a; 2b; b a) = (a; 2b; (b a)) = (a; 2b; b a) = (A; 2B; B A) avec A = a et B = b. 1
  • 2. On procède de manière analogue pour l’ensemble E2. Ce sont donc des sous-espaces vectoriels de R3. 1-2) Soit !x = (x1; x2; x3) 2 E1. On va trouver l’équation vérifiée par x1, x2 et x3 en éliminant les paramètres a et b entre les équations : 8 : x1 = a x2 = 2b x3 = b a On a x3 = b a = 1=2x2 x1 d’où 2x1 x2 + 2x3 = 0 Il s’agit d’un plan passant par l’origine. Dans le cas de E2, on obtient de façon analogue : x1 x2 + x3 = 0 1-3) L’intersection E1 E2 est une droite vérifiant les deux équations précé-dentes : 2x1 x2 + 2x3 = 0 x1 x2 + x3 = 0 qui conduisent à x1 = x3 et x2 = 0. C’est la droite passant par l’origine et de vecteur directeur (1; 0;1). Corrigé ex. 2 : Espaces définis par équations linéaires Dans R3, on considère les sous-ensembles suivants : P = f(x1; x2; x3) j x1 2x2 + x3 = 0g D = f(x1; x2; x3) j x1 + x2 + x3 = 0 et x2 x3 = 0g 2-1) Pour montrer que P et D sont des sous-espaces vectoriels de R3, il suffit de monter qu’ils sont stables par addition et par multiplication par un scalaire. Si x = (x1; x2; x3) et x0 = (x0 1; x0 3) sont des vecteurs de P, ils vérifient 2; x0 respectivement les équations x1 2x2 + x3 = 0 x0 1 2x0 2 + x0 3 = 0 En additionnant les deux lignes, on voit que leur somme vérifie elle aussi l’équation et donc x + x0 2 P. De même, on montre que le vecteur x vérifie l’équation en la multipliant par . On procède de manière analogue pour D. 2-2) P est un plan car il est défini par une seule équation dans R3. Il est donc de dimension 2 et il suffit de trouver deux vecteurs indépendants vérifiant son équation pour former une base. Par exemple, les deux vecteurs suivants : (2; 1; 0) et (0; 1; 2). On peut aussi raisonner au moyen d’applications linéaires. P est l’ensemble des vecteurs qui annulent la fonction f de R3 dans R définie par f(x1; x2; x3) = x1 2x2 + x3 2
  • 3. On a donc P = Kerf. L’espace image est R qui est de dimension 1, donc par le théorème des dimensions on obtient : dim Ker f = dim E dim Im f = 3 1 = 2 ce qui confirme que le noyau est un plan. L’espace D est de dimension 1 car il est défini par l’annulation de deux équations linéaires indépendantes, d’où : dim D = 3 2 = 1 Un vecteur directeur de cette droite est un vecteur qui vérifie les deux équations défi-nissant D : x1 + x2 + x3 = 0 x2 x3 = 0 On en déduit x2 = x3 et x1 = 2x3. Un vecteur directeur possible est donc (2; 1; 1). Corrigé ex. 3 : Rang d’une famille de vecteurs Le rang de la famille des trois vecteurs a = (1; m; m) b = (m; 1; m) c = (m; m; 1) est aussi le rang de la matrice M = 0 @ 1 m m m 1 m m m 1 1 A Son déterminant vaut det M = 2m3 3m2 + 1 = (m 1)2(2m + 1) Si m est différent de 1 et de -1/2, le déterminant n’est pas nul et la matrice est donc de rang maximal 3. Si m = 1=2, la matrice sera de rang 2. On note que, dans ce cas, la somme des trois lignes de la matrice est nulle mais que les deux premières sont indépendantes, ce qui est une autre façon de voir que le rang est 2. Enfin, si m = 1, les trois lignes de la matrice sont identiques, ce qui signifie qu’elle est de rang 1. Corrigé ex. 4 : Sous-espace dépendant d’un paramètre Fm est le sous-espace vectoriel de R3 défini par Fm = f(x1; x2; x3) j x2 2x3 = 0 et mx2 + 3x3 = 0g Les deux équations sont indépendantes si et seulement si les deux lignes de la matrice M = 1 2 m 3 3
  • 4. sont indépendantes, ce qui a lieu lorsque le déterminant est non nul. On calcule : det M = 3 + 2m. Si m6= 3=2, les deux équations sont indépendantes et ne peuvent être vérifiées simultanément que si x2 = x3 = 0. L’espace Fm est alors l’ensemble des vecteurs de la forme (x1; 0; 0), c’est-à-dire l’axe des x1 qui a pour vecteur directeur (1; 0; 0). Si m = 3=2, l’ensemble Fm est le plan d’équation x2 2x3 = 0. Il est donc de dimension 2. Pour constituer une base, il suffit de prendre deux vecteurs indépendants vérifiant cette équation. Par exemple, les vecteurs (1; 0; 0) et (0; 2; 1). Corrigé ex. 5 : Base d’un sous-espace Dans R4, si on a les égalités x1 = x2 = x3 = x4, tout vecteur s’écrit !x = (x1; x2; x3; x4) = (x1; x1; x1; x1) = x1(1; 1; 1; 1) Le sous-espace est donc l’ensemble des multiples du vecteur (1; 1; 1; 1). Il est donc de dimension 1 : c’est la droite passant par l’origine et de vecteur directeur (1; 1; 1; 1). 2 Applications linéaires Corrigé ex. 6 : Dimensions des espaces de départ et d’arrivée Si f est une application linéaire de R3 dans R2, l’espace de départ est de dimension strictement plus grande que l’espace d’arrivée. On en déduit que : 1. f ne peut pas être injective car, si c’était le cas, l’espace de départ serait “injecté” dans l’espace d’arrivée. Ce dernier devrait donc être de dimension au moins 3. 2. f pourrait être surjective. 3. f ne peut pas être bijective. Pour cela, il faudrait déjà que les deux espaces aient la même dimension. Si f est une application linéaire de R2 dans R3, l’espace de départ est de dimension strictement plus petite que l’espace d’arrivée. On en déduit que 1. f pourrait être injective. 2. f ne peut pas être surjective car l’espace image sera au mieux de dimension 2 et ne pourra donc jamais remplir l’espace d’arrivée. 3. f ne peut pas être bijective. Pour cela, il faudrait déjà que les deux espaces aient la même dimension. Enfin, si f est une application linéaire de R2 dans R2, elle peut tout à fait être injective, surjective ou bijective. Les espaces de départ et d’arrivée ayant même dimen-sion, on peut même dire que si elle est injective elle sera automatiquement surjective, et vice-versa. 4
  • 5. Corrigé ex. 7 : Noyau et image en fonction d’un paramètre u est l’endomorphisme de R3 défini par u 0 @ x1 x2 x3 1 A = 0 @ x1 + x2 + x3 x1 + x2 + x3 x1 + x2 1 A Pour déterminer son noyau, on pose les équations suivantes : 8 : x1 + x2 + x3 = 0 x1 + x2 + x3 = 0 x1 + x2 = 0 Par soustraction des deux dernières équations, on obtient x3 = 0. Supposons que 6= 0. On en déduit que x3 = 0, ce qui conduit à x1 + x2 = 0 x1 + x2 = 0 Si 6= 1, ces deux équations sont indépendantes et donnent x1 = 0 et x2 = 0. On trouve alors que le noyau ne contient que le vecteur nul !0 . Si au contraire = 1, il reste l’équation x1 + x2 = 0 (et toujours x3 = 0). Le noyau est alors la droite passant par l’origine et de vecteur directeur (1;1; 0). Il reste à examiner le cas où = 0. Le système initial se ramène alors simplement à : x1 + x2 + x3 = 0 x1 = 0 Le noyau est cette fois la droite de vecteur directeur (0; 1;1). Déterminons maintenant l’image dans les trois cas précédents. Si 6= 0 et 6= 1, le noyau est réduit à !0 et l’application est donc injective. Il en résulte qu’elle est aussi surjective puisque l’espace de départ et l’espace d’arrivée ont même dimension. L’espace image est donc l’espace d’arrivée R3 tout entier. Le rang est 3. Si = 1, l’image de l’application est définie par 8 : X = x1 + x2 + x3 Y = x1 + x2 + x3 Z = x1 + x2 où X, Y et Z sont les coordonnées dans l’espace d’arrivée. On voit ici que X = Y , autrement dit que X Y = 0. C’est l’équation d’un plan dans R3. Une base possible est formée des vecteurs (0; 0; 1) et (1; 1; 0). Le rang est 2. Si = 0, l’image de l’application est définie par 8 : X = x1 + x2 + x3 Y = x1 Z = x1 On voit que Y = Z, autrement dit que Y Z = 0. C’est l’équation d’un plan dans R3. Une base possible est formée des vecteurs (0; 1; 1) et (1; 0; 0). Le rang est 2. 5
  • 6. Corrigé ex. 8 : Matrice de permutation Soit u l’application de R3 dans R3 définie par u 0 @ x1 x2 x3 1 A = 0 @ x3 x1 x2 1 A 8-1) u est linéaire car elle est définie par des combinaisons linéaires des variables x1, x2 et x3. 8-2) La matrice associée à u dans la base canonique est M = 0 @ 0 1 0 0 0 1 1 0 0 1 A C’est une matrice de permutation. L’application u opère une permutation circulaire des variables x1, x2 et x3. 8-3) On calcule M2 = 0 @ 1 A M3 = 0 0 1 1 0 0 0 1 0 0 @ 1 A 1 0 0 0 1 0 0 0 1 On voit donc que M3 = I, ce qui peut s’écrire MM2 = M2M = I et montre que M2 est l’inverse de M. On a donc M1 = M2. 8-4) Calculons les puissances successives de la matrice M. Puisque M3 = I, on a M4 = M, M5 = M2, M6 = I, etc. De même, puisque M1 = M2, on calcule M2 = M4 = M, et ensuite M3 = I, M4 = M2, M5 = M, M6 = I, etc. Corrigé ex. 9 : Base d’un noyau On considère l’application u de R4 dans R2 définie par u : 0 BB@ x1 x2 x3 x4 1 CCA ! x1 + 2x2 + 3x3 + x4 x1 + x2 + 3x3 + x4 Il s’agit de déterminer une base du noyau de cette application. Puisque les deux expressions sont indépendantes, l’espace image sera de dimension 2. On en déduit que le noyau est de dimension 4 2 = 2. Il suffit donc de trouver deux vecteurs indépendants vérifiant les équations données. Si on soustrait les deux équations, on trouve : 2x1 + x2 = 0 On peut prendre, par exemple, les vecteurs (1; 2; 0; 0) et (0; 0; 1;3). 6
  • 7. Corrigé ex. 10 : Application définie sur les vecteurs d’une base f est l’application linéaire de R2 dans R3 définie par f(1; 1) = (4; 2; 0) et f(1;1) = (2; 0; 6): 10-1) Pour trouver les images par f des vecteurs de la base canonique de R2, il suffit d’exprimer ces vecteurs en fonction des vecteurs (1; 1) et (1;1) dont on nous donne les images par f. On trouve facilement que e1 = (1; 0) = 1=2((1; 1)+(1;1)). D’où, par linéarité, f(1; 1) + f(1;1) f(e1) = f(1; 0) = 1=2 (4; 2; 0) + (2; 0; 6) = 1=2 = (3; 1; 3) De même, e2 = (0; 1) = 1=2((1; 1) (1;1)) d’où : f(1; 1) f(1;1) f(e2) = f(0; 1) = 1=2 (4; 2; 0) (2; 0; 6) = 1=2 = (1; 1; 3) 10-2) L’image par f d’un vecteur quelconque de R2 s’écrit f(x1; x2) = f(x1e1 + x2e2) = x1f(e1) + x2f(e2) = x1(3; 1; 3) + x2(1; 1; 3) = (3x1 + x2; x1 + x2; 3x1 3x2) 10-3) Le noyau de f est défini par les équations 8 : 3x1 + x2 = 0 x1 + x2 = 0 3x1 3x2 = 0 qui donnent x1 = x2 = 0. Le noyau est donc réduit au vecteur !0 et l’application f est injective. Par le théorème des dimensions, on en déduit que l’image est de dimension 2 0 = 2 L’application n’est donc pas surjective (puisque 2 3). Par élimination entre les équations suivantes 8 : y1 = 3x1 + x2 y2 = x1 + x2 y3 = 3x1 3x2 on obtient la relation : 3y1 6y2 y3 = 0 C’est l’équation de l’image. Il s’agit d’un plan dans l’espace d’arrivée R3. Le rang de f est la dimension de l’espace image, c’est-à-dire 2. 7
  • 8. 10-4) La droite de R2 d’équation x1 + x2 a pour vecteur directeur (1;1). Son image est donc la droite de vecteur directeur f(1;1) = (2; 0; 6). C’est un sous-espace vectoriel de dimension 1 de R3. 10-5) Dans l’équation du plan y1 +y2 +y3 = 0, on remplace y1, y2, y3 par leurs valeurs en fonction de x1, x2, x3. On obtient donc (3x1 + x2) + (x1 + x2) + (3x1 3x2) = 0 et par conséquent 7x1 x2 = 0 C’est l’équation d’une droite passant par l’origine dans R2. C’est donc un sous-espace vectoriel de dimension 1 de R2. Corrigé ex. 11 : Noyau et image sans calculs f(x1; x2; x3; x4) = 2x1 x2 + x3 x1 + 2x2 x4 11-1) L’application f est linéaire car les deux expressions qui définissent le vec-teur image sont homogènes de degré 1 (linéaires). 11-2) L’application f n’est pas injective car la dimension de l’espace départ est strictement supérieure à la dimension de l’espace d’arrivée. 11-3) Pour déterminer le noyau de f, on doit résoudre les équations 2x1 x2 + x3 = 0 x1 + 2x2 x4 = 0 On peut facilement exprimer toutes les variables en fonction de x1 et x2 comme ceci : 0 x1 x2 x3 x4 BB@ 1 CCA = 0 BB@ x1 x2 2x1 + x2 x1 + 2x2 1 CCA = x1 0 1 0 2 1 BB@ 1 CCA + x2 0 0 1 1 2 BB@ 1 CCA Les deux vecteurs V1 = 0 1 0 2 1 BB@ 1 CCA et V2 = 0 BB@ 1 0 1 1 2 CCA sont indépendants et constituent une base du noyau. Celui-ci est donc un sous-espace de dimension deux (un plan) dans R4. 11-4) On vérifie facilement que f(V ) = 0 et donc que le vecteur V appartient au noyau de f. Pour trouver les coordonnées de V dans la base (V1; V2) trouvée à la question précédente, il faut déterminer 1 et 2 tels que : V = 1V1 + 2V2 On trouve 1 = 2 et 2 = 1, donc V = 2V1 + V2. 11-5) Le théorème des dimensions stipule que, pour toute application linéaire f : E ! F, on a Dim Ker(f) + Dim Im(f) = DimE où E est l’espace de départ. Puisque la dimension du noyau est 2 et que la dimension de l’espace de départ est 4, on en déduit que la dimension de l’image est 2. L’image est donc l’espace d’arrivée tout entier. 8
  • 9. 3 Représentation matricielle Corrigé ex. 12 : Images de la base canonique On considère l’endomorphisme u de R3 défini par les relations : 8 : u(!e 1) = !e 1 + !e 2 + !e 3 u(!e 2) = !e 1 + !e 2 u(!e 3) = 2u(!e 1) u(!e 2) La dernière relation conduit, par substitution, à u(!e 3) = !e 1 + !e 2 + 2!e 3 Les images des vecteurs de base ont respectivement pour coordonnées (1; 1; 1), (1; 1; 0) et (1; 1; 2). La matrice de l’application dans la base canonique est donc M = 0 @ 1 1 1 1 1 1 1 0 2 1 A On voit immédiatement que les deux premières lignes de cette matrice sont identiques tandis que la troisième est indépendante. La matrice est donc de rang 2. Le noyau est défini par les équations x1 + x2 + x3 = 0 x1 + 0x2 + 2x3 = 0 On en tire x1 = 2x3 puis x2 = x3. C’est la droite passant par l’origine et de vecteur directeur (2; 1; 1). Le noyau est de dimension 1. L’image est l’ensemble des vecteurs vérifiant 8 : y1 = x1 + x2 + x3 y2 = x1 + x2 + x3 y3 = x1 + 2x3 ce qui conduit à y1 = y2 et y3 quelconque. L’image est donc un plan et a pour dimen-sion 2. Le théorème des dimensions se vérifie puisque la somme de la dimension du noyau et de celle de l’image est égale à celle de l’espace lui-même : 1 + 2 = 3. Enfin l’endomorphisme u n’est ni injectif (noyau non réduit à 0), ni surjectif (image différente de l’espace d’arrivée). Corrigé ex. 13 : Composition d’applications On considère les fonctions f : (x; y) ! (3x + y; y) et g : (x; y) ! (y; 2x) de R2 dans R2. 13-1) On calcule f g(x; y) = f g(x; y) = f(y; 2x) = (3y + 2x; 2x) 9
  • 10. De même on trouve g f(x; y) = g f(x; y) = g(3x + y; y) = (y; 6x + 2y) Ces deux applications sont bien linéaires puisqu’elles sont définies par des combi-naisons linéaires des variables. 13-2) Les matrices représentant les applications f, g, f g et g f dans la base canonique sont respectivement : Mf = 3 1 0 1 Mg = 0 1 2 0 Mfg = 2 3 2 0 Mgf = 0 1 6 2 On vérifie facilement les relations Mfg = MfMg et Mgf = MgMf . Corrigé ex. 14 : Matrice dans des bases données On considère l’application u : R47! R3 définie par les relations suivantes dans !f 1; les bases canoniques B4 = f!e 1; !e 2; !e 3; !e 4g et B3 = f !f 2; !f 3g : 8 : u(!e 1) = !f 1 !f 2 u(!e 2) = !f 2 + 2 !f 3 u(!e 3) = !f 1 + !f 2 + !f 3 u(!e !f 1 + 4) = 2 !f 2 + 3 !f 3 14-1) La matrice associée à u dans ces bases est faite en colonnes des images des vecteurs de la base de départ, exprimées dans la base d’arrivée. On obtient donc à partir des relations précédentes : M = 0 @ 1 A 1 0 1 2 1 1 1 1 0 2 1 3 C’est une matrice 3 4. 14-2) On montre facilement que les lignes de cette matrice sont indépendantes (le bloc des trois premières colonnes, par exemple, est de déterminant non nul). Le rang de u (qui est aussi le rang de la matrice) est donc 3. 14-3) Les coordonnées de l’image d’un vecteur !x = (x1; x2; x3; x4) s’ob-tiennent en multipliant la matrice M par le vecteur x (en colonne) : u(x) = Mx = 0 @ 1 A 1 0 1 2 1 1 1 1 0 2 1 3 0 BB@ x1 x2 x3 x4 1 CCA = 0 @ x1 + x3 + 2x4 x1 + x2 + x3 + x4 2x2 + x3 + 3x4 1 A Corrigé ex. 15 : Changement de base La matrice M = 0 @ 1 A 0 0 0 1 1 0 1 1 2 10
  • 11. représente un endomorphisme u de R3 dans une base B = f!e 1; !e 2; !e 3g. 15-1) Les vecteurs !e 0 1, !e 0 2 et !e 0 3 sont définis dans la base canonique au moyen des relations suivantes : 8 : !e 0 1 = !e 1 + !e 2 + !e 3 !e 0 2 = !e 2 + !e 3 !e 0 = 3 3 !e Ils ont donc respectivement pour coordonnées (1; 1; 1), (0; 1; 1) et (0; 0; 1) dans la base canonique. Leurs images (toujours dans la base canonique) sont obtenues en les multipliant à gauche par la matrice M. On trouve f(e0 1) = Me0 1 = 0 @ 1 A 0 0 0 2) = Me0 f(e0 2 = 0 @ 1 A 0 1 1 3) = Me0 f(e0 3 = 0 @ 1 A 0 0 2 On constate donc les relations suivantes f(e0 1) = 0, f(e0 2) = e0 2 et f(e0 3) = 2e0 3. La matrice M0 associée à u dans la base B0 est faite en colonnes des images des vecteurs de B0 exprimées elles aussi dans la base B0. On a donc : M0 = 0 @ 1 A 0 0 0 0 1 0 0 0 2 15-2) La matrice M0 étant diagonale, on obtient : (M0)n = 0 @ 0 0 0 0 1 0 0 0 2n 1 A On en déduit Mn en faisant le changement de base en sens inverse. La matrice de passage P de la base B à la base B0 est P = 0 @ 1 A 1 0 0 1 1 0 1 1 1 La relation de changement de base est M0 = P1MP. Par conséquent M = PM0P1 et donc Mn = P(M0)nP1. On calcule P1 = 0 @ 1 A 1 0 0 1 1 0 0 1 1 11
  • 12. et on trouve, tous calculs faits, que Mn = 0 @ 0 0 0 1 1 0 1 1 2n 2n 1 A Corrigé ex. 16 : Indépendance dans l’image On considère l’application linéaire h de R3 dans R3 définie par f : (a; b; c) ! (a + b; b + c; a c): 16-1) Calculons les images des vecteurs de base : f(e1) = f(1; 0; 0) = (1; 0; 1) f(e2) = f(0; 1; 0) = (1; 1; 0) f(e3) = f(0; 0; 1) = (0; 1;1) 16-2) Cherchons une relation de dépendance entre les vecteurs f(e1), f(e2), f(e3). Cela revient à chercher trois coefficients a1, a2, a3 non tous nuls tels que : a1f(e1) + a2f(e2) + a3f(e3) = 0 On a donc : a1(1; 0; 1) + a2(1; 1; 0) + a3(0; 1;1) D’où les équations : 8 : a1 + a2 = 0 a2 + a3 = 0 a1 a3 = 0 qui donnent a1 = a2 = a3 et donc, par exemple, a1 = 1, a2 = 1 et a3 = 1. La combinaison recherchée est finalement : f(e2) = f(e1) + f(e3) 16-3) Les vecteurs f(e1), f(e2), f(e3) sont liés mais ils sont deux à deux indé-pendants : l’application f est donc de rang 2. 16-4) Par le théorème des dimensions, on en déduit que le noyau de f est de dimension 3 2 = 1. En posant que f(x) = 0, on obtient les mêmes expressions que précédemment : 8 : a + b = 0 b + c = 0 a c = 0 Les éléments du noyau sont donc de la forme (a;a; a). Ce sont tous les multiples de (1;1; 1). Le noyau est ainsi la droite passant par l’origine et de vecteur directeur (1;1; 1). 12
  • 13. 16-5) Si f est une application linéaire de Rp dans Rq et que les vecteurs f(e1),. . . , f(ep) forment un système linéairement indépendant dans l’image f(Rp), on a dim Im f = p Par conséquent dim Ker f = p p = 0 ce qui montre que f est injective. La réciproque est vraie : si f est injective, les vecteurs f(e1),. . . , f(ep) sont linéai-rement indépendants. Ils constituent une base de f(Rp). Remarque : f(Rp) n’est pas forcément Rq tout entier (il faudrait en plus que p = q). Corrigé ex. 17 : Systèmes dégénérés Dans le système d’équations linéaires : 8 : x1 + 3x2 x3 = 0 mx2 + 3x3 = 0 x2 + x3 = 0 le déterminant est égal à (m 3). Si m6= 3, le système a une solution unique qui est (0; 0; 0). On aura donc des solutions autres que (0; 0; 0) seulement si m = 3. Cela signifie que le noyau de l’application linéaire associée u : 0 @ x1 x2 x3 1 A ! 0 @ x1 + 3x2 x3 mx2 + 3x3 x2 + x3 1 A n’est pas réduit à l’élément !0 et, par conséquent, que l’application n’est pas injective. Corrigé ex. 18 : Matrices par blocs M = A B 0 C où A et C sont des blocs carrés. 18-1) Cherchons l’inverse M1 sous la forme d’une matrice par blocs M1 = E F G H . Il faut queM M1 = I etM1M = I. En développant ces deux égalités, on obtient les équations suivantes : 8 : AE + BG = I EA = I AF + BH = 0 EB + FC = 0 CG = 0 GA = 0 CH = I HC = I Les deux dernières relations imposent que C soit inversible. Dans ce cas, la relation CG = 0 impose que G = 0. Les deux premières relations imposent alors que AE = EA = I, c’est-à-dire que A soit inversible. 13
  • 14. 18-2) Sous la condition que A et C sont inversibles, on peut alors résoudre les équations précédentes pour obtenir l’inverse de M. On trouve facilement : 8 E = A1 F = A1BC1 G = 0 H = C1 : et donc finalement M1 = A1 A1BC1 0 C1 : On vérifie a posteriori que M M1 = M1M = I. Corrigé ex. 19 : Bloc identité On a M = A 0 I B et on souhaite trouver un inverse de la même forme, c’est-à-dire M1 = C 0 I D . Il faut que M M1 = I et M1M = I. En développant la première égalité, on obtient les équations suivantes : 8 : AC = I C + B = 0 BD = I La deuxième égalité donne de même : 8 : CA = I A + D = 0 DB = I Puisque les blocs sont tous carrés par hypothèse, les produits obtenus ne sont pos-sibles que si ils ont tous la même taille. C’est une première condition. Les relations AC = CA = I signifient que A doit être inversible et alors on a C = A1. De la même manière, B doit être inversible et on a D = B1. La condition A + D = 0 enfin impose que A = B1. 14
  • 15. 4 Diagonalisation Corrigé ex. 20 : Valeurs et vecteurs propres Modèle de résolution Prenons, à titre d’exemple, la matrice 0 @ 1 A. 2 0 1 1 4 1 1 2 0 On commence par calculer son polynôme caractéristique : P() = det 0 @ 1 A 2 0 1 1 4 1 1 2 = 3 + 62 11 + 6 = ( 1)( 2)( 3) Il y a donc trois valeurs propres : 1 = 1, 2 = 2 et 3 = 3. Les vecteurs propres associés X sont solution de l’équation (A I)X = 0 pour chacune des valeurs propres respectivement. Valeur propre 1 : on pose le système (A I)X = 0, ce qui donne 8 : x1 + 0x2 + x3 = 0 x1 + 3x2 x3 = 0 x1 + 2x2 x3 = 0 En faisant la différence entre la deuxième et la troisième équation, on obtient x2 = 0, ce qui 0 donne ensuite x3 = x1. On peut donc choisir comme vecteur propre V1 = @ 1 A (ou n’importe quel multiple de ce vecteur). 1 0 1 Valeur propre 2 : le système (A 2I)X = 0 s’écrit 8 : 0x1 + 0x2 + x3 = 0 x1 + 2x2 x3 = 0 x1 + 2x2 2x3 = 0 La première équation donne x3 = 0, 0 ce 1 qui conduit ensuite à x1 = 2x2. On peut donc choisir comme vecteur propre V2 = @ A. 2 1 0 Valeur propre 3 : le système (A 3I)X = 0 s’écrit 8 : x1 + 0x2 + x3 = 0 x1 + x2 x3 = 0 x1 + 2x2 3x3 = 0 15
  • 16. La première équation donne x1 = x3. En reportant dans la deuxième, on obtient alors x2 = 2x3. On peut donc choisir comme vecteur propre V3 = 0 @ 1 2 1 1 A. Finalement, la matrice de passage est la matrice formée en colonne des vecteurs propres : P = 0 @ 1 A 1 2 1 0 1 2 1 0 1 et la matrice diagonalisée comporte les valeurs propres sur la diagonale : D = 0 @ 1 A 1 0 0 0 2 0 0 0 3 La relation entre A, P et D est : D = P1 AP Solution de tous les exemples Pour tous les exemples de cet exercice, on donne le polynôme caractéristique et les valeurs propres. Lorsque la matrice est diagonalisable, on indique aussi la matrice de passage et la matrice diagonale, sinon on indique seulement les vecteurs propres. Matrice 2 1 1 2 Polynôme caractéristique : P() = 2 4 + 3 = ( 1) ( 3). Valeurs propres : 1 = 1, 2 = 3. Matrice de passage : P = 1 1 1 1 . Matrice diagonale : D = 1 0 0 3 . Matrice 6=5 8=5 8=5 6=5 Polynôme caractéristique : P() = 2 4 = ( 2) ( + 2). Valeurs propres : 1 = 2, 2 = 2. Matrice de passage : P = 1 2 2 1 . Matrice diagonale : D = 2 0 0 2 . Matrice 1 1 1 1 Polynôme caractéristique : P() = 2 2 + 2. Valeurs propres : 1 = 1 i, 2 = 1 + i. Matrice de passage : P = 1 1 i i . Matrice diagonale : D = 1 i 0 . 0 1 + i 16
  • 17. Matrice 2 1 1 2 Polynôme caractéristique : P() = 2 4 + 5. Valeurs propres : 1 = 2 i, 2 = 2 + i. Matrice de passage : P = 1 1 i i . Matrice diagonale : D = 2 i 0 . 0 2 + i Matrice 0 @ 1 A 2 0 1 1 4 1 1 2 0 Polynôme caractéristique : P() = 3+6 211 +6 = ( 1) ( 2) ( 3). Valeurs propres : 1 = 1, 2 0 = 2, 3 = 1 3. Matrice de passage : P = @ A. 1 2 1 0 1 2 1 0 1 Matrice diagonale : D = 0 @ 1 A. 1 0 0 0 2 0 0 0 3 Matrice 0 @ 1 A 1 2 0 2 4 3 2=3 3 2 Polynôme caractéristique : P() = 3 2 + 5 3 = ( 1)2 ( + 3). Valeurs propres : 1 = 3 simple, 2 = 1 double. 0 La valeur propre simple 1 = 3 a pour vecteur propre V1 = @ 1 2 4=3 1 A. 0 La valeur propre double 2 = 1 ne possède qu’un seul vecteur propre V2 = @ 1 A. La matrice n’est donc pas diagonalisable. 1 0 2=3 Matrice 0 @ 1 A 4 6 3 2 3 2 1 2 0 Polynôme caractéristique : P() = 3 + 2 + 1 = ( 1)2 ( + 1). Valeurs propres : 1 = 1 double, 0 2 = 1 1 simple. Matrice de passage : P = @ A. 1 0 3 0 1 2 1 2 1 Matrice diagonale : D = 0 @ 1 A. 1 0 0 0 1 0 0 0 1 17
  • 18. Matrice 0 @ 1 A 3 0 0 8 7 1 4 1 5 Polynôme caractéristique : P() = 3+15 272 +108 = ( 6)2 ( 3). Valeurs propres : 1 = 3 simple, 2 = 6 double. 0 1 La valeur propre simple 1 = 3 a pour vecteur propre V1 = @ A. 3 4 8 La valeur propre double 2 = 6 ne possède qu’un vecteur propre V2 = 0 @ 1 A. 0 1 1 La matrice n’est donc pas diagonalisable. Matrice 0 @ 1 A 3 0 2 7 2 11 3 0 4 Polynôme caractéristique : P() = 3 + 2 + 8 12 = ( 2)2 ( + 3). Valeurs propres : 1 = 3 simple, 2 = 2 double. 0 La valeur propre simple 1 = 3 a pour vecteur propre V1 = @ 5 26 15 1 A. La valeur propre double 2 = 2 ne possède qu’un vecteur propre V2 = 0 @ 1 A. 0 1 0 La matrice n’est donc pas diagonalisable. Matrice 0 @ 1 A 4=3 2=3 2=3 1 1 0 1=3 1=3 2=3 Polynôme caractéristique : P() = 3 3 2 2 = ( + 1) ( + 2). Valeurs propres : 1 = 0, 2 0 = 1, 3 = 1 2. Matrice de passage : P = @ A. 1 0 1 1 1 1 1 1 0 Matrice diagonale : D = 0 @ 0 0 0 0 1 0 0 0 2 1 A. Matrice 1 2 0 BB@ 5 3 3 3 1 3 1 1 1 1 5 1 1 1 1 7 1 CCA Polynôme caractéristique : P() = 410 3+35 250 +24 = ( 1) ( 2) ( 3) ( 4). Valeurs propres : 1 = 1, 2 = 2, 3 = 3, 4 = 4. Matrice de passage : P = 0 1 0 0 1 1 1 0 0 0 1 1 0 0 0 1 1 BB@ 1 CCA . 18
  • 19. Matrice diagonale : D = 0 BB@ 1 0 0 0 0 2 0 0 0 0 3 0 0 0 0 4 1 CCA . Matrice 0 1 1 1 1 0 0 0 0 1 1 1 1 0 0 0 2 BB@ 1 CCA Polynôme caractéristique : P() = 4 4 3 + 4 2 = 2 ( 2)2. Valeurs propres : 1 = 0 double, 2 = 2 double. Matrice de passage : P = 0 1 0 0 1 1 1 0 0 0 1 1 0 0 0 1 1 BB@ 1 CCA . Matrice diagonale : D = 0 0 0 0 0 0 0 0 0 0 0 2 0 0 0 0 2 BB@ 1 CCA . Corrigé ex. 21 : Matrice paramétrique On considère la matrice A = m 2 m 1 m 2 où m est un paramètre réel. 21-1) Pour que A ait une valeur propre nulle, il faut et il suffit que son déterminant soit nul (puisque le déterminant est le produit des valeurs propres). On calcule : det(A) = (m 2)2 m = m2 5m + 4 = (m 1)(m 4): Cela se produit donc lorsque m = 1 ou m = 4. On détermine la seconde valeur propre en utilisant la trace de la matrice. On a : Tr(A) = 2m 4 = 1 + 2 = 0 + 2: Par conséquent, 2 = 2m 4 = ( 2 si m = 1 4 si m = 4 21-2) Le vecteur propre V correspondant à la valeur propre 0 doit vérifier l’équa-tion AV = 0V = 0. Dans le cas où m = 1, l’équation AV = 0 a pour solution le vecteur V1 = 1 1 . Dans le cas où m = 4, l’équation AV = 0 a pour solution le vecteur V2 = . 2 1 19
  • 20. Corrigé ex. 22 : Trace et déterminant M = 0 @ 1 1 2 1 2 1 2 1 1 1 A 22-1) Si on additionne les colonnes de la matrice M, on trouve le vecteur 0 @ 1 A. 2 2 2 Or additionner les colonnes, revient à multiplier la matrice à droite par le vecteur 0 @ 1 A. 1 1 1 On a donc la relation : M 0 @ 1 A = 1 1 1 0 @ 1 A = 2 2 2 2 0 @ 1 A: 1 1 1 Cela signifie que le vecteur 0 @ 1 A est un vecteur propre de valeur propre 1 = 2. 1 1 1 22-2) On note 1, 2 et 3 les valeurs propres de M. La trace de la matrice est : Tr(A) = 1 + 2 1 = 2 = 1 + 2 + 3 = 2 + 2 + 3: On en déduit que 2 + 3 = 0: 22-3) Le déterminant de la matrice est : det(A) = 14 = 123 = 223: On en déduit que 23 = 7: 22-4) Des deux questions précédentes, on déduit que 2 = p 7 et 3 = p 7. Corrigé ex. 23 : Matrices symétriques les matrices symétriques possèdent les propriétés suivantes : – toute matrice symétrique est diagonalisable ; – les valeurs propres sont toujours réelles (autrement dit, jamais complexes) et les vecteurs propres de même ; – des vecteurs propres correspondant à des valeurs propres distinctes sont ortho-gonaux entre eux ; – on peut choisir les vecteurs propres de manière à former une base orthonormée (c’est-à-dire constituée de vecteurs unitaires orthogonaux entre eux). 20
  • 21. Pour tous les exemples de cet exercice, on donne le polynôme caractéristique, les valeurs propres, la matrice de passage P et la matrice diagonale D. La matrice de passage est formée en colonnes de vecteurs orthonormés : cela en fait une matrice dite orthogonale qui vérifie la propriété P1 = tP. Matrice 0 2 2 0 Polynôme caractéristique : P() = 2 4 = ( 2) ( + 2). Valeurs propres : 1 = 2, 2 = 2. Matrice de passage : P = 0 B@ 1 p 2 1 p 2 1 p 2 1 p 2 1 CA . Matrice diagonale : D = . 2 0 0 2 Matrice 3 2 2 3 Polynôme caractéristique : P() = 2 6 + 5 = ( 1) ( 5). Valeurs propres : 1 = 1, 2 = 5. Matrice de passage : P = 0 B@ 1 p 2 1 p 2 1 p 2 1 p 2 1 CA . Matrice diagonale : D = 1 0 0 5 . Matrice 3 6 6 12 Polynôme caractéristique : P() = 2 15. Valeurs propres : 1 = 0, 2 = 15. Matrice de passage : P = 0 B@ 2 p 5 1 p 5 1 p 2 2 p 5 1 CA . Matrice diagonale : D = 0 0 0 15 . Matrice 0 @ 1 A 1 2 2 2 1=2 1=2 2 1=2 1=2 Polynôme caractéristique : P() = 3 + 9 = ( 3) ( + 3). Valeurs propres : 1 = 3, 2 = 3, 3 = 0. Matrice de passage : P = 0 BBBBB@ 2 p 6 1 p 3 0 1 p 6 1 p 3 1 p 2 1 p 6 1 p 3 1 p 2 1 CCCCCA . 21
  • 22. Matrice diagonale : D = 0 @ 1 A. 3 0 0 0 3 0 0 0 0 Matrice 0 @ 1 A 8 1 2 1 8 2 2 2 5 Polynôme caractéristique : P() = 3+21 2135 +243 = ( 9)2 ( 3). Valeurs propres : 1 = 3 simple, 2 = 9 double. Matrice de passage : P = 0 BBBBB@ 1 p 6 2 p 5 1 p 30 1 p 6 0 5 p 30 2 p 6 1 p 5 2 p 30 1 CCCCCA . Matrice diagonale : D = 0 @ 1 A. 3 0 0 0 9 0 0 0 9 Matrice 0 @ 1 A 0 1 1 1 0 1 1 1 0 Polynôme caractéristique : P() = 3 + 3 + 2 = ( 2) ( + 1)2. Valeurs propres : 1 = 2 simple, 2 = 1 double. Matrice de passage : P = 0 BBBBB@ 1 p 3 1 p 2 1 p 6 1 p 3 0 2 p 6 1 p 3 1 p 2 1 p 6 1 CCCCCA . Matrice diagonale : D = 0 @ 2 0 0 0 1 0 0 0 1 1 A. Matrice 1 3 0 @ 1 A 7 2 2 2 1 4 2 4 1 Polynôme caractéristique : P() = 3+3 2+3 = ( 1) ( + 1) ( 3). Valeurs propres : 1 = 1, 2 = 1, 3 = 3. Matrice de passage : P = 0 BBBBB@ 1 p 3 0 2 p 6 1 p 3 1 p 2 1 p 6 1 p 3 1 p 2 1 p 6 1 CCCCCA . Matrice diagonale : D = 0 @ 1 A. 1 0 0 0 1 0 0 0 3 22
  • 23. 5 Décompositions matricielles Corrigé ex. 24 : Décomposition en valeurs singulières Définitions et propriétés On considère une matrice A de taille mn (donc pas nécessairement carrée) et on note r son rang. On a donc r min(m; n). Il est facile de vérifier que la matrice tAA est carrée de taille n n et symétrique de rang r. Puisqu’elle est symétrique, elle est diagonalisable et ses valeurs propres sont réelles. On montre que ses valeurs propres sont même positives ou nulles. Traditionnellement, les valeurs propres non nulles de tAA sont notées 2 1; 2 2; : : : ; 2 r et sont rangées dans l’ordre décroissant, comme ceci : 2 1 2 2 2 r 0: Les nombres 1; 2; : : : ; r sont appelés les valeurs singulières de la matrice A. Autrement dit, les valeurs singulières de A sont les racines carrées des valeurs propres non nulles de tAA. Il y a r valeurs singulières (compte-tenu de l’ordre de multiplicité) et, puisque tAA est de taille n, la valeur propre 0 est de multiplicité n r. On montre qu’il est possible de trouver des matrices orthogonales U et V telles que la matrice A s’écrive sous la forme du produit A = V tU (1) où est une matrice de la même taille que la matrice A ayant les valeurs singulières sur sa diagonale et des 0 partout ailleurs. La matrice est dite parfois pseudo-diagonale. Elle a la forme suivante : = 0 BBBBBBBB@ 1 1 0 0 0 0 . . . 0 0 CCCCCCCCA 0 0 r 0 0 0 0 0 ... ... ... ... 0 0 0 0 Le produit matriciel de la relation (1) implique que la matrice V est carrée de taille m, la matrice U est carrée de taille n. La matrice est de taille mn comme A. Puisque U et V sont orthogonales, on peut inversement exprimer en fonction de A par la relation suivante : = tV AU (2) La relation (1) s’appelle décomposition en valeurs singulières de la matrice A. Cette décomposition est toujours possible mais n’est pas unique. Il est cependant facile de déterminer des matrices orthogonales U et V . Il se trouve en effet qu’on peut prendre pour la matrice U la matrice des vecteurs propres singuliers, c’est-à-dire la matrice 23
  • 24. de passage dans la diagonalisation de la matrice symétrique tAA. Si on appelle U1, U2,. . .,Un ces vecteurs propres, on définit alors r vecteurs V1, V2,. . .,Vr en posant Vi = 1 i AUi pour 1 i r: Si r m, on complète ensuite les Vi obtenus afin de former une base orthonormée. Les Vi constituent les colonnes de la matrice V . Modèle de résolution À titre d’exemple, prenons la matrice A = . 3 1 1 1 3 1 On commence par calculer la matrice M = tAA : M = tAA = = 0 @ 10 0 2 0 10 4 2 4 2 1 A Le polynôme caractéristique de M est : P() = 3 + 22 2 120 = ( 12) ( 10) Les valeurs propres sont donc 1 = 12, 2 = 10 et 3 = 0. Les valeurs singulières sont les racines carrées des valeurs propres non nulles, donc 1 = p 12 et 2 = p 10. La matrice sera la matrice pseudo-diagonale de même taille que A : = p 12 0 0 0 p 10 0 La diagonalisation de la matrice M = tAA conduit aux vecteurs propres suivants (qui forment une base orthonormée) : U1 = 0 BBBBBB@ 1 p 6 2 p 6 1 p 6 1 CCCCCCA U2 = 0 2 p 5 BBBB@ 1 p 5 0 1 CCCCA U3 = 0 1 p 30 2 p 30 BBBBBB@ 5 p 30 1 CCCCCCA On obtient donc la matrice orthogonale U : U = 0 BBBBBB@ 1 p 6 2 p 5 1 p 30 2 p 6 1 p 5 2 p 30 1 p 6 0 5 p 30 1 CCCCCCA Il ne reste plus qu’à calculer les vecteurs V1 et V2 par la formule Vi = 1 i AUi. On trouve : V1 = 1 1 AU1 = 1 p 12 3 1 1 1 3 1 0 BBBBBB@ 1 p 6 2 p 6 1 p 6 1 CCCCCCA = 0 BB@ p 2 2 p 2 2 1 CCA 24
  • 25. puis V2 = 1 2 AU2 = 1 p 10 3 1 1 1 3 1 0 2 p 5 BBBB@ 1 p 5 0 1 CCCCA = 0 BB@ p 2 2 p 2 2 1 CCA Les vecteurs V1 et V2 constituent les colonnes de la matrice V : V = 0 BB@ p 2 2 p 2 2 p 2 2 p 2 2 1 CCA On peut vérifier a posteriori que le produit V tU redonne bien la matrice A de départ : V tU = 0 BB@ p 2 2 p 2 2 p 2 2 p 2 2 1 CCA p 12 0 0 0 p 10 0 0 BBBBBB@ 1 p 6 2 p 6 1 p 6 2 p 5 1 p 5 0 1 p 30 2 p 30 5 p 30 1 CCCCCCA = p 6 p p p 5 0 6 5 0 0 BBBBBB@ 1 p 6 2 p 6 1 p 6 2 p 5 1 p 5 0 1 p 30 2 p 30 5 p 30 1 CCCCCCA = : 3 1 1 1 3 1 Solution de tous les exemples Matrice 3 1 1 1 3 1 V = 0 BB@ p 2 2 p 2 2 p 2 2 p 2 2 1 CCA = 0 @ p 12 0 0 0 p 10 0 1 A U = 0 BBBBBB@ 1 p 6 2 p 5 1 p 30 2 p 6 1 p 5 2 p 30 1 p 6 0 5 p 30 1 CCCCCCA 25
  • 26. Matrice 0 @ 1 A 1 1 1 0 1 1 V = 0 BBBBBB@ 1 p 3 1 p 2 1 p 6 1 p 3 0 2 p 6 1 p 3 1 p 2 1 p 6 1 CCCCCCA = 0 p 3 0 BBB@ 0 p 2 0 0 1 CCCA U = 1 0 0 1 Matrice 0 1 1 0 1 1 0 1 0 1 1 0 1 BB@ 1 CCA V = 0 BBBBBBBBBBB@ 1 2 1 2 p 2 2 0 1 2 1 2 p 2 2 0 1 2 1 2 0 p 2 2 1 2 1 2 0 p 2 2 1 CCCCCCCCCCCA = 0 BBBBBB@ p 6 0 0 0 1 CCCCCCA p 2 0 0 0 0 0 0 0 U = 0 BBBBBB@ 1 p 3 0 2 p 6 1 p 3 1 p 2 1 p 6 1 p 3 1 p 2 1 p 6 1 CCCCCCA Matrice 0 BBBB@ p 3=2 p 3=2 p 3=2 1 p 3=2 1 p 3=2 + 1 p 3=2 + 1 1 CCCCA V = 0 BBBBBB@ 1 p 3 0 2 p 6 1 p 3 1 p 2 1 p 6 1 p 3 1 p 2 1 p 6 1 CCCCCCA = 0 @ 1 A U = 3 0 0 2 0 0 0 BB@ 1 p 2 1 p 2 1 p 2 1 p 2 1 CCA 26
  • 27. Corrigé ex. 25 : Décomposition LU Modèle de résolution Prenons, à titre d’exemple, la matrice A = 0 @ 1 A. 2 4 1 6 14 6 4 10 3 On doit trouver une matrice triangulaire inférieure L et une matrice triangulaire supérieure U dont le produit est égal à la matrice donnée. La condition nécessaire et suffisante pour que cette décomposition soit possible est que les mineurs principaux “nord-ouest” (situés en haut à gauche de la matrice) soient non nuls. Si de plus le déterminant de la matrice elle-même est non nul alors la décomposition est unique. On vérifie ici que : det(2) = 26= 0 det 2 4 6 14 = 46= 0 det 0 @ 2 4 1 6 14 6 4 10 3 1 A = 86= 0 On applique une méthode du pivot qui construira la matrice U et on remplit au fur et à mesure les éléments de la matrice L. Au départ la matrice L est égale à 0 @ 1 0 0 : 1 0 : : 1 1 A. Première étape On prend la première ligne comme ligne pivot et on cherche à faire apparaître des 0 dans la première colonne sous le terme pivot (ici 2). On fait pour cela des combinaisons linéaires avec la ligne pivot L1. On remplace la deuxième ligne L2 par L2 3L1. On obtient la matrice : 0 @ 1 A 2 4 1 0 2 3 4 10 3 Le coefficient a21 a11 = 3 (qui a servi à faire la combinaison) devient le terme d’indice (2; 1) de la matrice L. De même, on remplace la troisième ligne L3 par L3 + 2L1. On obtient maintenant la matrice : A0 = 0 @ 1 A 2 4 1 0 2 3 0 2 1 Le coefficient a31 a11 = 2 (qui a servi à faire la combinaison) devient le terme d’indice (3; 1) de la matrice L. 27
  • 28. À ce stade, la matrice L est égale à 0 @ 1 A. 1 0 0 3 1 0 2 : 1 Deuxième étape La première ligne et la première colonne ont été traitées. On recommence mainte-nant la même procédure sur le sous-bloc suivant : 0 2 4 1 0 0 B@ 2 3 2 1 1 CA Dans ce sous-bloc , la première ligne va servir de ligne pivot et il faut 2 3 2 1 faire apparaître un 0 dans la première colonne sous le terme pivot 2. Pour cela, on remplace la troisième ligne L3 de la matrice A0 par L3 + L2 et on obtient maintenant la matrice : A00 = 0 @ 1 A 2 4 1 0 2 3 0 0 2 Le coefficient a0 32 a0 22 = 1 (qui a servi à faire la combinaison) devient le terme d’indice (3; 2) de la matrice L. À ce stade, la matrice L est égale à 0 @ 1 A. 1 0 0 3 1 0 2 1 1 La procédure est complète. La matrice A00 obtenue est triangulaire supérieure : c’est la matrice U recherchée. On peut vérifier effectivement que : 0 @ 1 A 1 0 0 3 1 0 2 1 1 0 @ 2 4 1 0 2 3 0 0 2 1 A = 0 @ 2 4 1 6 14 6 4 10 3 1 A: Solution de tous les exemples 25-1) Tous les exemples de cette question peuvent être factorisés. On donne ci-dessous les deux matrices triangulaires L et U dont le produit L U est égal à la matrice initiale. Matrice 2 3 2 1 L = 1 0 1 1 U = 2 3 0 4 28
  • 29. Matrice 3 2 6 5 L = 1 0 2 1 U = 3 2 0 1 Matrice b c a b a c + b L = 1 0 a 1 U = b c 0 b Matrice 0 @ 1 A 3 4 1 6 7 4 3 6 2 L = 0 @ 1 A U = 1 0 0 2 1 0 1 2 1 0 @ 1 A 3 4 1 0 1 2 0 0 1 Matrice 0 @ 1 A 2 4 1 6 14 6 4 10 3 L = 0 @ 1 A U = 1 0 0 3 1 0 2 1 1 0 @ 2 4 1 0 2 3 0 0 2 1 A Matrice 0 @ 1 A 2 5 1 8 24 1 2 7 19 L = 0 @ 1 A U = 1 0 0 4 1 0 1 3 1 0 @ 1 A 2 5 1 0 4 5 0 0 3 Matrice 0 4 2 3 1 4 4 5 4 8 10 11 15 4 4 3 15 BB@ 1 CCA L = 0 BB@ 1 1 0 0 0 1 1 0 0 2 3 1 0 1 1 2 1 CCA U = 0 4 2 3 1 0 2 2 3 0 0 1 4 0 0 0 3 BB@ 1 CCA 29
  • 30. Matrice 0 3 0 4 1 1 15 1 22 5 8 9 2 15 6 11 12 2 12 7 4 3 5 12 4 21 BBBB@ 1 CCCCA L = 0 1 0 0 0 0 5 1 0 0 0 3 2 1 0 0 4 2 0 1 0 1 5 2 1 1 BBBB@ 1 CCCCA U = 0 3 0 4 1 1 0 1 2 0 3 0 0 1 3 2 0 0 0 3 2 0 0 0 0 1 BBBB@ 1 CCCCA 25-2) La matrice A = 0 @ 1 2 3 2 4 5 1 3 2 1 A ne vérifie pas le critère indiqué précé-demment concernant les mineurs principaux “nord-ouest”. En effet, le déterminant du mineur de taille 2 est nul : det 1 2 2 4 = 0. Cette matrice n’admet donc pas de décomposition LU. On transpose les lignes et les colonnes d’indices 2 et 3. On obtient alors la matrice suivante : A0 = 0 @ 1 A 1 3 2 1 2 3 2 5 4 La matrice A0 vérifie le critère. En appliquant l’algorithme, on obtient : L = 0 @ 1 A U = 1 0 0 1 1 0 2 1 1 0 @ 1 3 2 0 1 5 0 0 5 1 A La matrice qui effectue la permutation des lignes et colonnes d’indices 2 et 3 est : P = 0 @ 1 A 1 0 0 0 0 1 0 1 0 On a donc la relation A = P L U. Corrigé ex. 26 : Décomposition de Cholesky Toutes les matrices de cet exercice sont des matrices symétriques définies positives. On peut le vérifier en calculant leurs mineurs principaux “nord-ouest” qui sont tous strictement positifs. Par exemple, dans le cas de la matrice A = 0 @ 1 2 1 2 8 2 1 2 14 1 A, on vérifie que 30
  • 31. det(1) = 1 0 det 1 2 2 8 = 4 0 det 0 @ 1 A = 36 0 1 2 1 2 8 2 1 2 14 On peut donc rechercher une décomposition de Cholesky, c’est-à-dire une matrice triangulaire inférieure L telle que la matrice A s’écrive sous la forme A = LtL. Modèle de résolution Prenons, à titre d’exemple, la matrice A A = 0 @ 1 A précédente. 1 2 1 2 8 2 1 2 14 Si on écrit la matrice A donnée et la matrice L recherchée sous forme de matrices par blocs, elles ont la forme suivante : A = 11 B a21 A22 L = 11 0 l21 L22 où 11 et 11 sont des nombres, a21 et l21 sont des vecteurs colonnes et A22 et L22 sont des sous-blocs carrés. On effectue le produit LtL et on l’identifie avec A. On obtient les relations sui-vantes : 8 : 11 = 2 11 a21 = 11l21 A22 = l21 tl21 + L22 tL22 On en déduit que 8 : 11 = p 11 l21 = a21=11 A22 l21 tl21 = L22 tL22 Les deux premières égalités permettent de calculer la première colonne de L et la troi-sième signifie qu’il suffit de calculer la quantité A22 l21 tl21 (qui est un bloc de taille 2) et de lui appliquer à nouveau la même procédure. On a donc ici : 8 : 11 = p 1 = 1 l21 = a21=1 = ! 2 1 et d’autre part : A22 l21 tl21 = 8 2 2 14 2 1 2 1 = 8 2 2 14 4 2 2 1 = 4 4 4 13 31
  • 32. On a pour l’instant trouvé la première colonne de la matrice L. On arrive à la matrice suivante : 0 1 0 0 2 1 B@ 4 4 4 13 1 CA On recommence la procédure avec la sous-matrice de taille 2 encadrée : 4 4 4 13 . Cette fois on obtient : ( 11 = p 4 = 2 l21 = a21=2 = 4=2 = 2 A22 l21 tl21 = 13 2 2 = 9: On arrive à la matrice suivante:0 1 0 0 2 2 0 1 2 9 @ 1 A On termine en appliquant à nouveau la procédure au sous-bloc de taille 1 encadré : 11 = p 9 = 3: Finalement la matrice recherchée est L = 0 @ 1 A 1 0 0 2 2 0 1 2 3 On peut vérifier facilement que LtL = 0 @ 1 A 1 0 0 2 2 0 1 2 3 0 @ 1 2 1 0 2 2 0 0 3 1 A = 0 @ 1 A = A 1 2 1 2 8 2 1 2 14 Solution de tous les exemples Pour tous les exemples de l’exercice, on indique ci-dessous la matrice triangulaire inférieure L telle que le produit LtL soit égal à la matrice donnée. Matrice 1 1 1 2 L = 1 0 1 1 Matrice 1 1 1 5 L = 1 0 1 2 32
  • 33. Matrice 4 6 6 10 L = 2 0 3 1 Matrice 1 a a a2 + 1 L = 1 0 a 1 Matrice a2 a2 a2 2 a2 L = a 0 a a Matrice 0 @ 1 A 1 2 1 2 8 2 1 2 14 L = 0 @ 1 A 1 0 0 2 2 0 1 2 3 Matrice 0 @ 1 A 1 2 1 2 5 0 1 0 6 L = 0 @ 1 A 1 0 0 2 1 0 1 2 1 Matrice 0 @ 16 4 4 4 5 3 4 3 11 1 A L = 0 @ 1 A 4 0 0 1 2 0 1 1 3 Matrice 0 1 1 1 1 1 2 4 2 1 4 11 7 1 2 7 20 BB@ 1 CCA L = 0 1 0 0 0 1 1 0 0 1 3 1 0 1 1 3 3 BB@ 1 CCA 33