+ All Categories
Home > Documents > Algèbre linéaire - Julie Scholler

Algèbre linéaire - Julie Scholler

Date post: 21-Jan-2023
Category:
Upload: khangminh22
View: 0 times
Download: 0 times
Share this document with a friend
83
Année 2019-2020 L2 É CONOMIE M ODULE 2-O UTILS Q UANTITATIFS M ATHÉMATIQUES POUR L ’É CONOMISTE 3 Algèbre linéaire Julie Scholler
Transcript

Année 2019-2020

L2 ÉCONOMIE

MODULE 2 - OUTILS QUANTITATIFSMATHÉMATIQUES POUR L’ÉCONOMISTE 3

Algèbre linéaire

Julie Scholler

Table des matières

Chapitre 1 - Systèmes linéaires 51.1 Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.1.1 Équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.1.2 Généralités sur les systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.1.3 Exemples de résolutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.1.4 Interprétation matricielle d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . 8

1.2 Systèmes échelonnés et leur résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.2.1 Systèmes échelonnés et échelonnés réduits . . . . . . . . . . . . . . . . . . . . . . . . . 91.2.2 Compatibilité d’un système linéaire échelonné . . . . . . . . . . . . . . . . . . . . . . . 101.2.3 Rang et structure des solutions d’un système linéaire échelonné . . . . . . . . . . . . . 11

1.3 Résolution de systèmes linéaires : algorithme de Gauss–Jordan . . . . . . . . . . . . . . . . . 141.3.1 Opérations élémentaires sur les lignes . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.3.2 Algorithme du pivot de Gauss–Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . 161.3.3 Rang et structure de l’ensemble des solutions . . . . . . . . . . . . . . . . . . . . . . . 191.3.4 Systèmes homogènes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

1.4 Systèmes linéaires à paramètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.4.1 Systèmes linéaires à paramètres dans le second membre . . . . . . . . . . . . . . . . . 211.4.2 Systèmes linéaires à paramètres dans les coefficients . . . . . . . . . . . . . . . . . . . 21

Chapitre 2 - Algèbre des matrices 232.1 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2.1.1 Égalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232.1.2 Somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242.1.3 Multiplication par un nombre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252.1.4 Multiplication matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252.1.5 Propriétés de la multiplication matricielle . . . . . . . . . . . . . . . . . . . . . . . . . 272.1.6 La transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.2 Matrices particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302.3 Retour aux systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.3.1 Interprétation matricielle d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . 332.3.2 Matrices élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352.3.3 Écriture matricielle de la méthode de Gauss–Jordan . . . . . . . . . . . . . . . . . . . 37

2.4 Le cas particulier des matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372.4.1 Inversibilité et inverse des matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . 372.4.2 Conditions nécessaires et suffisantes d’inversibilité . . . . . . . . . . . . . . . . . . . . 382.4.3 Inversion et opérations algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402.4.4 Calcul pratique de l’inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402.4.5 Puissance d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

Chapitre 3 - Déterminant d'une matrice 453.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473.3 Déterminant et inversibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

Chapitre 4 - Les espaces Rn et la notion d'espace vectoriel 554.1 Vecteurs de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

4.1.1 Interprétation géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 554.1.2 Combinaisons linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 564.1.3 Familles génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

1

TABLE DES MATIÈRES

4.1.4 Familles libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 584.1.5 Base de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

4.2 Espaces vectoriels et sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . 614.2.1 Sous-espaces vectoriels de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 614.2.2 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 644.2.3 Sous-espaces vectoriels associés à une matrice . . . . . . . . . . . . . . . . . . . . . . . 64

4.3 Compléments : espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

Chapitre 5 - Diagonalisation de matrices 695.1 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 695.2 Matrices diagonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 725.3 Application au calcul de puissance de matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 755.4 Un tour dans C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

Chapitre A -Application détaillée de l'algorithme de Gauss�Jordan 79A.1 Mise sous forme échelonné : la descente de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . 79A.2 La mise sous forme échelonné réduite : la remonté de Jordan . . . . . . . . . . . . . . . . . . 80

2

Introduction

Ce cours est une introduction aux mathématiques linéaires.

Algébriquement, une équation ou un système linéaire ne fait intervenir que des puissances premières desvariables (ou des inconnues) et aucune multiplications entre elles. Par exemple, les problèmes suivants sontlinéaires :

x− y = 2 ;{x+ 2y = 03x− y = 1

;

x1 + 2x2 = 0x1 − z3 = 1x2 + x3 = 0

et les problèmes suivants ne sont pas linéaires

xy = 2 ;{x+ 2y = 03x− y2 = 1

;

√x1 + 2x2 = 0

x1 − z3 = 1x2 + x3 = 0

La simplicité induite par les structures linéaires permet une théorie mathématique très complète. Enparticulier, nous verrons une méthode systématique pour résoudre des systèmes linéaires pour n’importe quelnombre d’équations et d’inconnues.Bien que les problèmes sont rarement linéaires 1, la théorie linéaire permet beaucoup de choses via notammentla linéarisation qui est une grande victoire de l’analyse mathématique.Disons simplement dans cette introduction que, dans une première approximation, on peut considérer que lesphénomènes sont linéaires et donner une description complète de ceci.Plus généralement, l’algèbre linéaire irrigue tous les domaines des mathématiques qu’elles soient pures ouappliquées. En économie, c’est un outil fondamental, notamment en économétrie et en statistiques descriptives,mais également pour les méthodes d’optimisation en microéconomie et dans l’étude de nombreux modèles demacroéconomie.

Plan du cours : Nous commencerons par une étude systématique des systèmes linéaires puis nous définironsle calcul matriciel. Nous introduirons ensuite le déterminant, un outil essentiel qui nous permettra d’étudier lesnotions de bases et de sous-espaces vectoriels. Nous appliquerons tout cela pour introduire la notion centralede valeurs propres/vecteurs propres et nous appliquerons ces notions à la diagonalisation et à l’optimisation.Ce cours est majoritairement basé sur celui donné par M. Sten Madec les années précédentes.

Quelques repères historiques : Les équations linéaires ont été au centre des préoccupations de Al-Khawarizmi 2 puis de R. Descartes 3 qui a développé le point de vue géométrique. Le développementsystématique de la théorie a attendu le XIX avec notamment J-C-F. Gauss 4 qui a accompli des progrès fonda-mentaux et C. Jordan 5 qui a résolu complètement la problématique de la diagonalisation en dimensions finies(voir le chapitre V). Le point de vue moderne et abstrait, qui est enseigné dans les filières de mathématiques etqu’on ne ferra qu’effleurer dans le chapitre IV, a été développé par G. Peano 6 à la fin du XIXe. Le XXe siècle,a vu le développement de l’algèbre linéaire en dimensions infinies pour les besoins de l’analyse et de la topologie.

1. Une blague de matheux : Classer les problèmes mathématiques en tant que linéaire et non-linéaire c’est comme classer leschoses de l’Univers en tant que bananes et non-bananes.

2. Bagdad de 780-850 environ. Inventeur du mot "Al jabr" : algèbre, son nom est à l’origine du mot algorithme.3. France, 1596-16504. le prince des mathématiciens, Allemagne, 1777-1855.5. France, 1838-19226. Italie, 1858-1932, un des pères des fondements des mathématiques modernes

3

Introduction

4

Chapitre 1

Systèmes linéaires

Dans toute la suite, n et p désignent deux entiers naturels non nuls.

1. Systèmes linéaires

1.1. Équations linéaires

Définition. Équation linéaire

Soient a1, . . . , ap et b des éléments de R.• On appelle équation linéaire à p inconnues toute équation de la forme :

a1x1 + · · ·+ apxp = b.

• Les variables x1, . . . , xp sont appelées les inconnues de l’équation.• Les éléments a1, . . . , ap de R sont appelés les coefficients de l’équation.• L’élément b de R est appelé le second membre de l’équation.L’équation est dite homogène ou sans second membre si et seulement si b est nul.L’équation a1x1 + · · · + apxp = 0 est appelée l’équation homogène associée à l’équationa1x1 + · · ·+ apxp = b.

Remarque.En pratique, on notera souvent x, y, z, . . . à la place de x1, x2, x3, . . . et a, b, c, . . . à la place de a1, a2, a3, . . .

1.2. Généralités sur les systèmes linéaires

Définition. Systèmes d'équations linéaires

Soient (ai,j)(i,j)∈J1,nK×J1,pK et (b1, . . . , bn) des élémentsde R.

On appelle système linéaire de n équations à pinconnues tout système de la forme ci-contre.

On dit qu’il est carré si et seulement si n = p.

a1,1x1 + a1,2x2 + · · ·+ a1,pxp = b1 (L1)

a2,1x1 + a2,2x2 + · · ·+ a2,pxp = b2 (L2)...

an,1x1 + an,2x2 + · · ·+ an,pxp = bn (Ln)

5

CHAPITRE 1. SYSTÈMES LINÉAIRES

Définition.

• Les variables x1, . . . , xp sont appelées les inconnues du système linéaire.• Les éléments (ai,j)(i,j)∈J1,nK×J1,pK sont appelés les coefficients du système linéaire.Le premier indice correspond au numéro de la ligne (équation) et le second au numéro de lacolonne (inconnue).• L’élément (b1, . . . , bn) de Rn est appelé le second membre du système linéaire.

Le système est dit homogène ou sans second membre si et seulement si le second membre estnul.• On appelle système linéaire homogène associé le système

a1,1x1 + a1,2x2 + · · ·+ a1,pxp = 0

a2,1x1 + a2,2x2 + · · ·+ a2,pxp = 0...

an,1x1 + an,2x2 + · · ·+ an,pxp = 0

Exemple.Soit le système {

4x1 − 3x2 = −22x1 + 2x2 = 6

(1.1)

Ici, les inconnues sont x1, x2, les coefficients du premier membre sont a11 = 4, a12 = −3, a21 = 2, a22 = 2 etles coefficients du second membres sont b1 = −2 et b2 = 6.Le système {

4x1 − 3x2 = 02x1 + 2x2 = 0

(1.2)

est le système homogène associé au système (1.1).

Définition. Résolution d'un système, Système compatible

Résoudre un système linéaire dans Rp, c’est trouver l’ensemble des solutions dans Rp du système,c’est-à-dire l’ensemble des éléments (x1, . . . , xp) de Rp qui vérifient toutes les équations.On dit qu’un système est compatible si et seulement s’il admet au moins une solution et incompatiblesinon.

Exemple.Le couple (1, 2) est une solution du système (1.1). En effet, si on remplace (x1, x2) par (1, 2), les deuxéquations sont vérifiées : 4× 1− 3× 2 = −2 et 2× 1 + 2× 2 = 6.

1.3. Exemples de résolutions

Exemple.Résolvons le système (1.1) dans R2.Étape 1 (analyse) : Soit (x1, x2) ∈ R2 une solution de (1.1). Alors on a{

4x1 − 3x2 = −22x1 + 2x2 = 6

6

CHAPITRE 1. SYSTÈMES LINÉAIRES

D’après la seconde équation, on a x2 = 3− x1 et en remplaçant dans la première équation on obtient

4x1 − 3(3− x1) = −2 ⇔ 7x1 = 7 ⇔ x1 = 1.

et donc x2 = 3− 1 = 2.On vient de montrer que si (x1, x2) est une solution de (1.1) alors (x1, x2) = (1, 2).Étape 2 (synthèse) : On vérifie que cette solution (1, 2) est bien une solution de (1.1) (voir exempleprécédent).Conclusion : Le système (1.1) n’admet qu’une seule solution, le couple (1, 2). Ainsi, l’ensemble des solutionsdu système (1.1) est

S = {(1, 2)}.Ce système est donc compatible.

Exemple.Résolvons le système suivant dans R2.

4x1 − 3x2 = −22x1 + 2x2 = 6x1 + x2 = 0

(1.3)

Étape 1 (analyse) : si (x1, x2) est solution de (1.3) alors les deux premières équations donnent{4x1 − 3x2 = −22x1 + 2x2 = 6

ce qui implique (comme on l’a déjà vu) (x1, x2) = (1, 2).On vient de montrer que si (x1, x2) est une solution de (1.3) alors (x1, x2) = (1, 2).Étape 2 (synthèse) : En posant (x1, x2) = (1, 2) dans (1.3), on obtient

0 = 00 = 03 = 0

ce qui est impossible.Conclusion : Le système (1.3) n’admet aucune solution. L’ensemble des solutions du système (1.3) est

S = ∅

Ce système est donc incompatible.

Remarque.La phase d’analyse procède par implication : on suppose qu’une solution existe et on cherche ce que celaimplique sur cette éventuelle solution. La phase de synthèse permet de s’assurer que l’on a pas oublié desinformations au passage comme le montre l’exemple précédent.La méthode systématique d’analyse que nous verrons plus bas utilisera un raisonnement par équivalence cequi assurera que l’on a oublié aucune information et rendra donc inutile la phase de synthèse.

Exemple.Résolvons le système suivant dans R2 :

{2x− 4y = 2.

Étape 1 (analyse) : si (x, y) est solution du système alors on a{x = 1 + 2y.

On vient de montrer que si (x, y) est une solution du système alors (x, y) = (1 + 2y, y).Étape 2 (synthèse) : En posant (x, y) = (1 + 2y, y), on obtient

{2(1 + 2y)− 4y = 2 ce qui est vrai.

Conclusion : Ce système admet une infinité de solution. L’ensemble des solutions du système est

S = {(1 + 2y, y), y ∈ R}.

L’ensemble des solutions S est une droite de R2.

7

CHAPITRE 1. SYSTÈMES LINÉAIRES

1.4. Interprétation matricielle d'un système linéaire

Définition. Matrices

On appelle matrice de taille (n, p) ou matriceà n lignes et p colonnes à coefficients dans Rtoute famille

A = (ai,j)(i,j)∈J1,nK×J1,pK

d’éléments de R, que l’on représente sous la formed’un tableau rectangulaire comme ci-contre.

A =

a1,1 a1,2 . . . a1,j . . . a1,p

a2,1 a2,2 . . . a2,j . . . a2,p

ai,1 ai,2 . . . ai,j . . . ai,p

an,1 an,2 . . . an,j . . . an,p

• Le premier indice correspond au numéro de la ligne et le second au numéro de la colonne.• On noteMn,p(R) l’ensemble des matrices à n lignes et p colonnes à coefficients dans R.• Les nombres ai,j sont appelés les coefficients de la matrice A.• Si le nombre de colonnes est égal au nombre de lignes, alors on dit que la matrice est carrée.

On noteMn(R) l’ensemble des matrices carrées de taille (ou d’ordre) n à coefficients dans R.

Un système linéaire de n équations à p in-connues est naturellement associé à deux ma-trices.

a1,1x1 + a1,2x2 + · · ·+ a1,pxp = b1 (L1)

a2,1x1 + a2,2x2 + · · ·+ a2,pxp = b2 (L2)...

an,1x1 + an,2x2 + · · ·+ an,pxp = bn (Ln)

• La matrice du système linéaire, formée descoefficients du système, qui décrit entièrement lesystème linéaire homogène associé :

A =

a1,1 a1,2 a1,p

a2,1 a2,2 a2,p

an,1 an,2 an,p

∈Mn,p(R)

• La matrice augmentée du système linéaire,formée des coefficients du système et du secondmembre, qui décrit entièrement le système li-néaire :

(A | B) =

a1,1 a1,2 . . . a1,p

a2,1 a2,2 . . . a2,p...

......

...

an,1 an,2 . . . an,p

∣∣∣∣∣∣∣∣∣∣∣∣∣

b1

b2...

bn

∈Mn,p+1(R)

Dans cette représentation, la barre verticale estfacultative mais conseillée pour distinguer les co-efficients du second membre.

Nous allons voir que les opérations que nous allons effectuer sur le système se traduisent par des opérationssur ses coefficients et sur son second membre (mais pas sur ses inconnues), et donc sur la matrice augmentéedu système.Il est plus rapide d’effectuer les opérations sur la matrice augmentée car on utilise moins de symboles, lescalculs sont les mêmes et la présentation en colonnes facilite les calculs.

8

CHAPITRE 1. SYSTÈMES LINÉAIRES

2. Systèmes échelonnés et leur résolution

2.1. Systèmes échelonnés et échelonnés réduits

Certains types de systèmes sont très faciles à résoudre.

Définition. Système linéaire échelonné

On dit qu’un système linéaire est échelonné si et seulement si le nombre de coefficients nuls au débutde chaque équation augmente strictement d’une équation à la suivante, pour finir éventuellement pardes équations dont tous les coefficients sont nuls (mais dont les seconds membres peuvent être nonnuls).Dans ce cas, le premier coefficient non nul de chaque équation, s’il existe, s’appelle un pivot.Les variables correspondante à un pivot sont appelées variables liées. Les variables ne correspondantà aucun pivot sont appelées variables libres.

On reconnait facilement un système échelonné à sa forme : les coefficients nuls au début des équations formentun escalier descendant de gauche à droite, avec une marche à chaque équation jusqu’aux éventuelles lignesnulles.

Définition. Matrice échelonnée par lignes

Une matrice est dite échelonnée par lignes si chaque ligne non nulle commence par strictementplus de 0 que la ligne précédente.On appelle pivot le premier coefficient non nul de chaque ligne non nulle.

On reconnait une matrice échelonnée par lignes à sa forme : les coefficients nuls au début des lignes formentun escalier descendant de gauche à droite, avec une marche à chaque ligne jusqu’aux éventuelles lignes nulles.Un système linéaire est échelonné si et seulement si la matrice de ce système est échelonnée en lignes.Les pivots d’un système linéaire échelonné sont les pivots de la matrice de ce système.

Définition. Système réduit

On dit qu’un système linéaire échelonné est réduit si et seulement si tous ses pivots sont égaux à1 et si pour chaque inconnue admettant un pivot, les coefficients en cette inconnue sont tous nuls àl’exception du pivot.

Définition. Matrice réduite par lignes

On dit qu’une matrice est échelonnée réduite (par lignes) si et seulement si elle est échelonnéepar lignes, si tous ses pivots sont égaux à 1 et si tous les coefficients au-dessus (et en dessous) despivots sont nuls.

Un système linéaire échelonné est réduit si et seulement si sa matrice est échelonnée réduite par lignes.

Exemples.Les systèmes (1.1) et (1.3) ne sont pas échelonnés.

Le système

2x −y = 10

y = 0correspond à la matrice

2 −1

0 1

.Ce système est échelonné mais n’est pas échelonné réduit.Les pivots sont 2 sur la première ligne et 1 sur la deuxième ligne et correspondent respectivement aux

9

CHAPITRE 1. SYSTÈMES LINÉAIRES

variables liées x et y. Il n’y a pas de variable libre.

Le système

2x +y +z = 1

−y = 0correspond à la matrice

2 1 1

0 −1 0

.Ce système est échelonné mais n’est pas échelonné réduit.Les pivots sont 2 sur la première ligne et −1 sur la deuxième ligne et correspondent respectivement auxvariables liées x et y. La variables z ne correspond à aucun pivot. z est donc une variable libre.

Le système

2x +y +z = 1

10z = 0correspond à la matrice

2 1 1

0 0 10

.Ce système est échelonné mais n’est pas échelonné réduit.Les pivots sont 2 sur la première ligne et 10 sur la deuxième ligne et correspondent respectivement auxvariables liées x et z. La variables y ne correspond à aucun pivot. y est donc une variable libre.

Le système

x −y = 1

z = 0correspond à la matrice

1 −1 0

0 0 1

.Ce système est échelonné réduit.Les pivots sont 1 sur la première ligne et 1 sur la deuxième ligne et correspondent respectivement auxvariables liées x et z. La variables y ne correspond à aucun pivot. y est donc une variable libre.

2.2. Compatibilité d'un système linéaire échelonné

Un système échelonné n’a pas forcément de solution.

Définition. Équations de compatibilité

Dans un système linéaire échelonné, les éventuelles dernières lignes de la forme 0 = b, où b est uneconstante, sont appelées les équations de compatibilité du système linéaire.

Une équation de compatibilité est triviale : soit elle est toujours vérifiée (si b = 0), soit elle ne l’est jamais.

Proposition. Compatibilité d'un système linéaire échelonné

Un système linéaire échelonné est compatible si et seulement s’il n’admet aucune équation de compati-bilité fausse.

Démonstration.

• Si un système linéaire admet une équation de compatibilité fausse, alors il n’admet aucune solution carcette équation ne sera jamais vérifiée.

• Si un système linéaire échelonné n’admet aucun équation de compatibilité (ou des équations de compati-bilité toujours vérifiées de la forme « 0 = 0 »), alors il admet au moins une solution, que l’on obtient parsubstitution.

Remarque (Existence de solutions).L’existence de solutions d’un système linéaire échelonné dépend uniquement de ses éventuelles équationsde compatibilité, pas des autres équations. Elle dépend du second membre de manière cruciale.

10

CHAPITRE 1. SYSTÈMES LINÉAIRES

2.3. Rang et structure des solutions d'un système linéaire échelonné

Les systèmes échelonnés sont très simples à résoudre (en partant de la dernière ligne). Il suffit de passer lesvariables libres dans le second membre et de résoudre en partant de la dernière ligne. Les systèmes échelonnésréduits quand à eux sont quasiment dans une forme résolue. Il suffit de passer les variables libres à droite.

Exemple.Soit le système {

x+ z = −1y − 2z = 2.

Ce système est un système échelonné réduit. En effet sa matrice étendue est 1 0 1 −1

0 1 −2 2

.Les variables liées sont x et y et la variable libre est z. Les solutions sont donc tous les couples (x, y, z)vérifiant x = −1− z et y = 2 + 2z. L’ensemble des solutions est

S = {(−1− z, 2 + 2z, z), z ∈ R}.

C’est une droite de R3.

Définition. Rang d'un système échelonné

On appelle rang d’un système linéaire échelonné (S), et on note rang(S), le nombre de pivots dusystème (S).

Quitte à réordonner les inconnues,tout système linéaire échelonnéà n équations et p inconnues derang r peut s’écrire comme ci-contre.

Dans ce cas, les inconnues(x1, . . . , xr) sont les variables liéeset les inconnues (xr+1, . . . , xn)sont les variables libres (si r < p).

Le rang d’un système linéairene dépend pas de son secondmembre.

a1,1x1 + a1,2x2 + a1,3x3+ . . . +a1,pxp = b1 (L1)

a2,2x2 + a2,3x3+ . . . +a2,pxp = b2 (L2). . . ...

ar,rxr + · · ·+ ar,pxp = br (Lr)

0 = br+1 (Lr+1)...

0 = bn (Ln)

Définition. Rang d'une matrice échelonnée par lignes

On appelle rang d’une matrice échelonnée par lignes son nombre de pivots.

Proposition. Majoration du rang

Le rang d’un système linéaire échelonné est inférieur à son nombre d’inconnues et à son nombred’équations.Le rang d’une matrice échelonnée par lignes est inférieur à son nombre de colonnes et à son nombre delignes.

11

CHAPITRE 1. SYSTÈMES LINÉAIRES

Remarque.Le rang r d’un système linéaire échelonné étant égal au nombre de variables liées (inconnues correspondant àdes pivots), il est nécessairement inférieur ou égal au nombre p d’inconnues : r 6 p.

Proposition. Résolution d'un système linéaire échelonné compatible

On considère un système linéaire échelonné à p inconnues, de rang r et compatible.• Si r = p, c’est-à-dire si le système a autant de pivots que d’inconnues, alors il admet une unique

solution.• Si r < p, c’est-à-dire si le système admet strictement moins de pivots que d’inconnues, alors iladmet une infinité de solutions et l’ensemble des solutions peut être paramétré par les p − rvariables libres).

Démonstration.• Si r = p, c’est-à-dire si le système a autant de pivots que d’inconnues, alors il admet une unique solution,

obtenue par substitution : on détermine la valeur de chaque inconnue en partant de la dernière ligne et enremontant en substituant à chaque étape les valeurs des inconnues déterminées aux étapes précédentes.• Si r < p, c’est-à-dire si le système admet strictement moins de pivots que d’inconnues, alors on exprime

les r variables liées (correspondant à des pivots) à l’aide des p− r variables libres (ne correspondant pasà des pivots) que l’on passe dans le membre de droite et on procède par substitution en commençant parla dernière équation.L’ensemble des solutions est alors paramétré par p− r paramètres : les variables libres.

Remarque.Dans un système linéaire échelonné compatible à p inconnues, si le rang est égal à• p, alors il admet une unique solution ;• p− 1, alors l’ensemble des solutions est une droite paramétrée par 1 paramètre ;• p− 2, alors l’ensemble des solutions est un plan paramétré par 2 paramètres.

Remarque.On fera toujours l’analyse d’un système linéaire échelonné : on précise si le système est compatible (indiquerles éventuelles équations de compatibilité) et on précise le rang puis on le compare aux nombres d’inconnueet d’équations.

Exemple.1. (a) Le système linéaire échelonné à 1 équation et 3 inconnues x+ 2y + 3z = 4 est de rang 1.

La variable liée est x et les variables libres sont y et z.Il admet une infinité de solutions paramétrée par 3− 1 = 2 paramètres :{

(x, y, z) ∈ R3, x+ 2y + 3z = 4}

={

(4− 2y − 3z, y, z), (y, z) ∈ R2}

={

(4, 0, 0) + y(−2, 1, 0) + z(−3, 0, 1), (y, z) ∈ R2}

L’ensemble des solutions est le plan passant par le point (4, 0, 0) et ayant pour base les vecteurs noncolinéaires (−2, 1, 0) et (−3, 0, 1).

(b) Le système linéaire échelonné à 1 équation et 3 (pas 2) inconnues x+ 3z = 0 est de rang 1.la variable liée est x et les variables libres sont y et z.Il admet une infinité de solutions paramétrée par 3− 1 = 2 paramètres :{

(x, y, z) ∈ R3, x+ 3z = 0}

={

(−3z, y, z), (y, z) ∈ R2}

={y(0, 1, 0) + z(−3, 0, 1), (y, z) ∈ R2

}12

CHAPITRE 1. SYSTÈMES LINÉAIRES

L’ensemble des solutions est le plan passant par le point (0, 0, 0) et ayant pour base les vecteurs noncolinéaires (0, 1, 0) et (−3, 0, 1).Il n’y aucune contrainte sur y donc cette variable est quelconque (pas nécessairement nulle).

2. (a) Le système linéaire échelonné à 2 équations et 3 inconnues

x +2y +3z = 4

y +2z = 5est de rang 2.

Les variables liées sont x et y et la variable libre est z.Il admet une infinité de solutions paramétrée par 3− 2 = 1 paramètre : x +2y +3z = 4

y +2z = 5⇐⇒

x = 4 −2y −3z

y = 5 −2z⇐⇒

x = −6 +z

y = 5 −2z

L’ensemble des solutions{(x, y, z) ∈ R3, x = −6 + z, y = 5− 2z

}= {(−6 + z, 5− 2z, z), z ∈ R} = {(−6, 5, 0) + z(1,−2, 1), z ∈ R}

est la droite passant par le point (−6, 5, 0) et de vecteur directeur (1,−2, 1).

(b) Le système linéaire échelonné à 2 équations et 3 inconnues

x +2y +3z = 5

z = 1est de rang 2.

Les variables liées sont x et z et la variable libre est y.Il admet une infinité de solutions paramétrée par 3− 2 = 1 paramètre : x +2y +3z = 6

z = 1⇐⇒

x = 6 −2y − 3z

z = 1⇐⇒

x = 3 −2y

z = 1

L’ensemble des solutions{(x, y, z) ∈ R3, x = 3− 2y, z = 1

}= {(3− 2y, y, 1), z ∈ R} = {(3, 0, 1) + y(−2, 1, 0), z ∈ R} .

est la droite passant par le point (3, 0, 1) et de vecteur directeur (−2, 1, 0).

3. Le système linéaire échelonné à 2 équations et 3 inconnues

x +2y +3z = 4

0 = aest de rang 1.

Si a 6= 0, alors il est incompatible. Dans ce cas, l’ensemble des solutions est l’ensemble vide.Si a = 0, alors il est compatible et l’ensemble des solutions est paramétré par 3− 1 = 2 paramètres.C’est le plan passant par le point (4, 0, 0) et ayant pour base les vecteurs non colinéaires (−2, 1, 0) et(−3, 0, 1).

4. Le système linéaire échelonné de 3 équations à 3 inconnues

x +2y +3z = 4

y +2z = 5

z = 1

est de rang 3.

Unique solution (−5, 3, 1) :

x +2y +3z = 4

y +2z = 5

z = 1

⇐⇒

x = 4 −2y −3z

y = 5 −2z

z = 1

⇐⇒

x = −5

y = 3

z = 1

13

CHAPITRE 1. SYSTÈMES LINÉAIRES

3. Résolution de systèmes linéaires : algorithme de Gauss�Jordan

La résolution d’un système linéaire échelonné est simple. Nous allons voir qu’il existe une méthode qui permetde ramener la résolution de n’importe quel système linéaire à celle d’un système linéaire échelonné.

3.1. Opérations élémentaires sur les lignes

Définition.

On considère un système linéaire de n équations à p inconnues et sa matrice (éventuellement augmentée)associée.On appelle opération élémentaire sur les lignes du système ou de la matrice l’une des troisopérations suivantes.• Échange de deux lignes.

Pour tous entiers i et j distincts dans J1, nK, l’échange de la ie ligne et de la je ligne est noté

Li ←→ Lj .

• Multiplication d’une ligne par une constante non nulle.Pour tout réel λ dans R∗, et tout entier i dans J1, nK, la multiplication de la ie ligne par λ estnotée

Li ←− λLi.

• Ajout à une ligne d’un multiple d’une autre ligne.Pour tout réel µ dans R et tous entiers i et j distincts dans J1, nK, l’ajout à la ie ligne de la je

ligne multipliée par µ est notéeLi ←− Li + µLj .

Remarque.L’opération Li ←− αLi + βLj est une succession d’opérations élémentaires si et seulement si α 6= 0.Le cas où β est nul ne pose pas de problème : l’opération est alors uniquement la multiplication d’une lignepar une constante non nulle.

Remarque.Les opérations élémentaires sur les lignes sont inversibles.Si l’on passe d’un système linéaire à un autre par une opération élémentaire sur les lignes, alors on peutpasser du second au premier par une opération élémentaire de même nature sur les lignes.

• L’échange de lignes Li ←→ Lj est inversible d’inverse l’échange Lj ←→ Li.• La multiplication par une constante λ non nulle Li ←− λLi est inversible d’inverse la multiplication par

la constante 1λ

non nulle Li ←−1λLi.

• L’ajout d’un multiple d’une autre ligne Li ←− Li + µLj est inversible d’inverse l’opération Li ←−Li + (−µ)Lj .

Définition. Systèmes équivalents

Deux systèmes linéaires sont dits équivalents si on peut passer d’un système à l’autre par desopérations élémentaires.

14

CHAPITRE 1. SYSTÈMES LINÉAIRES

Proposition.

Si deux systèmes sont équivalents, alors ils ont les mêmes ensembles de solutions.

Démonstration. On commence par montrer la proposition dans le cas où l’on passe d’un système à l’autre àl’aide d’une seule opération élémentaire.Il suffit de montrer que l’ensemble des solutions du premier système est inclus dans celui du deuxième pourobtenir, d’après la symétrie de la relation d’équivalence, l’inclusion réciproque et donc l’égalité.• Si l’opération est une transposition, alors la proposition est triviale car les équations sont les mêmes.• Si l’opération est une dilatation de la ligne i par le scalaire λ non nul.Soit (x1, . . . , xp) une solution du premier système.Les équations différentes de la ie équation sont inchangées donc toutes vérifiées.Comme la ie équation du premier système est vérifiée, on a ai,1x1 + · · ·+ ai,pxp = bi.En multipliant par λ, on obtient λ(ai,1x1 + · · ·+ ai,pxp) = λbi donc la ie équation du deuxième systèmeest également vérifiée.• Si l’opération est une transvection où on a ajouté à la ligne i le produit de la ligne j par le scalaire µ.

Soit (x1, . . . , xp) une solution du premier système.Les équations différentes de la ie équation sont inchangées donc toutes vérifiées (y compris la je).Comme la ie équation du premier système est vérifiée, on a ai,1x1 + · · ·+ ai,pxp = bi.Comme la je équation du premier système est vérifiée, on a aj,1x1 + · · ·+ aj,pxp = bj .On a alors ai,1x1 + · · · + ai,pxp + µ(aj,1x1 + · · · + aj,pxp) = bi + µbj donc la ie équation du deuxièmesystème est également vérifiée.

Le cas où l’on passe d’un système à l’autre en effectuant un nombre fini d’opérations élémentaires sur leslignes se traite facilement par récurrence finie sur le nombre d’opérations.

Exemple.Reprenons le système précédent (1.1).

{4x1 − 3x2 = −22x1 + 2x2 = 6

4x1 − 3x2 = −2

x1 + x2 = 3 L2 ←12L2

⇔{

7x1 = 7 L1 ← L1 + 3L2

x1 + x2 = 3⇔

x1 = 1 L1 ←17L1

x1 + x2 = 3

et finalement

⇔{x1 = 1

x2 = 2 L2 ← L2 − L1

L’unique solution de ce dernier système est bien sur (1, 2). Les systèmes étant équivalent, l’ensemble dessolutions de (1.1) est

S = {(1, 2)}.

Le nom des inconnues n’a aucune influence sur la résolution. Seul leur ordre a une importance. Afin derésoudre un système linéaire, on se ramène donc souvent à la matrice des coefficients et au tableau descoefficients.

Définition. Équivalence par lignes de matrices

On dit que deux matricesM etM ′ de même taille sont équivalentes par lignes, et on noteM ∼LM ′,

si et seulement si on peut passer de l’une à l’autre en effectuant un nombre fini d’opérations élémentairessur les lignes.

15

CHAPITRE 1. SYSTÈMES LINÉAIRES

Proposition. Justification de la représentation matricielle

Deux systèmes linéaires sont équivalents si et seulement si leurs matrices augmentées sont équivalentespar lignes.

Démonstration. C’est direct car les opérations sur les lignes sur un système linéaire se traduisent par lesmêmes opérations sur les matrices augmentées associées et inversement.

Méthode. Opérations élémentaires sur les lignes

Lorsque l’on effectue des opérations élémentaires sur les lignes d’un système ou d’une matrice, à chaqueétape,• on note à droite de l’équation ou de la ligne que l’on modifie l’opération effectuée ;• on effectue au plus une opération sur chaque équation ou chaque ligne (Li ←− Li + λLj est uneopération sur Li, pas sur Lj) ;• pour chaque opération, on utilise uniquement des équations ou des lignes qui n’ont encore pas été

modifiées lors de l’étape en cours.Par convention, les opérations écrites à droite du système ou de la matrice font intervenir les équationsdu système précédent ou les lignes de la matrice précédente (les équations et les lignes sont doncrenommées à chaque étape).

Remarque.Dans un système linéaire, en effectuant simultanément L1 ← L1 − L2 et L2 ← L2 − L1, on remplace deuxéquations a priori non proportionnelles par deux équations L1 − L2 et L2 − L1 proportionnelles donc onn’obtient pas un système linéaire équivalent au précédent en général.

3.2. Algorithme du pivot de Gauss�Jordan

La méthode de Gauss est la méthode fondamentale dans la résolution des systèmes linéaires.Elle permet de passer d’un système linéaire à un système linéaire échelonné ayant les mêmes solutions.L’algorithme de Gauss–Jordan permet de passer d’un système linéaire à un système linéaire échelonné réduitayant les mêmes solutions.

Théorème. Algorithme de Gauss

Tout système linéaire est équivalent à un système linéaire échelonné.Toute matrice est équivalente à une matrice échelonnée par lignes.

Théorème. Algorithme de Gauss�Jordan

Tout système linéaire est équivalent à un unique système linéaire échelonné réduit.Toute matrice est équivalente à une unique matrice échelonnée réduite par lignes.

Démonstration. On admet l’unicité pour l’algorithme de Gauss–Jordan.On décrit la méthode du pivot de Gauss qui permet d’obtenir un système échelonné équivalent.Soit (S) un système linéaire à n équations et à p inconnues.• Si tous les coefficients devant l’inconnue x1 sont nuls, alors on résout le système linéaire (S′) obtenu en

considérant le système (S) comme un système à p− 1 inconnues x2, . . . , xp.Les solutions du système (S) sont les éléments (x1, x2, . . . , xp) de Rp tels que x1 est quelconque et(x2, . . . , xp) est une solution du système (S′).• Si tous les coefficients devant l’inconnue x1 ne sont pas nuls, alors il en existe au moins un non nul.

16

CHAPITRE 1. SYSTÈMES LINÉAIRES

– Étape 1 : Si besoin, on permute la première ligne avec une autre ligne où le coefficient devantl’inconnue x1 est non nul, en effectuant l’opération élémentaire d’échange L1 ←→ Li pour obtenirun système équivalent de la forme :

a1,1 x1 + a1,2x2 + . . . + a1,pxp = b1 (L1) avec a1,1 6= 0

a2,1x1 + a2,2x2 + . . . + a2,pxp = b2 (L2)...

an,1x1 + an,2x2 + . . . + an,pxp = bn (Ln)

Dans ce cas, a1,1 est le premier pivot.

– Étape 2 : On élimine l’inconnue x1 dans les lignes L2, L3, . . . , Ln en effectuant les opérationsélémentaires suivantes Li ←− Li −

ai,1a1,1

L1 pour tout entier i dans J2, nK pour obtenir un système

équivalent de la forme

(S1)

a1,1x1 +a1,2x2 + · · ·+ a1,pxp = b1 (L1)

b2,2x2 + · · ·+ b2,pxp = c2 (L2)...

bn,2x2 + · · ·+ bn,pxp = cn (Ln)

(S2)

– Étape 3 : On recommence les étapes 1 et 2 avec le sous-système (S2) dans le but de supprimerla deuxième inconnue dans toutes les lignes sauf L2 (et L1 à laquelle on ne touchera plus).En itérant ce procédé, on aboutira à un système échelonné, ce que l’on peut montrer par récurrence.

Pour obtenir un système échelonné réduit, il faut durant l’étape 2, supprimer également les coefficientscorrespondant à cette inconnue dans les lignes précédentes (pas seulement dans les suivantes) puis aprèsl’étape 3, diviser chaque ligne contenant un pivot par ce pivot.

Remarque.Les pivots, ainsi que les variables liées et libres, dépendent de la manière dont on échelonne le système.En revanche, le nombre de pivots (c’est-à-dire le rang) ne dépend pas de la manière dont on échelonne lesystème.

Définition. Rang d'un système linéaire

On appelle rang d’un système linéaire (S), et on note rang(S), le rang de l’unique matrice échelonnéeréduite par lignes équivalente à la matrice du système (S).

Remarque.• Le rang d’un système linéaire est inférieur ou égal au nombre d’équations et au nombre d’inconnues.

• Le rang d’un système linéaire ne dépend pas du second membre.

17

CHAPITRE 1. SYSTÈMES LINÉAIRES

Exemple.On résout le système linéaire suivant de 4 équations à 5 inconnues avec second membre.

x +y +z +t = 5

x +4y −5z −2t +12u = 11

x +3z +4t −10u = −1

2x −y +8z +2t −3u = 10

⇐⇒

x +y +z +t = 5

3y −6z −3t +12u = 6

−y +2z +3t −10u = −6

−3y +6z −3u = 0

pivot en x

L2 ←− L2 − L1

L3 ←− L3 − L1

L4 ←− L4 − 2L1

⇐⇒

x +y +z +t = 5

y −2z −t +4u = 2

−y +2z +3t −10u = −6

−3y +6z −3u = 0

L2 ←−13L2

⇐⇒

x +3z +2t −4u = 3

y −2z −t +4u = 2

2t −6u = −4

−3t +9u = 6

L1 ← L1 − L2

pivot en y

L3 ← L3 + L2

L4 ← L4 + 3L2

⇐⇒

x +3z +2t −4u = 3

y −2z −t +4u = 2

t −3u = −2

−3t +9u = 6

L3 ←−12L3

⇐⇒

x +3z +2u = 7

y −2z +u = 0

t −3u = −2

0 = 0

L1 − 2L3

L2 + L3

pivot en t

L4 ←− L4 + 3L3

⇐⇒

x = 7 −3z −2u

y = 0 +2z −u

t = −2 +3u

Le système linéaire est échelonné réduit. Il y a trois pivots donc le système est de rang 3.Il n’y a pas d’équation de compatibilité fausse donc le système est compatible.Les variables liées sont x, y et t. Les variables libres sont z et u.Comme il y a 5 inconnues, l’ensemble des solutions est infini et peut être paramétré par 5− 3 = 2 paramètres.L’ensemble des solutions est{

(x, y, z, t, u) ∈ R5, x = 7− 3z − 2u, y = 2z − u, t = −2 + 3u}

={

(7− 3z − 2u, 2z − u, z,−2 + 3u, u), (z, u) ∈ R2}

={

(7, 0, 0,−2, 0) + z(−3, 2, 1, 0, 0) + u(−2,−1, 0, 3, 1), (z, u) ∈ R2}

Il s’agit du plan de R5 passant par le point (7, 0, 0,−2, 0) et ayant pour base les vecteurs non colinéaires(−3, 2, 1, 0, 0) et (−2,−1, 0, 3, 1).

18

CHAPITRE 1. SYSTÈMES LINÉAIRES

3.3. Rang et structure de l'ensemble des solutions

Proposition. Le nombre de pivots ne dépend pas de la manière d'échelonner

Le rang d’un système linéaire (S) est le rang de tout système linéaire échelonné équivalent à (S).

On considère un système S de n équations et p inconnues et notons r son rang.

Rappelons quelques propriétés vues lorsque l’on s’intéresser au rang d’un système échelonné et qui sont, ducoup, vraies pour tout système.• On a 0 6 r 6 p et 0 6 r 6 n.• Il y a r variable(s) liée(s).• Il y a p− r variable(s) libre(s).• Le rang d’un système ne dépend pas du second membre.• Si on change l’ordre des variables (c’est-à-dire les colonnes de la matrice des coefficients) on ne changepas le rang.

Intéressons nous à certains cas particuliers.

Cas 1 : r = p et r = n. Alors il n’y a aucune variable libre et aucune équation de compatibilité. Lesystème est donc équivalent à un système échelonné réduit de cette forme

x1 = b′1

x2 = b′2. . . =

...

xr = b′r

Dans ce cas, le système admet une unique solution (b′1, · · · , b′r).

Cas 2 : r = n et r < p. Alors il n’y a aucune équations de compatibilité (car r = n). Le système est doncéquivalent à un système échelonné réduit de cette forme

x1 +a′1,r+1xr+1+ · · ·+ a′1,pxp = b′1

x2 +a′2,r+1xr+1+ · · ·+ a′2,pxp = b′2. . . ...

... =...

xr +a′r,r+1xr+1+ · · ·+ a′r,pxp = b′r

Un tel système admet toujours au moins une solutions. En fait les solutions s’expriment simplement enexprimant les variables liées en fonctions des variables libres :

x1 = b′1 − a′1,r+1xr+1 − · · · − a′1,pxp

x2 = b′2 − a′2,r+1xr+1 − · · · − a′2,pxp...

xr = b′r − a′r,r+1xr+1 − · · · − a′r,pxp

En particulier, en prenant toute les variables libres égales à 0, on trouve une solution particulière :

(x1, · · · , xr, xr+1, · · · , xp) = (b′1, · · · , b′r, 0, · · · , 0).

Plus précisément, l’ensemble des solutions est infini et est paramétré par les d = p− r variables libres.

19

CHAPITRE 1. SYSTÈMES LINÉAIRES

Cas 3 : r = p et r < n. Alors il n’y a aucune variable libre. Le système est donc équivalent à un systèmeéchelonné réduit de cette forme

x1 = b′1

x2 = b′2. . . =

...

xr = b′r

0 = b′r+1... =

...

0 = b′n

Dans ce cas, le système n’admet aucune solution si l’une des n − r équations de compatibilité est fausse,c’est-à-dire de la forme 0 = b′k avec b′k 6= 0 et admet exactement une solution (b′1, · · · , b′r) si toutes leséquations de compatibilités sont vraies.

Récapitulatif.

1. Dans tout système linéaire de rang r, il y a n− r équations de compatibilités et d = p− r variables libres.

2. Si une équation de compatibilité est fausse il n’y a pas de solutions.

3. Le système admet au moins une solution s’il n’y a pas d’équation de compatibilité ou si elles sont toutesjuste.

4. Si le système admet au moins une solution, il y en a soit une seule si d = 0 (pas de variables libres) soitune infinité paramétrée par les d variables libres.

On peut résumer les résultats dans le tableau suivant.

r = p r < p(d = p− r variables

libres)

r = n exactement une solution une infinité de solution(de dimension d)

r < n(n− r équations de

compatibilité)

aucune solution ouune unique solution

aucune solution ouune infinité de solution

(de dimension d)

3.4. Systèmes homogènes

Proposition. Ensemble des solutions d'un système linéaire homogène

Tout système linéaire homogène est compatible et son ensemble des solutions est stable par combinaisonlinéaire.

Démonstration. Il admet la solution triviale nulle (0, . . . , 0) donc est compatible.Si (x1, . . . , xp) et (y1, . . . , yp) sont des solutions du système, alors on montre facilement que pour tout scalaireλ dans R, λ(x1, . . . , xp) + (y1, . . . , yp) = (λx1 + y1, . . . , λxp + yp) est une solution du système.

20

CHAPITRE 1. SYSTÈMES LINÉAIRES

4. Systèmes linéaires à paramètres

4.1. Systèmes linéaires à paramètres dans le second membre

Méthode. Système linéaire à paramètres dans le second membre

Pour étudier la compatibilité d’un système linéaire à paramètres dont les paramètres constituentle second membre, on applique la méthode du pivot de Gauss et on détermine les équations decompatibilité.

Exemple.

Soient a, b, et c trois nombres réels.Déterminons, selon les valeurs de a, b et c,le nombre de solutions du système linéaire ci-contre.

x + 2y − 3z = a

2x + 6y − 11z = b

x − 2y + 7z = c.

On applique l’algorithme de Gauss.

x + 2y − 3z = a

2x + 6y − 11z = b

x − 2y + 7z = c

⇐⇒

x +2y −3z = a

2y −5z = b− 2a

−4y +10z = c− a

L2 ← L2 − 2L1

L3 ← L3 − L1

⇐⇒

x +2y −3z = a

2y −5z = b− 2a

0 = c+ 2b− 5a L3 ← L3 + 2L2

Le rang du système est 2 < 3. Il admet donc soit une infinité de solutions, soit aucune.Il a au moins une solution si et seulement si la condition de compatibilité 0 = c+ 2b− 5a est vérifiée.

• Si c+ 2b− 5a 6= 0, alors il n’y a pas de solution. Dans ce cas, l’ensemble des solutions est vide.

• Si c+ 2b− 5a = 0, alors le système admet une infinité de solutions (paramétrée par 1 paramètre).

Les ensembles de solutions non vides sont des droites parallèles.

4.2. Systèmes linéaires à paramètres dans les coefficients

Méthode. Système linéaire à paramètres dans les coefficients

Pour résoudre un système linéaire dont les coefficients dépendent de paramètres, on effectue deséchanges de lignes pour ne pas prendre de pivot dépendant d’un paramètre, si c’est possible.Si cela ne suffit pas, alors on fait des cas pour s’assurer que les pivots sont bien non nuls.Pour étudier un système linéaire carré, on cherche à l’écrire de manière triangulaire et on étudie pourquelles valeurs des paramètres les coefficients diagonaux sont non nuls.S’ils sont tous non nuls, alors le système linaire admet une unique solution, sinon on étudie les valeurs.

21

CHAPITRE 1. SYSTÈMES LINÉAIRES

Exemple.On résout le système linéaire homogène suivant de 3 équations à 3 inconnues.

(3− λ)x −2y +3z = 0

x −λy +3z = 0

(2− λ)z = 0

⇐⇒

x −λy +3z = 0 L1 ←→ L2

(3− λ)x −2y +3z = 0

(2− λ)z = 0

⇐⇒

x −λy +3z = 0

−(λ− 1)(λ− 2)y +(−6 + 3λ)z = 0 L2 − (3− λ)L1

(2− λ)z = 0

• Si λ /∈ {1, 2}, alors le rang est 3 et le système admet une unique solution : (0, 0, 0).

• Si λ = 1, alors le rang est 2 et le système équivaut à

x −y +3z = 0

−z = 0

z = 0

⇐⇒

x = y

z = 0

L’ensemble des solution est la droite {y(1, 1, 0), y ∈ R} passant par l’origine et de vecteur directeur(1, 1, 0).• Si λ = 2, alors le rang est 1 et le système est équivalent à l’équation cartésienne x− 2y + 3z = 0.

L’ensemble des solutions est le plan {(2y − 3z, y, z), y ∈ R, z ∈ R} = {y(2, 1, 0) + z(−3, 0, 1), y ∈ R, z ∈ R}passant par (0, 0, 0) et ayant pour base les vecteurs non colinéaires (2, 1, 0) et (−3, 0, 1).

22

Chapitre 2

Algèbre des matrices

Les matrices ont été introduites dans le chapitre précédent de manière à réécrire plus simplement un systèmed’équations linéaires. Leur rôle est de première importance en mathématiques.

Définition. Matrices

On appelle matrice de taille (n, p) ou matriceà n lignes et p colonnes à coefficients dans Rtoute famille

A = (ai,j)(i,j)∈J1,nK×J1,pK

d’éléments de R, que l’on représente sous la formed’un tableau rectangulaire comme ci-contre.

A =

a1,1 a1,2 . . . a1,j . . . a1,p

a2,1 a2,2 . . . a2,j . . . a2,p

ai,1 ai,2 . . . ai,j . . . ai,p

an,1 an,2 . . . an,j . . . an,p

• Le premier indice correspond au numéro de la ligne et le second au numéro de la colonne.• On noteMn,p(R) l’ensemble des matrices à n lignes et p colonnes à coefficients dans R.• Les nombres ai,j sont appelés les coefficients de la matrice A.• Si le nombre de colonnes est égal au nombre de lignes, alors on dit que la matrice est carrée.

On noteMn(R) l’ensemble des matrices carrées de taille (ou d’ordre) n à coefficients dans R.

On peut noter A de différentes façons :

A =

a11 · · · a1p...

...

an1 · · · anp

=

a11 · · · a1p...

...

an1 · · · anp

=(aij)

16i6n16j6p

1. Opérations sur les matrices

1.1. Égalité

Proposition. Égalité de matrices

Deux matrices sont égales si et seulement si elles ont la même taille et si leurs coefficients sont égaux.

(aij)

16i6n16j6p

=(bij)

16i6n′

16j6p′⇐⇒ n = n′ et p = p′ et pour tout 1 6 i 6 n et 1 6 j 6 p, aij = bij .

Bien évidemment, si A = B et B = C alors A = C.

23

CHAPITRE 2. ALGÈBRE DES MATRICES

1.2. Somme

On peut sommer deux matrices si elles ont la même taille. La somme de ces deux matrices est alors unetroisième matrice de même taille que les deux précédentes dont le coefficient (i, j) est la somme des coefficients(i, j) des deux matrices.

Définition. Somme de deux matrices de même taille

Soient A = (ai,j)(i,j)∈J1,nK×J1,pK et B = (bi,j)(i,j)∈J1,nK×J1,pK dansMn,p(R) deux matrices de même taille.On appelle somme de A et B, et on note A+B, la matrice de coefficients (ai,j + bi,j)(i,j)∈J1,nK×J1,pK.

Autrement dit, on effectue la somme coefficient par coefficient.a11 · · · a1p...

...

an1 · · · anp

+

b11 · · · b1p...

...

bn1 · · · bnp

=

a11 + b11 · · · a1p + b1p

......

an1 + bn1 · · · anp + bnp

Remarque.On ne peut pas additionner des matrices de tailles différentes.

Proposition. Propriétés de l'addition matricielle

L’addition de matrices dansMn,p(R)• est commutative : l’ordre dans lequel on additionne n’est pas important

∀(A,B) ∈ (Mn,p(R))2, A+B = B +A ;

• est associative : les parenthèses sont inutiles en présence uniquement d’additions

∀(A,B,C) ∈ (Mn,p(R))3, (A+B) + C = A+ (B + C) = A+B + C.

Démonstration. Ces propriétés découlent directement des propriétés de l’addition dans R car l’additionmatricielle s’effectue coefficient par coefficient.

La matrice dont tous les coefficients sont nuls joue le même rôle que le nombre 0 dans l’addition de nombres.

Définition. Matrice nulle

On appelle matrice nulle de taille (n, p), et on note 0Mn,p(R), 0n,pou 0 s’il n’y a pas d’ambigüité, la matrice de taille (n, p) dont tousles coefficients sont nuls :

0n,p =

0 0

0 0

Proposition. Propriétés de l'addition matricielle

L’addition de matrices dansMn,p(R) possède un élément neutre : la matrice nulle 0n,p

∀A ∈Mn,p(R), A+ 0n,p = A.

24

CHAPITRE 2. ALGÈBRE DES MATRICES

1.3. Multiplication par un nombre

On peut multiplier une matrice par un scalaire (ici un nombre réel).

Définition. Multiplication d'une matrice par un scalaire

Soient A = (ai,j)(i,j)∈J1,nK×J1,pK une matrice deMn,p(R) et λ un élément de R.On appelle multiplication (scalaire) de A par λ, et on note λA, la matrice de coefficients(λai,j)(i,j)∈J1,nK×J1,pK.

Autrement dit, on multiplie chaque coefficient de A par le scalaire λ.

λ

a11 · · · a1p...

...

an1 · · · anp

=

λa11 · · · λa1p...

...

λan1 · · · λanp

Exemple.On considère la matrice A =

1 0

2 −3

. Alors on a 2A =

2 0

4 −6

.

Remarque.• Pour toute matrice A, la matrice −A (matrice opposée de A) est la matrice (−1)×A.• On appelle différence de deux matrices A et B, et on note A−B, la matrice A+ (−B).En particulier, on a A−A = 0n,p.

Proposition. Propriétés de la multiplication par un scalaire

La multiplication scalaire dansMn,p(R)• vérifie l’associativité mixte suivante :

∀A ∈Mn,p(R), ∀(λ, µ) ∈ R2, λ(µA) = (λµ)A ;

• possède un élément neutre à gauche : le scalaire 1

∀A ∈Mn,p(R), 1×A = A ;

• est distributive à droite par rapport à l’addition dans R :

∀A ∈Mn,p(R), ∀(λ, µ) ∈ R2, (λ+ µ)A = λA+ µA.

Démonstration. Ces propriétés découlent directement des propriétés de l’addition et de la multiplicationdans R car l’addition et la multiplication par un scalaire s’effectuent coefficient par coefficient.

1.4. Multiplication matricielle

On appelle multiplication matricielle la multiplication de deux matrices entre elles. Cependant on ne peutpas toujours multiplier deux matrices entre elles.

On peut définir le produit de la matrice A par la matrice B si le nombre de colonnes de A est égal au nombrede lignes de B.

25

CHAPITRE 2. ALGÈBRE DES MATRICES

Si A ∈Mn,p(R) et B ∈Mp,q(R), la matrice produit AB = C := (cij)16i6n16j6q

est dansMn,q(R).

Pour obtenir le terme (i, j) de C, on doit multiplier les coefficients de la ligne i de A par ceux de la colonnej de B, puis les sommer, de la manière suivante.

cij = (ai1, ai2, · · · , aip) ·

b1j

b2j...

bpj

= ai1b1j + ai2b2j + · · ·+ aipbpj =

p∑k=1

aikbkj .

Définition. Produit de deux matrices

Soient A = (ai,j)(i,j)∈J1,nK×J1,pK une matrice de Mn,p(R) et B = (bi,j)(i,j)∈J1,pK×J1,qK une matrice deMp,q(R).On appelle produit de A et B, et on note AB, la matrice (ci,j)(i,j)∈J1,nK×J1,qK deMn,q(R) définie par

∀i ∈ J1, nK,∀j ∈ J1, qK, ci,jdef=

p∑k=1

ai,kbk,j .

Remarque (Condition nécessaire et suffisante pour multiplier deux matrices).Il faut bien faire attention aux tailles des matrices A et B : le nombre de colonnes de A doit être égal aunombre de lignes de B, sinon le produit AB n’existe pas.

Pour déterminer le coefficient (i, j) de AB,on parcourt en simultané

• la ie ligne deA :(ai,1 ai,2 ai,p

)

• la je colonne de B :

b1,j

b2,j

bp,j

puis on effectue la somme des produitsdeux à deux des coefficients sur la ligne etsur la colonne.

Pour que le produit deux à deux ait unsens, il faut et il suffit que le nombre decolonnes de A soit égal au nombre de lignesde B, ici p = 4.

a11 a12 a13 a14

a21 a22 a23 a24

a31 a32 a33 a34

A : 3 lignes 4 colonnes

b11 b12 b13 b14 b15

b21 b22 b23 b24 b25

b31 b32 b33 b34 b35

b41 b42 b43 b44 b45

B : 4 lignes 5 colonnes

c11 c12 c13 c14 c15

c21 c22 c23 c24 c25

c31 c32 c33 c34 c35

a 21×b 13

a 22×b 23

a 23×b 33

a 24×b 43

++

+

a 21×b 13

a 22×b 23

a 23×b 33

a 24×b 43

C = A×B : 3 lignes 5 colonnes

Remarque.Soient A une matrice deMm,n(R) et B une matrice deMp,q(R). Alors

26

CHAPITRE 2. ALGÈBRE DES MATRICES

• le produit AB a un sens si et seulement si n = p ;• le produit BA a un sens si et seulement si m = q.

En particulier, les produits AB et BA ont un sens simultanément si et seulement si n = p et m = q.

1.5. Propriétés de la multiplication matricielle

Proposition. Produit avec la matrice nulle

Soit A une matrice deMn,p(R).Alors le produit de la matrice A et d’une matrice nulle (de taille compatible) est une matrice nulle :

A× 0p,q = 0n,q et 0q,n ×A = 0q,p.

Définition. Matrice identité

On appelle matrice identité de taille n, et on note Inou I s’il n’y a pas d’ambigüité, la matrice de taille (n, n)dont tous les coefficients sont nuls sauf les coefficientsdiagonaux (dont le numéro de ligne est égal au numérode colonne) qui sont égaux à 1.

In =

1 0 0

0 1 0

0 0 1

Les propriétés suivantes montrent que cette matrice joue, pour la multiplication matricielle, le même rôleque le nombre 1 pour la multiplication de nombres.

Proposition. Produit avec la matrice identité

Soit A une matrice deMn,p(R).Alors le produit de la matrice A et de la matrice identité (de taille compatible) est A :

A× Ip = A et In ×A = A.

Proposition. Associativité du produit matriciel

La multiplication matricielle (là où elle est bien définie) est associative :

∀A ∈Mn,p(R), ∀B ∈Mp,q(R), ∀C ∈Mq,r(R), A(BC) = (AB)C = ABC.

Démonstration. Les différents produits ont un sens car les tailles sont compatibles.De plus, par interversion de sommes rectangulaires,

∀i ∈ J1, nK, ∀j ∈ J1, rK,q∑

k=1

( p∑`=1

ai,`b`,k

)︸ ︷︷ ︸

(AB)i,k

ck,j =p∑`=1

ai,`

( q∑k=1

b`,kck,j

)︸ ︷︷ ︸

(BC)`,j

Remarque.La multiplication matricielle n’est pas commutative. En général, même si AB et BA existent, AB 6= BA.

27

CHAPITRE 2. ALGÈBRE DES MATRICES

Exemple.On pose A =

1 0

0 0

, B =

0 1

0 0

et C =

1 0 0

0 0 0

. Alors• AB = B et BA = 02,2 donc AB et BA existent mais sont différents ;• AC a un sens mais CA n’en a pas.

Remarque.Lorsque l’on considère une égalité entre deux matrices, on peut multiplier chaque membre de l’égalité parune matrice, mais il faut préciser si l’on multiplie à gauche ou à droite.

Définition. Matrices qui commutent

On dit que deux matrices carrées A et B deMn(R) commutent si et seulement si AB = BA.

Si les matrices ne sont pas des matrices carrées (nombre de lignes égal au nombre de colonnes), alors direqu’elles commutent n’a pas de sens car les produits, s’ils existent, n’ont pas la même taille.

Remarque.Attention la multiplication matricielle n’est pas intègre, c’est-à-dire que le produit de deux matrices peutêtre une matrice nulle sans qu’un facteur soit une matrice nulle : en général, AB = 0 n’implique pas A = 0ou B = 0.

Exemple.L’exemple suivant est à retenir (ou à retrouver rapidement).0 1

0 0

1 0

0 0

=

0 0

0 0

Remarque.On ne peut pas simplifier une égalité de matrices : AB = AC n’implique pas en général B = C.En particulier, on ne parlera jamais de division matricielle.Exemple.

2 0

0 0

3 0

0 4

=

6 0

0 0

et

2 0

0 0

3 0

0 0

=

6 0

0 0

Proposition. Distributivité par rapport à l'addition matricielle

La multiplication matricielle (là où elle est bien définie) est distributive par rapport à l’additionmatricielle :

∀A ∈Mn,p(R), ∀(B,C) ∈ (Mp,q(R))2, A(B + C) = AB +AC ;

∀(A,B) ∈ (Mn,p(R))2, ∀C ∈Mp,q(R), (A+B)C = AC +BC.

Démonstration. Les multiplications et les additions ont toutes un sens et renvoient des matrices de mêmetaille : (n, q).

28

CHAPITRE 2. ALGÈBRE DES MATRICES

De plus, pour tous entiers i dans J1, nK et j dans J1, qK, les termes d’indice (i, j) sont

p∑k=1

ai,k(bk,j + ck,j) =p∑

k=1ai,kbk,j +

p∑k=1

ai,kck,j etp∑

k=1(ai,k + bi,k)ck,j =

p∑k=1

ai,kck,j +p∑

k=1bi,kck,j

Proposition. Compatibilité avec la multiplication scalaire

La multiplication matricielle (là où elle est bien définie) est compatible avec la multiplication scalaire :

∀A ∈Mn,p(R), ∀B ∈Mp,q(R), ∀λ ∈ R, (λA)B = A(λB) = λ(AB).

Démonstration. Les multiplications scalaires et matricielles ont un sens et renvoient des matrices de mêmetaille : (n, q).De plus, pour tous entiers i dans J1, nK et j dans J1, qK, les termes d’indice (i, j) sont

p∑k=1

(λai,k)bk,j =p∑

k=1ai,k(λbk,j) = λ

p∑k=1

ai,kbk,j

1.6. La transposition

Une dernière opération possible sur les matrices est la transposition. Elle est obtenue en intervertissant leslignes et les colonnes.

Définition. Transposée d'une matrice

Soit A = (ai,j)(i,j)∈J1,nK×J1,pK une matrice deMn,p(R).On appelle transposée de A, et on note A> ou tA, la matrice deMp,n(R) :

A> = (aj,i)(i,j)∈J1,pK×J1,nK = (ai,j)(j,i)∈J1,pK×J1,nK

Remarque (Conventions d'écriture).Selon les conventions, le symbole de transposition s’écrit soit avant soit après la matrice. Il faut être prudent.

Remarque.La transposition échange les lignes et les colonnes.

Exemple.On considère la matrice A =

1 2

3 4

, alors on a A> =

1 3

2 4

.

On considère la matrice B =

1 2 3

4 5 6

, alors on a B> =

1 4

2 5

3 6

.

29

CHAPITRE 2. ALGÈBRE DES MATRICES

Proposition. Propriétés de la transposition

• La transposé est une application bijective :

∀A ∈Mn,p(R),(A>)>

= A.

• La transposée d’une somme est la somme des transposées :

∀(A,B) ∈ (Mn,p(R))2, (A+B)> = A> +B>.

• La transposée d’une multiplication scalaire est la multiplication scalaire de la transposée :

∀A ∈Mn,p(R), ∀λ ∈ R, (λA)> = λA>.

• La transposée d’un produit est le produit des transposées, en inversant l’ordre :

∀A ∈Mn,p(R), ∀B ∈Mp,q(R), (AB)> = B>A>.

Démonstration. Le premier point est trivial.Il est immédiat que la transposée d’une combinaison linéaire de matrices est la combinaison linéaires destransposées (avec les mêmes coefficients), ce qui prouve les deux premiers points.Soient deux matrices A = (ai,j)(i,j)∈J1,nK×J1,pK dansMn,p(R) et B = (bj,k)(j,k)∈J1,pK×J1,qK dansMp,q(R).

La matrice AB existe et appartient àMn,q(R). Ses coefficients (ci,k)(i,k)∈J1,nK×J1,qK vérifient ci,k =p∑j=1

ai,jbj,k.

Donc (AB)> = (ck,i)(i,k)∈J1,qK×J1,nK. Pour tout (i, k) dans J1, qK× J1, nK, le terme d’indice (i, k) de (AB)> est

ck,i =p∑j=1

ak,jbj,i =p∑j=1

bj,iak,j =p∑j=1

b′i,ja′j,k,

où b′i,j = bj,i désigne le terme d’indice (i, j) de B> et a′j,k = ak,j désigne le terme d’indice (j, k) de A>.Finalement, ck,i est le terme d’indice (i, k) de B>A> et on a bien (AB)> = B>A>.

Remarque.Attention à l’ordre des matrices dans la formule de la transposée d’un produit de matrices.

Proposition. Rang de la transposée

Le rang d’une matrice est égal au rang de sa transposée.

Démonstration. Admis.

2. Matrices particulières

Il existe certaines formes de matrices jouant un rôle particulier. On a déjà vu les matrices nulles et lesmatrices identités. Dès la définition de matrice, on a également défini les matrices carrées.

Définition. Matrices carrées

On dit qu’une matrice est carrée si et seulement si elle a autant de lignes que de colonnes.On noteMn(R) l’ensemble des matrices carrées de taille (n, n) (on dit aussi de taille n ou d’ordren).

30

CHAPITRE 2. ALGÈBRE DES MATRICES

Exemple.La matrice nulle 0n,n (parfois notée 0n) et la matrice identité In sont des matrices carrées.Voici deux autres exemples de matrices carrées.

1 2

1 3

et

0 −1 2

1 3 0

0 0 −1

Définition. Matrices lignes et matrices colonnes

Les éléments deMn,1(R) sont appelés matrices colonnes.Les éléments deM1,p(R) sont appelés matrices lignes.

Exemple.• Matrices colonnes :

1

1

et

0

1

−1

• Matrices lignes :

(1 2

)et(

0 −1 2)

Remarque.Nous identifierons souvent les éléments (x1, . . . , xn) de Rn aux matrices colonnes

x1

xn

deMn,1(R).

Définition. Matrices diagonales

Soit A ∈ Mn(R) une matrice carrée. On dit que la matrice A = (ai,j)(i,j)∈J1,nK2 est diagonale si etseulement si pour tous entiers i et j dans J1, nK tels que i 6= j, ai,j = 0 :

A =

a1,1 0 0

0 a2,2

0

0 0 an,n

Exemple.Voici quelques exemples de matrices diagonales :

1 0

0 2

,

2 0 0

0 3 0

0 0 −1

et In =

1 0 · · · 0

0 1 · · · 0...

... . . . ...

0 0 · · · 1

.

31

CHAPITRE 2. ALGÈBRE DES MATRICES

Définition. Matrices triangulaires et diagonales

Soit A ∈Mn(R) une matrice carrée. On dit que la matrice A = (ai,j)(i,j)∈J1,nK2 est• triangulaire supérieure si et seulement si pour tous entiers i et j dans J1, nK tels que i > j,ai,j = 0 :

A =

a1,1 a1,2 a1,n

0

an−1,n

0 0 an,n

;

• triangulaire inférieure si et seulement si pour tous entiers i et j dans J1, nK tels que i < j,ai,j = 0 :

A =

a1,1 0 0

a2,1

0

an,1 an,n−1 an,n

;

• triangulaire stricte si et seulement si elle est triangulaire et si ses coefficients diagonaux sontnuls.

A =

0 a1,2 a1,n

0

an−1,n

0 0 0

.

Exemple.Voici quelques exemples de matrices triangulaires

• supérieures :

1 1

0 2

et

a b c

0 d e

0 0 f

; • inférieures :

1 0

1 2

et

a 0 0

b d 0

c e f

.

Remarque.• Toute matrice à la fois triangulaire supérieure et triangulaire inférieure est diagonale.

• La transposée d’une matrice triangulaire supérieure (stricte) est une matrice triangulaire inférieure(stricte).

• La transposée d’une matrice triangulaire inférieure (stricte) est une matrice triangulaire supérieure(stricte).

32

CHAPITRE 2. ALGÈBRE DES MATRICES

Définition. Matrices symétriques

On dit qu’une matrice carrée dansMn(R) est symétrique si et seulement si A> = A, c’est-à-direpour tout (i, j) dans J1, nK2, ai,j = aj,i.

Exemple.Voici quelques exemples

• de matrices symétriques :

0 4 5

4 2 0

5 0 3

, a b

b c

et

0 1 2

1 −1 0

2 0 0

;

• de matrice non symétrique :

1 1 2

4 0 3

0 −3 1

.

Définition. Matrices idempotentes

Soit A ∈Mn(R) une matrice carrée.On dit que la matrice A = (ai,j)(i,j)∈J1,nK2 est idempotente si A×A = A.

Exemple.Les matrices identités sont trivialement idempotentes.

C’est également le cas de la matrice suivante :

3 2

−3 −2

.

Définition. Matrices non-singulières

Soit A ∈Mn(R) une matrice carrée. On dit que la matrice A = (ai,j)(i,j)∈J1,nK2 est non-singulière sison rang est égal à son nombre de lignes (et du coup de colonnes également).

Exemple.Voici quelques exemples de matrices non-singulières :

2 1

0 3

,

−1 0 0

0 2 0

0 0 3

et

2 1 −1

2 3 −1

2 0 1

.

3. Retour aux systèmes linéaires

3.1. Interprétation matricielle d'un système linéaire

Soit (S) un système linéaire de n équations à p inconnues.

33

CHAPITRE 2. ALGÈBRE DES MATRICES

(S)

a1,1x1 + a1,2x2 + · · ·+ a1,pxp = b1 (L1)

a2,1x1 + a2,2x2 + · · ·+ a2,pxp = b2 (L2)...

an,1x1 + an,2x2 + · · ·+ an,pxp = bn (Ln)

On note

• la matrice A deMn,p(R) formée des coefficients du système ;

• la matrice colonne X deM1,p(R) formée des inconnues ;

• la matrice colonne B deM1,n(R) formée du second membre :

c’est-à-dire

A = (ai,j)(i,j)∈J1,nK×J1,pK =

a1,1 a1,2 a1,p

a2,1 a2,2 a2,p

an,1 an,2 an,p

, X =

x1

xp

, et B =

b1

bn

.

Définition. Matrice associée à un système d'équations linéaires

Avec les notations précédentes, la matrice A est appelée la matrice du système linéaire (S) et lamatrice (A | B) est appelée la matrice augmentée du système linéaire (S).

La notation (A | B) correspond à (A | B) =

a1,1 a1,2 . . . a1,p b1

a2,1 a2,2 . . . a2,p b2...

... . . . ......

an,1 an,2 . . . an,p bn

Remarque.La matrice d’un système décrit entièrement le système linéaire homogène associé.La matrice augmentée d’un système décrit entièrement le système linéaire associé.

Proposition. Interprétation matricielle d'un système linéaire

Soit (x1, . . . , xp) dans Rp. On note X =

x1

xp

la matrice colonne deMp,1(R) associée.

Alors (x1, . . . , xp) est une solution du système (S) si et seulement si AX = B :

(S) ⇐⇒ AX = B.

En effet, on a

34

CHAPITRE 2. ALGÈBRE DES MATRICES

(S)

a1,1x1 + a1,2x2 + · · ·+ a1,pxp = b1 (L1)

a2,1x1 + a2,2x2 + · · ·+ a2,pxp = b2 (L2)...

an,1x1 + an,2x2 + · · ·+ an,pxp = bn (Ln)

a1,1x1 + a1,2x2 + + a1,pxp

a2,1x1 + a2,2x2 + + a2,pxp

an,1x1 + an,2x2 + + an,pxp

=

b1

bn

a11 a1p

an1 anp

·x1

xp

=

b1

bn

⇔ AX = B

Exemple.Le système suivant s’écrit sous forme matricielle de la manière décrite ci-dessous.

(S1) :

2x + y + z = −5

2x − 7z = −1

x − y + z = 1

⇐⇒

2 1 1

2 0 −7

1 −1 1

x

y

z

=

−5

−1

1

car

2 1 1

2 0 −7

1 −1 1

x

y

z

=

2x+ y + z

2x− 7z

x− y + z

.

Remarque.On écrit les coefficients du système en colonnes, chaque colonne correspondant à une inconnue.Les coefficients de la matrice apparaissent alors naturellement en pensant à bien ajouter les éventuels zéros.

3.2. Matrices élémentaires

Les opérations élémentaires vues sur les systèmes ont leurs équivalents comme opérations sur les matricesqui se traduisent par la multiplication à gauche par une matrice dite élémentaire.

35

CHAPITRE 2. ALGÈBRE DES MATRICES

Proposition.

Soient n dans N∗, i et j distincts dans J1, nK, λ dans R∗, µ dans R et M une matrice à n lignes.L’opération élémentaire de multiplication d’une ligne par une constante, Li ←− λLi, correspond à lamultiplication à gauche par la matrice

Li(λ) :=

i↓

1 0 0

0

1

i→ λ

1

0 0 1

Proposition.

Soient n dans N∗, i et j distincts dans J1, nK, λ dans R∗, µ dans R et M une matrice à n lignes.L’opération élémentaire d’échange de la ligne i avec la ligne j, Li ←→ Lj , correspond à la multiplicationà gauche par la matrice

Pi,j :=

i↓

j

1 0 0

0

1

i→ 0 1

1

1

j → 1 0

1

0

0 0 1

Les matrices Pi,j sont appelées matrices de permutation.

36

CHAPITRE 2. ALGÈBRE DES MATRICES

Proposition.

Soient n dans N∗, i et j distincts dans J1, nK, λ dans R∗, µ dans R et M une matrice à n lignes.L’opération élémentaire d’ajout à la ligne i d’un multiple de la ligne j, Li ←− Li + µLj , correspond àla multiplication à gauche par la matrice

Qi,j(µ) :=

j

1 0 0

0

i→ 1 µ

1

0

0 0 1

3.3. Écriture matricielle de la méthode de Gauss�Jordan

Soit A ∈Mn,p(R) une matrice quelconque.L’algorithme de Gauss–Jordan vu au chapitre précédent dit que l’on peut transformer toute matrice en unematrice échelonnée réduite par une suite d’opérations élémentaires.On note m le nombre d’opérations élémentaires. Chacune d’entre elles se ramène à la multiplication àgauche par une matrice élémentaire Ek qui est soit de type Li(λ), soit de type Qi,j(µ), soit une matrice depermutation Pi,j .Ainsi, la méthode de Gauss–Jordan consiste à fournir une liste de matrices élémentaires E1, E2, . . . , Em tellesque le produit Em · · ·E1A soit égal à une matrice échelonnée réduite.

4. Le cas particulier des matrices carrées

4.1. Inversibilité et inverse des matrices carrées

La notion d’inversibilité n’a de sens que pour les matrices carrées.

Définition. Matrice inversible

Soit A une matrice carrée deMn(R).On dit que A est inversible si et seulement s’il existe une matrice B dansMn(R), appelée inversede A, telle que

AB = In = BA.

Proposition. Unicité de l'inverse

Si une matrice A deMn(R) est inversible, alors elle admet un unique inverse, noté A−1.

Démonstration. Considérons deux matrices B et C telles que AB = In = BA et AC = In = CA.En particulier, AB = I.En multipliant à gauche chaque membre par la matrice C, on a C(AB) = CIn = C.Or, par associativité de la multiplication matricielle, C(AB) = (CA)B = InB = B.Finalement, B = C ce qui prouve l’unicité (l’existence n’étant pas garantie).

37

CHAPITRE 2. ALGÈBRE DES MATRICES

Exemple.• La matrice identité est son propre inverse : In · In = In = In · In.

• La matrice nulle n’est pas inversible : quelle que soit la matrice A, 0n ·A = 0n 6= In.

Exemple.La matrice

1 2

0 1

est inversible d’inverse

1 −2

0 1

car

1 2

0 1

1 −2

0 1

= I2 =

1 −2

0 1

1 2

0 1

.

Remarque.Il existe des matrices non nulles et non inversibles. En effet, la matrice

1 1

0 0

n’est pas inversible. Pour

tout M =

a b

c d

, on a AM =

a+ c b+ d

0 0

6=1 0

0 1

. qui ne peut pas être égale à la matrice identité

1 0

0 1

, quels que soient les coefficients a, b, c et d.

Remarque.Si une matrice contient une ligne (respectivement colonne) nulle, alors elle n’est pas inversible.En effet, le produit à droite (respectivement à gauche) par n’importe quelle matrice serait une matricecontenant une ligne (respectivement colonne) nulle et donc serait différente de la matrice identité.Attention, il existe des matrices non inversibles dont tous les coefficients sont non nuls.

Remarque.Il suffit de montrer que AB = In ou que BA = In pour prouver que la matrice A est inversible et que B estson inverse.L’autre égalité est alors automatiquement vérifiée. Ce résultat sera revu et démontré par la suite.

4.2. Conditions nécessaires et suffisantes d'inversibilité

Théorème.

Si A est inversible alors A est non singulière, c’est-à-dire rang(A) = n.

La preuve doit être maîtrisée.

Démonstration. Soit A inversible. Montrons que le système AX = C admet une unique solution pour toutsecond membre C.

AX = C ⇐⇒ A−1(AX) = A−1C ⇐⇒ (A−1A)X = A−1C ⇐⇒ InX = A−1C ⇐⇒ X = A−1C.

Ainsi, pour tout second membre C, le système AX = C admet une unique solution X = A−1C, la matrice Aest donc non-singulière.

Remarque.On observe un parallèle avec le cas scalaire. Soient a, c ∈ R. Alors si a est inversible (c’est-à-dire simplement,

comme a est un nombre, a 6= 0 et son inverse est a−1 = 1a) le système ax = c admet une unique solution

x = a−1c = c

a.

38

CHAPITRE 2. ALGÈBRE DES MATRICES

Le théorème suivant donne la réciproque du théorème précédent.

Théorème.

Si A est non singulière, alors A est inversible.

La démonstration de ce théorème donne en fait un moyen pratique de calculer l’inverse d’une matrice.

Démonstration. La preuve est divisée en deux étapes. L’étape 1 est à connaître.

• Étape 1 : Montrons qu’il existe une matrice B ∈Mn(R) telle que BA = In.Soit R la matrice échelonnée réduite obtenue par le procédé de Gauss–Jordan. Comme A est non-singulière, R = In.On a vu que les opérations élémentaires se traduisent par la multiplication à gauche par une matriceélémentaire. Ainsi, le processus de Gauss–Jordan se ramène à la multiplication à gauche par un certainnombre, disons m, de matrices élémentaires notées E1, . . . , Em. Ainsi on a

Em · · ·E1A = In.

On pose B = Em · · ·E1, on a donc montré qu’il existe une matrice B telle que BA = In.

• Étape 2 : Montrons qu’on a aussi AB = In.C’est la partie la plus difficile du résultat. Pour le montrer nous allons utiliser la transposée.A étant non-singulière, A> l’est également (pourquoi ?) donc, d’après l’étape précédente, on a l’existenced’une matrice C telle que

CA> = In.

En utilisant la propriété de la transposée, on en déduit

AC> = In> = In.

À cette étape, on a BA = AC> = In, il reste à montrer que B = C>.Pour ce faire, calculons BAC> de deux manières.D’une part, on a BAC> = (BA)C> = InC

> = C>.D’autre part, on a BA> = B(AC>) = BIn = B.Ainsi B = C>.

En conclusion, il existe une matrice B ∈Mn(R) telle que BA = AB = In. Par conséquent A est inversibleet A−1 = B = Em · · ·E1.

Remarque.Toute matrice élémentaire est inversible d’inverse une matrice élémentaire de même nature.

Proposition. Condition suffisante d'inversibilité

Soient A et B deux matrices deMn(R) telles que AB = In ou BA = In.Alors les matrices A et B sont inversibles et sont inverses l’une de l’autre : A−1 = B et B−1 = A.

Démonstration. On suppose seulement que BA = In. En reprenant les techniques vu précédemment, on voitque le système AX = C admet une unique solution X = BC. Donc l’hypothèse BA = In suffit à montrerque A est non-singulière.D’après le théorème précédent, on obtient que A est inversible d’inverse A−1.Maintenant, on a BAA−1 = B = A−1 ce qui conclut que B = A−1.

Finalement, on peut résumer nos résultats dans le théorème suivant.

39

CHAPITRE 2. ALGÈBRE DES MATRICES

Théorème.

Soit A ∈Mn(R). Les propriétés suivantes sont équivalentes.1. La matrice A est inversible.2. La matrice A est non singulière.3. Il existe B ∈Mn(R) telle que BA = In.4. Tout système AX = C a au moins une solution pour tout C.5. Tout système AX = C a au plus une solution pour tout C.

4.3. Inversion et opérations algébriques

Proposition. Inversion et opérations algébriques

Soient A, B et C trois matrices deMn(R). Soit λ un scalaire non nul.1. La matrice identité In est inversible et est son propre inverse : (In)−1 = In.

2. Si A est inversible, alors son inverse A−1 est elle-même inversible d’inverse(A−1

)−1= A.

On dit que l’inversion matricielle est une involution.

3. Si A est inversible, alors λA est inversible d’inverse (λA)−1 = 1λA−1.

4. Si A et B sont inversibles, alors leur produit AB est inversible d’inverse (AB)−1 = B−1A−1.Attention à l’ordre des matrices.

5. Si AC = BC, avec C inversible, alors A = B.6. La transposée d’une matrice inversible A est inversible d’inverse la transposée de l’inverse(

A>)−1

=(A−1

)>.

Démonstration. On utilise la caractérisation de l’inversibilité et de l’inverse par l’inversibilité et l’inverse àdroite.1. Bien évidemment on a In · In = In.2. On a A−1A = In.

3. On a λA 1λA−1 = λ

1λAA−1 = AA−1 = In.

4. On a ABB−1A−1 = AInA−1 = AA−1 = In.

5. En multipliant à droite chaque membre de l’égalité AC = BC par C−1, on obtient A = B.

6. On a A>(A−1

)>=(A−1A

)>= In

> = In donc A> est inversible d’inverse(A−1

)>.

Remarque.La somme de deux matrices inversibles de même taille n’est pas inversible en général : par exempleA+ (−A) = 0.

4.4. Calcul pratique de l'inverse

On a vu qu’une matrice A deMn(R) est inversible si et seulement si son rang est n, c’est-à-dire qu’on obtientla matrice identité de taille n à la fin de l’algorithme de Gauss–Jordan. Dans ce cas, il existe un certainnombre, disons m, de matrices élémentaires Ek tel que Em · · ·E1A = In et on a donc Em · · ·E1 = A−1. Onen déduit une méthode pratique pour déterminer l’inversibilité d’une matrice et pour calculer son inverse lecas échéant à l’aide des opérations matricielles de l’algorithme de Gauss–Jordan.

40

CHAPITRE 2. ALGÈBRE DES MATRICES

Méthode (Calcul pratique de l'inverse par opérations sur les matrices).Pour déterminer l’inversibilité d’une matrice et pour calculer son inverse le cas échéant, on écrit A et In côteà côte.On applique l’algorithme de Gauss–Jordan à la matrice A et on applique les mêmes opérations à In.

• Si l’algorithme fait passer de A à In alors la matrice A est inversible et il fait passer de In à A−1.

• Sinon, A n’est pas inversible.

Exemple.

0 1 −1

1 1 1

−1 1 1

1 0 0

0 1 0

0 0 1

L1 ←→ L2

L2 ←→ L1 ∼

1 1 1

0 1 −1

−1 1 1

0 1 0

1 0 0

0 0 1

L3 ←− L3 + L1

1 1 1

0 1 −1

0 2 2

0 1 0

1 0 0

0 1 1

L1 ←− L1 − L2

L3 ←− L3 − 2L2

1 0 2

0 1 −1

0 0 4

−1 1 0

1 0 0

−2 1 1

L3 ←−

14L3

1 0 2

0 1 −1

0 0 1

−1 1 0

1 0 0

−24

14

14

L1 ←− L1 − 2L3

L2 ←− L2 + L3

1 0 0

0 1 0

0 0 1

0 2/4 −2/4

2/4 1/4 1/4

−2/4 1/4 1/4

Donc la matrice

0 1 −1

1 1 1

−1 1 1

est inversible d’inverse 14

0 2 −2

2 1 1

−2 1 1

.

Proposition. Inversibilité des matrices triangulaires ou diagonales

1. Une matrice diagonale A est inversible si et seulement si tous ses termes diagonaux sont non nuls.Dans ce cas, les coefficients diagonaux de A−1 sont les inverses des coefficients diagonaux de A.

2. Une matrice triangulaire supérieure (resp. inférieure) A est inversible si et seulement si tous sestermes diagonaux sont non nuls. Dans ce cas, son inverse est une matrice triangulaire supérieure(resp. inférieure) dont les coefficients diagonaux sont les inverses des coefficients diagonaux de A.

Démonstration. Le rang d’une matrice triangulaire est maximal si et seulement si ses coefficients diagonauxsont tous non nuls. La méthode précédente justifie la forme de l’inverse.

41

CHAPITRE 2. ALGÈBRE DES MATRICES

4.5. Puissance d'une matrice carrée

Une matrice carrée A ∈Mn(R) peut toujours être multipliée par elle-même. Ainsi, on définit les puissancesde A naturellement de la façon suivante.

Définition. Puissances d'une matrice carrée

Soit A une matrice deMn(R).On pose A0 = In et, pour tout entier n dans N, on définit An+1 def= An ×A.

Proposition. Propriétés de la puissance matricielle

Soit A une matrice deMn(R). Soient n et p deux entiers naturels.Alors on a• An+p = An ×Ap et (An)p = Anp ;

•(A>)n

= (An)>.

Démonstration.• C’est direct par associativité du produit matriciel.• Il suffit d’utiliser récursivement le fait que la transposée d’un produit et le produit dans le sens inversedes transposées.

Remarque.• La matrice A commute avec toutes ses puissances.• Mais attention, (AB)n 6= AnBn en général !

Définition. Puissances négatives d'une matrice carrée

Soit A une matrice deMn(R).Si A est inversible, alors on définit, pour tout entier naturel k, A−k = (A−1)k.

Remarque.Si A est inversible, alors, pour tout entier naturel k, Ak est également inversible d’inverse A−k.

Remarque.Il existe des matrices carrées non nulles, dont une puissance est la matrice nulle. Elles sont dites nilpotentes.

Exemple.En notant A =

0 1 1

0 0 1

0 0 0

, on a A2 =

0 0 1

0 0 0

0 0 0

et A3 =

0 0 0

0 0 0

0 0 0

= 03,3.

Proposition. Matrices diagonales et puissances

Soit A une matrice diagonale de taille n et p un entier naturel, alors Ap est également une matricediagonale.De plus, ses coefficients sont ceux de A élevés à la puissance p.

42

CHAPITRE 2. ALGÈBRE DES MATRICES

Proposition. Formule du binôme de Newton pour les matrices qui commutent

Soient A et B deux matrices carrées de même taille qui commutent.

∀n ∈ N, (A+B)n =n∑k=0

(n

k

)AkBn−k.

Démonstration. La démonstration est identique à celle de la formule du binôme de Newton pour lesnombres réels ou complexes (qui commutent) en justifiant, par récurrence, que pour tout entier k dans J0, nK,BAk = AkB.

Remarque (Carré d'une somme de matrices qui ne commutent pas).Si A et B sont deux matrices qui ne commutent pas, alors cette formule du binôme de Newton est fausse.Dans le cas général, on a (A+B)2 = A2 +AB +BA+B2.

Cette formule est souvent utile pour calculer la puissance d’une matrice : on exprime la matrice sous la formede la somme de deux matrices qui commutent et dont les puissances sont faciles à calculer (par exemple unematrice diagonale).

Exemple.Soit A une matrice nilpotente d’ordre 3, c’est-à-dire A3 = 0. Soit B une matrice qui commute avec A. Alors,pour tout entier naturel supérieur ou égal à 3, on a

(A+B)n =n∑k=0

(n

k

)AkBn−k =

2∑k=0

(n

k

)AkBn−k+

n∑k=3

(n

k

)Ak︸︷︷︸

0

Bn−k

︸ ︷︷ ︸0

= A0Bn+nABn−1+ n(n− 1)2 A2Bn−2.

43

CHAPITRE 2. ALGÈBRE DES MATRICES

44

Chapitre 3

Déterminant d'une matrice

Le thème de ce chapitre est l’obtention d’un nombre facilement calculable qui détermine si une matricecarrée est inversible ou non, appelé déterminant.

Introduction

Observons, dans les cas simples de matrices carrées de taille 1 ou 2, les liens entre les valeurs des coefficientset l’inversibilité des matrices.

• Si n = 1 alors A = (a) est inversible si et seulement si a 6= 0.

• Si n = 2 alors A =

a b

c d

est inversible si et seulement si ad− bc 6= 0. En effet, cela se voit lorsque l’on

cherche à effectuer l’algorithme de Gauss.

– Tout d’abord, si a = c = 0, alors rang(A) 6 1 et donc A n’est pas inversible. Dans ce cas, on a bienad− bc = 0.

– Ensuite, si a = 0 et c 6= 0 alors en intervertissant les deux lignes, on voit que rang(A) = 2 si etseulement si b 6= 0. Mais, dans ce cas on a

ad− bc 6= 0⇐⇒ −bc 6= 0⇐⇒ b 6= 0⇐⇒ rang(A) = 2

La première équivalence provenant du fait que a = 0 et la seconde du fait que c 6= 0.Ainsi, on retrouve à nouveau dans ce second cas que A est inversible si et seulement si ad− bc 6= 0.

– Pour finir, si on a a 6= 0, on applique la méthode du pivot de Gauss et on obtient

a b

c d

∼1 b

a

c d

∼1 b

a

0 d− b

ac

=

1 b

a

0 ad− bca

.On trouve à nouveau dans ce troisième cas que rang(A) = 2 si et seulement si ad− bc 6= 0.

En conclusion, dans tous les cas A est inversible si et seulement si ad− bc 6= 0.

Le cas n > 2 est plus compliqué. Nous allons d’abord définir le déterminant d’une matrice carrée quelconque.Puis nous étudierons ses propriétés pour constater qu’il remplit bien la fonction souhaitée.

45

CHAPITRE 3. DÉTERMINANT D’UNE MATRICE

1. Définitions

Définition.

Soit A ∈Mn(R) une matrice carrée.Le déterminant de A, noté det(A), est le scalaire défini par « descente » de la façon suivante :1. si n = 1, alors A = (a11) et det(A) = a11 ;2. si n > 2, alors A = (aij)16i,j6n et

det(A) = a11m11 − a21m21 + a31m31 − · · ·+ (−1)n+1an1mn1

=n∑i=1

(−1)i+ja1jm1j

où mij est le déterminant de la matrice deMn−1(R) obtenue en enlevant à A la ie ligne et la jecolonne.

Pour toute matrice A =

a11 a13

a31 a33

, on note aussi son déterminant de la façon suivante

det(A) =

∣∣∣∣∣∣∣∣∣∣a11 a13

a31 a33

∣∣∣∣∣∣∣∣∣∣.

Remarque.Regardons si la définition précédente du déterminant est en accord avec ce que nous avons observé sur lesmatrices de taille 2.

Soit A =

a b

c d

. On a alors det(A) =

∣∣∣∣∣∣∣a b

c d

∣∣∣∣∣∣∣ = a

∣∣∣∣d∣∣∣∣− c ∣∣∣∣d∣∣∣∣ = ad− bc

Définition.

Soit A ∈Mn(R) une matrice carrée.On appelle mineur i, j, noté mij , le déterminant de la matrice obtenue en supprimant à A la ie ligneet la je colonne.

Une matrice carrée de taille n a donc n2 mineurs.

Exemple.Considérons la matrice suivante

A =

1 2 3

0 2 1

3 0 2

46

CHAPITRE 3. DÉTERMINANT D’UNE MATRICE

Cette matrice a 9 mineurs (comme toute matrice de taille 3× 3). En voici cinq d’entre eux :

m11 =

∣∣∣∣∣∣∣2 1

0 2

∣∣∣∣∣∣∣ , m21 =

∣∣∣∣∣∣∣2 3

0 2

∣∣∣∣∣∣∣ , m13 =

∣∣∣∣∣∣∣0 2

3 0

∣∣∣∣∣∣∣ , m22 =

∣∣∣∣∣∣∣1 3

3 2

∣∣∣∣∣∣∣ , m33 =

∣∣∣∣∣∣∣1 2

0 2

∣∣∣∣∣∣∣ .

Exemple.Calculons le déterminant de cette matrice.

det(A) = 1×m11 − 0×m21 + 3×m31

= 1×

∣∣∣∣∣∣∣2 1

0 2

∣∣∣∣∣∣∣− 0×

∣∣∣∣∣∣∣2 3

0 2

∣∣∣∣∣∣∣+ 3×

∣∣∣∣∣∣∣2 3

2 1

∣∣∣∣∣∣∣= (2× 2− 0× 1)− 0 + 3× (2× 1− 2× 3)= −8

2. Propriétés

Proposition.

Soit A ∈Mn(R) une matrice carrée.On a det(A) = det

(A>).

Ainsi lors du calcul du déterminant au lieu de développer selon la première colonne, on peut égalementdévelopper selon la première ligne :

det(A) = a11m11 − a21m21 + a31m31 − · · ·+ (−1)n+1an1mn1

= a11m11 − a12m12 + a13m13 − · · ·+ (−1)n+1a1nm1n

Proposition.

Le déterminant d’une matrice triangulaire (inférieure ou supérieure) et des matrices diagonales estégal au produit des coefficients diagonaux.

Soit A la matrice carrée deMn(R) définie par

A =

a1,1 a1,2 a1,n

0

an−1,n

0 0 an,n

.

Alors on a det(A) = a1,1 × a2,2 × · · · × an,n.

Remarque.En particulier, pour tout entier naturel n, la matrice identité de taille n a pour déterminant 1 : det(In) = 1.

47

CHAPITRE 3. DÉTERMINANT D’UNE MATRICE

Exemple.Voici quelques exemples :

∣∣∣∣∣∣∣∣∣∣1 0 0

2 3 0

4 5 6

∣∣∣∣∣∣∣∣∣∣= 1× 3× 6 = 18,

∣∣∣∣∣∣∣∣∣∣∣∣∣

3 2 5 6

0 1 5 3

0 0 8 4

0 0 0 5

∣∣∣∣∣∣∣∣∣∣∣∣∣= 3× 1× 8× 5 = 120,

∣∣∣∣∣∣∣∣∣∣∣∣∣

d1 0 0 0

0 d2 0 0

0 0 d3 0

0 0 0 d4

∣∣∣∣∣∣∣∣∣∣∣∣∣= d1d2d3d4.

Il est donc très simple de calculer le déterminant d’une matrice échelonnée.

Nous allons voir par la suite l’impact d’une opération élémentaire sur le déterminant d’une matrice. Cela nouspermettra de lier le déterminant d’une matrice à celui de la matrice échelonnée obtenue suite à l’algorithmede Gauss.

Théorème.

Soit A ∈Mn(R) une matrice carrée.1. Si on multiplie des lignes de A par un scalaire λ, alors le déterminant de cette nouvelle matrice

est égal au déterminant de A multiplié par ce même scalaire.2. Si on échange deux lignes de A, le déterminant de la nouvelle matrice est égal à −det(A).3. Si à une ligne de A, on ajoute la multiplication par un scalaire d’une autre ligne de A, le déterminant

de la nouvelle matrice est le même que celui de A.

Opération élémentaire Action sur le déterminant

Li ←→ Lj (i 6= j) multiplié par −1

Li ←− λLi multiplié par λ

Li ←− Li + λLj avec i 6= j inchangé

Exemple.Voici quelques exemples d’utilisation de ces propriétés.

1.

∣∣∣∣∣∣∣4 8

3 4

∣∣∣∣∣∣∣ = 4×

∣∣∣∣∣∣∣1 2

3 4

∣∣∣∣∣∣∣ = 4× (1× 4− 2× 3) = −8

2.

∣∣∣∣∣∣∣∣∣∣2 2 2

1 2 3

3 2 2

∣∣∣∣∣∣∣∣∣∣L3←L3−L1=

∣∣∣∣∣∣∣∣∣∣2 2 2

1 2 3

1 0 0

∣∣∣∣∣∣∣∣∣∣L3↔L1= −

∣∣∣∣∣∣∣∣∣∣1 0 0

1 2 3

2 2 2

∣∣∣∣∣∣∣∣∣∣3.

∣∣∣∣∣∣∣∣∣∣2a 2b 2c

1 1 1

3 −2 2

∣∣∣∣∣∣∣∣∣∣L1← 1

2L1= 2

∣∣∣∣∣∣∣∣∣∣a b c

1 1 1

3 −2 2

∣∣∣∣∣∣∣∣∣∣4.

∣∣∣∣∣∣∣∣∣∣0 5 2

1 2 3

0 0 2

∣∣∣∣∣∣∣∣∣∣L2↔L1= −

∣∣∣∣∣∣∣∣∣∣1 2 3

0 5 2

0 0 2

∣∣∣∣∣∣∣∣∣∣= −1× 5× 2 = −10

48

CHAPITRE 3. DÉTERMINANT D’UNE MATRICE

Proposition. Conséquences du premier point du théorème.

Soit A ∈Mn(R) une matrice carrée.• Si A possède une ligne de zéro, alors son déterminant est nul.• Pour tout scalaire λ, on a det(λA) = λn det(A).

Proposition. Conséquences du deuxième point du théorème.

Soit A ∈Mn(R) une matrice carrée.• Si A possède deux lignes identiques, alors son déterminant est nul.• Pour calculer le déterminant, on peut développer selon n’importe quelle ligne (mais il faut faire

attention aux signes devant les différents termes).

Exemple.On va faire apparaître deux lignes proportionnelles pour montrer que ce déterminant est nul.∣∣∣∣∣∣∣∣∣∣∣∣∣

1 1 1 1

2 3 4 5

1 2 3 4

−1 0 2 1

∣∣∣∣∣∣∣∣∣∣∣∣∣L2←L2−L1=

∣∣∣∣∣∣∣∣∣∣∣∣∣

1 1 1 1

1 2 3 4

1 2 3 4

−1 0 2 1

∣∣∣∣∣∣∣∣∣∣∣∣∣= 0

Exemple.Pour calculer le déterminant de la matrice

2 2 2

1 2 3

3 2 2

, on va faire apparaître deux zéros sur la troisième

puis développer selon cette ligne.∣∣∣∣∣∣∣∣∣∣2 2 2

1 2 3

3 2 2

∣∣∣∣∣∣∣∣∣∣L3←L3−L1=

∣∣∣∣∣∣∣∣∣∣2 2 2

1 2 3

1 0 0

∣∣∣∣∣∣∣∣∣∣dévelop. selon 3e ligne= +1

∣∣∣∣∣∣∣2 2

2 3

∣∣∣∣∣∣∣ = 2× 3− 2× 2 = 6− 4 = 2

De plus, comme le déterminant d’une matrice est égal à celui sa transposée, on peut également développerselon n’importe quelle colonne.• Développement selon la je colonne. Pour tout j = 1, . . . , n, on a

det(A) =

∣∣∣∣∣∣∣∣∣∣a11 a1n

an1 ann

∣∣∣∣∣∣∣∣∣∣=

n∑i=1

(−1)i+jaijmij .

• Développement selon la ie ligne. Pour tout i = 1, . . . , n, on a

det(A) =

∣∣∣∣∣∣∣∣∣∣a11 a1n

an1 ann

∣∣∣∣∣∣∣∣∣∣=

n∑j=1

(−1)i+jaijmij .

En pratique, afin de limiter les calculs, on développe selon la ligne ou la colonne qui contient le plus de zéros.

49

CHAPITRE 3. DÉTERMINANT D’UNE MATRICE

Remarque.La difficulté principale dans les formules précédentes provient du terme (−1)i+j qui indique le changementsuccessif de signe dans les sommes. Pour s’en rappeler, on pourra garder en tête le schéma suivant :

+ − + −

− + − +

+ − + −

− + − +

Ainsi, si on développe par exemple selon la deuxième colonne, on obtient

det(A) = −a12m12 + a22m22 − a32m32

et selon la troisième lignedet(A) = +a31m31 − a32m32 + a33m33.

3. Déterminant et inversibilité

Le déterminant se comporte bien vis-à-vis du produit, ce qui donne le résultat suivant.

Proposition.

Soient A et B dansMn(R).On a det (AB) = det(A)× det(B).

On obtient alors le résultat suivant.

Proposition.

Soit A ∈Mn(R) une matrice carrée.Si A est inversible, alors on a det(A) 6= 0 et det

(A−1

)= 1

det(A) .

Démonstration. Soit A une matrice dansMn(R) inversible.On a A×A−1 = In. En passant aux déterminants, on obtient det(A)× det(A−1) = det(In) = 1.Ainsi on doit forcément avoir det(A) 6= 0 et det(A−1) 6= 0. Et très clairement on obtient det

(A−1

)= 1

det(A) .Ainsi le fait que le déterminant d’une matrice est non nul est une condition nécessaire à son inversibilité. Ils’agit en fait d’une condition suffisante également.

Théorème.

Soit A ∈Mn(R) une matrice carrée.La matrice A est inversible si et seulement si det(A) 6= 0.

Démonstration. Soit A une matrice dansMn(R).On a déjà montré l’implication précédemment.On suppose maintenant que det(A) 6= 0 et on va montrer que A est forcément inversible.On a vu que les opérations élémentaires se traduisent par la multiplication à gauche par une matriceélémentaire. Ainsi, d’après le processus de Gauss–Jordan il existe une série de matrices élémentaires notéesE1, . . . , Em et une matrice échelonnée (triangulaire supérieure) T , telles que

Em · · ·E1A = T.

50

CHAPITRE 3. DÉTERMINANT D’UNE MATRICE

De plus, on a rang(A) = rang(T ) et une matrice carrée de taille n est inversible si et seulement si elle estnon singulière, c’est-à-dire de rang n. Donc A est inversible si et seulement si elle est de rang n, c’est-à-diresi et seulement si T est de rang n.Or T est échelonnée, donc elle est de rang n si et seulement si ses termes diagonaux sont tous non nuls.Comme T est triangulaire, son déterminant est égal au produit de ses termes diagonaux : det(T ) = t11 × tnn.Ainsi A est inversible si et seulement si det(T ) 6= 0.

Or d’après le théorème 3.2, on sait que les déterminants de A et de T sont égaux à une certaines constantemultiplicative non nulle près. Donc on a det(T ) 6= 0⇔ det(T ) 6= 0.En conclusion on a les équivalence suivantes

A est inversible ⇐⇒ T est inversible⇐⇒ det(T ) 6= 0⇐⇒ det(A) 6= 0

Ce résultat est très utile pour déterminer facilement si une matrice est inversible ou non. En particulier,lorsqu’une matrice dépend d’un ou plusieurs paramètres (ce qui est le cas dans des systèmes avec un ouplusieurs paramètres dans le premier membre), le déterminant donne une condition immédiate sur lesparamètres caractérisant le caractère inversible ou non de la matrice.

Exemple.On cherche une condition sur le paramètre m ∈ R pour que le système

mx +y +z = 0

x +my +mz = 0

x +mz = 0

admette une unique solution. Ce système admet une unique solution si et seulement si la matrice descoefficients

Am =

m 1 1

1 m m

1 0 m

est inversible, donc si et seulement si det(Am) 6= 0.Pour calculer ce déterminant on peut par exemple faire l’opération L2 ← L2 −mL1 qui ne modifie par ledéterminant puis développer selon la seconde ligne, ce qui donne

det(Am) =

∣∣∣∣∣∣∣∣∣∣m 1 1

1 m m

1 0 m

∣∣∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣∣∣m 1 1

1−m2 0 0

1 0 m

∣∣∣∣∣∣∣∣∣∣= −(1−m2)

∣∣∣∣∣∣∣1 1

0 m

∣∣∣∣∣∣∣ = m(m2 − 1).

En conclusion, le système est inversible si et seulement si Am est inversible donc si et seulement si m(m2−1) 6=0.

Lorsque m(m2 − 1) 6= 0, le calcul de l’inverse de Am donne

A−1m = 1

m(m2 − 1)

m2 −m 0

0 m2 − 1 1−m2

−m −1 m2 − 1

.

51

CHAPITRE 3. DÉTERMINANT D’UNE MATRICE

Ainsi, si m(m2 − 1) 6= 0, on peut résoudre les système.mx +y +z = a

x +my +mz = b

x +mz = c

avec n’importe quel second membre par la formule explicite :x

y

z

= A−1m

a

b

c

.Par exemple, l’unique solution du système

mx +y +z = 2

x +my +mz = 1

x +mz = −1

est x

y

z

= A−1m

2

1

−1

= 1m(m2 − 1)

m2 −m 0

0 m2 − 1 1−m2

−m −1 m2 − 1

2

1

−1

= 1m(m2 − 1)

2m2 −m

2m2 − 2

−2m−m2

.Soit

x = 2m2 −mm(m2 − 1) = 2m− 1

m2 − 1 , y = 2m2 − 2m(m2 − 1) = 2

met z = −2m−m2

m(m2 − 1) = − 2 +m

m2 − 1 .

Comme le déterminant nous indique directement le caractère inversible ou non d’une matrice, il n’est pasétonnant que l’on voit apparaître dans l’expression de l’inverse d’une matrice comme dans l’exemple précédent.Il existe même une formule pour l’inverse d’une matrice faisant intervenir le déterminant de celle-ciDans la suite, à titre uniquement culturel, je vais vous présenter une telle formule. Avant de l’énoncer,nous avons besoin de définir la notion comatrice.

Définition.

Soit A ∈Mn(R) une matrice carrée.On appelle comatrice de A la matrice C = (cij)i,j ∈Mn définie par

cij = (−1)i+jmij ,

où les mij sont les mineurs de la matrice A.On la note com(A).

Ainsi, la comatrice de A est la matrice des mineurs de A multipliés par +1 ou -1 selon le schéma suivant :

+ − + −

− + − +

+ − + −

− + − +

52

CHAPITRE 3. DÉTERMINANT D’UNE MATRICE

Autrement dit

com(A) =

+m11 −m12 +m13

−m21 +m22 −m23

+m31 −m32 +m33

Rappelons que le mineur i, j d’une matrice A est le déterminant de taille n− 1 de la matrice obtenue ensupprimant la ligne numéro i et la colonne numéro j de A. Ainsi, le calcul de la comatrice d’une matrice detaille n nécessite le calcul de n2 déterminants de taille n− 1. C’est très long. En pratique, on ne calcule queles comatrices de matrices 2× 2 ou 3× 3 (et encore...).

Proposition.

Soit A ∈Mn(R) une matrice carrée.Si A est inversible alors

A−1 = 1det(A)com(A)>.

Ce théorème est surtout utile pour les matrices 2× 2.

En effet, si A =

a b

c d

alors com(A) =

d −c

−b a

. Donc si det(A) = ad− bc 6= 0 on a

A−1 = 1det(A)com(A)> = 1

ad− bc

d −b

−c a

.

Exemple.On considère la matrice A =

1 2

−1 2

. On a det(A) = 4 6= 0 donc A est inversible et

A−1 = 14

2 −2

1 1

.

Ce théorème est également applicable pour des matrices 3× 3 mais demande de calculer 9 déterminant 2× 2(en plus du déterminant 3× 3 de départ).

Exemple.On considère la matrice A =

0 1 1

1 0 1

1 1 0

. On a det(A) = 2 6= 0 donc A est inversible.

com(A) =

−1 1 1

1 −1 1

1 −1 −1

et finalement A−1 = 12

−1 1 1

1 −1 1

1 −1 −1

>

= 12

−1 1 1

1 −1 −1

1 1 −1

.

Mais cela n’est pas plus efficace que de calculer l’inverse d’une matrice via l’algorithme de Gauss–Jordan.

53

CHAPITRE 3. DÉTERMINANT D’UNE MATRICE

54

Chapitre 4

Les espaces Rn et la notion d'espace vectoriel

1. Vecteurs de Rn

1.1. Interprétation géométrique

On identifie le plan usuel avec R2 et l’espace usuel avec R3, en considérant un repère et en prenant pourorigine de chaque vecteur l’origine de ce repère.

On généralise ces notions en considérant des espaces de dimension n pour tout entier naturel strictement

positifs n. Les éléments de l’espace de dimension n, Rn, sont les vecteurs

x1

xn

de nombres réels.

Définition. Opérations sur les vecteurs

Soient

x1

xn

et

y1

yn

deux éléments de Rn. Soit λ ∈ R.

On définit les opérations suivantes :

• Addition de deux vecteurs :

x1

xn

+

x1

xn

=

x1 + y1

xn + yn

;

• Multiplication par un scalaire : λ

x1

xn

=

λx1

λxn

.

Dans R2, on considère deux vecteurs : u =(a

b

)et v =

(a′

b′

). L’addition et la multiplication par un scalaire

se visualisent géométriquement de la façon suivante :

Somme de deux vecteurs

~u

u+ v

(0, 0)

v

a′

b′

a

b

a+ a′

b+ b′

Multiplication par un scalaire

~

λu

λa

λb

u

a

b

55

CHAPITRE 4. LES ESPACES RN ET LA NOTION D’ESPACE VECTORIEL

1.2. Combinaisons linéaires

Définition. Combinaison linéaire

On appelle combinaison linéaire des vecteurs v1, . . . , vp de Rn tout élément de la forme

λ1v1 + · · ·+ λpvp,

où λ1, . . . , λp sont des scalaires.On note Vect(v1, . . . , vn) l’ensemble des vecteurs qui peuvent s’écrire comme combinaison linéaire desvecteurs v1, . . . , vn :

Vect(v1, . . . , vn) = {λ1v1 + · · ·+ λpvp, λi ∈ R}

L’addition de deux vecteurs et la multiplication par un scalaire sont deux cas particuliers de combinaisonslinéaires.

Remarque.L’ensemble des combinaisons linéaires des vecteurs v1, . . . , vp est l’ensemble des vecteurs que l’on peut obtenir,à partir des vecteurs v1, . . . , vp, en utilisant uniquement l’addition de vecteurs et la multiplication scalaire.

On note M la matrice dont les colonnes correspondent aux coefficients des vecteurs v1, . . . , vn :

M = (v1|v2| · · · |vn)

On peut alors réécrire l’ensemble des combinaisons linéaires des vecteurs v1, . . . , vn de la façon suivante :

Vect(v1, . . . , vn) =

M ×λ1

λn

, λi ∈ R

Exemple.Dans R4, on considère les vecteurs suivants :

u1 =

1201

, u2 =

213−1

, u3 =

3330

et v =

546−1

Le vecteur v est combinaison linéaire des vecteurs u1, u2 et u3 car on a

v = 12u1 + 3

2u2 + 12u3

Ainsi on a v ∈ Vect (u1, u2, u3).On peut remarquer que la combinaison linéaire proposée précédemment n’est pas la seule étant égale à v. Ona également :

v = u1 + 2u2 et v = u2 + u3

car u1 = −u2 + u3. Du coup, on a u1 ∈ Vect(u2, u3) ce qui donne Vect(u1, u2, u3) = Vect(u2, u3), c’est-à-direque toutes les combinaisons linéaires des vecteurs u1, u2 et u3 peuvent s’écrire comme des combinaisonslinéaires des vecteurs u2 et u3 uniquement.

Exemple.1. Vect(0Rn) = {0Rn}.

56

CHAPITRE 4. LES ESPACES RN ET LA NOTION D’ESPACE VECTORIEL

2. Si u est un vecteur non nul de Rn, alors Vect(u) = {λu, λ ∈ R}.Cet ensemble est appelé la droite vectorielle engendrée par u.Si n = 2, alors c’est la droite du plan de vecteur directeur u passant par 0R2 .Si n = 3, alors c’est la droite de l’espace de vecteur directeur u passant par 0R3 .

3. Si u et v sont deux vecteurs non nuls de Rn, alors Vect(u, v) ={αu+ βv, (α, β) ∈ R2

}.

• Si u et v sont colinéaires, alors Vect(u, v) = Vect(u) = Vect(v).• Si u et v ne sont pas colinéaires, alors Vect(u, v) est le plan engendré par u et v.Si n = 2, alors c’est le plan R2 complet.Si n = 3, alors c’est un plan de l’espace.

4. Si u, v et w sont trois vecteurs non coplanaires de R3, alors Vect(u, v, w) = R3.

Exemple.L’ensemble des solutions dans R3 de l’équation 2x+ y − z = 0 est l’ensemble des combinaisons linéaires des

vecteurs

102

et

011

de R3.

xyz

∈ R3, 2x+ y = z

=

x

y

2x+ y

, x, y ∈ R

=

x1

02

+ y

011

, (x, y) ∈ R2

= Vect

1

02

,0

11

Exemple.Pour tout i ∈ J0;nK, on note ei le vecteur de Rn tel que tous ses coefficients sont nuls sauf le ie.Par exemple, on a :

e1 =

10

0

, e2 =

010

0

et en =

0

01

On a Vect(e1, e2, . . . , vn) = Rn car tout vecteur de Rn peut s’écrit comme combinaison linéaire des vecteursei.

En effet, pour tout vecteur v de Rn, on v =n∑i=1

xiei où les xi, i entre 0 et n, sont les coefficients du vecteur v.

1.3. Familles génératrices

Définition. Famille génératrice

On dit qu’une famille finie (v1, . . . , vp) de vecteurs de Rn est une famille génératrice de Rn ou quecette famille engendre Rn si et seulement si

Vect(v1, . . . , vp) = Rn.

57

CHAPITRE 4. LES ESPACES RN ET LA NOTION D’ESPACE VECTORIEL

Remarque.Si (v1, . . . , vp) est une famille génératrice de Rn, alors tout vecteur x de Rn s’écrit comme combinaisonlinéaire des vecteurs v1, . . . , vp :

∀x ∈ Rn, ∃λ1, . . . , λp ∈ R, x =p∑i=1

λivi.

En terme matriciel, on a la proposition suivante.

Proposition.

Soit F = (v1, · · · , vp) une famille de vecteurs de Rn et M = (v1| · · · |vp) la matrice des vecteurscolonnes.La famille de vecteurs F est génératrice de Rn si et seulement si rang(M) = n.

Par conséquent, si une famille de p vecteurs de Rn est génératrice alors forcément n 6 p.

Démonstration. Si la famille est génératrice, alors tout vecteur (a1, · · · , an) ∈ Rn est combinaison linéairedes vecteurs (v1, · · · , vp). Ainsi, pour tout second membre (a1, · · · , an), il existe au moins une solution ausystème linéaire suivant (d’inconnues λ1, · · · , λp).

M ×

λ1

λp

=

a1

an

Ce système ne peut donc pas avoir d’équations de compatibilité. Par conséquent le rang de M est égal à sonnombre de lignes.Ainsi ce système linéaire admet au moins une solution pour tout second membre si et seulement si rang(M) =n.

Remarque.Deux vecteurs de R3 ne peuvent pas former une famille génératrice de R3 : toute famille génératrice de R3

est formée d’au moins trois vecteurs.De façon générale, toute famille génératrice de Rn est formée d’au moins n vecteurs.

1.4. Familles libres

Définition. Famille libre

On dit qu’une famille finie (v1, . . . , vp) de vecteurs de Rn est libre ou que les vecteurs v1, . . . , vp sontlinéairement indépendants si aucun vecteur n’est combinaison linéaire des autres.Dans le cas contraire, on dit que la famille (v1, . . . , vp) est liée ou que les vecteurs sont linéairementdépendants.

Exemple.Dans R4, la famille de vecteurs u1, u2 et u3 est liée car u1 = −u2 + u3

u1 =

1201

, u2 =

213−1

, u3 =

3330

58

CHAPITRE 4. LES ESPACES RN ET LA NOTION D’ESPACE VECTORIEL

Proposition.

Une famille finie (v1, . . . , vp) de vecteurs de Rn est libre si et seulement si

∀λ1, . . . , λp ∈ R, λ1v1 + · · ·+ λpvp = 0Rn =⇒ λ1 = · · · = λp = 0.

Une famille est donc libre si et seulement s’il existe une unique décomposition du vecteur nul commecombinaison linéaire de cette famille : celle dont les coefficients sont tous nuls.

Exemple.1. La famille (e1, . . . , en) est libre sur Rn.

En effet, soient λ1, . . . , λn des scalaires tels que

λ1e1 + · · ·+ λnen = 0Rn ,

c’est-à-dire(λ1, . . . , λn) = (0, . . . , 0).

Alorsλ1 = · · · = λn = 0.

2. Famille de deux vecteurs.Soient u et v deux vecteurs tels que la famille (u, v) soit liée.Alors il existe une combinaison linéaire nulle

αu+ βv = 0Rn

telle que α ou β soit non nul.Si (par exemple) α est non nul, alors

u = −βαv,

ce qui prouve que les vecteurs u et v sont colinéaires.On a alors Vect(u, v) = Vect(u) = Vect(v).Réciproquement, si u et v sont colinéaires, alors il existe un réel λ non nul tel que u = λv (si v est nonnul) et donc

u− λv = 0Rn ,

ce qui prouve qu’il existe une combinaison linéaire nulle non triviale donc la famille est liée.Finalement, deux vecteurs u et v forment une famille libre si et seulement s’ils sont non colinéaires.

3. Famille de trois vecteurs.Trois vecteurs peuvent être deux à deux non colinéaires sans pour autant former une famille libre, parexemple si le troisième est dans le plan Vect(u, v) sans être ni colinéaire à u ni colinéaire à v. Il fautrevenir à la définition d’une famille libre.

Remarque.Toute famille contenant deux fois le même vecteur est liée : on peut choisir comme coefficients dans unecombinaison linéaire nulle −1 et 1 devant ce vecteur et 0 devant tous les autres :

1× v + (−1)× v + 0× v3 + · · ·+ 0× vp = 0Rn .

Proposition.

Soit F = (v1, · · · , vp) une famille de vecteur de Rn etM = (v1| · · · |vp) la matrice des vecteurs colonnes.La famille de vecteurs F est libre si et seulement si rang(M) = p.Par conséquent, si une famille de p vecteur de Rn est libre alors p 6 n.

59

CHAPITRE 4. LES ESPACES RN ET LA NOTION D’ESPACE VECTORIEL

Démonstration. On considère le système linéaire homogène (d’inconnues λ1, · · · , λp) suivant

M ×

λ1

λp

=

0

0

(0, · · · , 0) est toujours solution de ce système.Ce système homogène admet une unique solution si et seulement si rang(M) = p. Donc la famille de vecteursest libre si et seulement si rang(M) = p.

Remarque.Quatre vecteurs de R3 ne peuvent pas former une famille libre de R3 : toute famille libre de R3 est forméed’au plus trois vecteurs.De façon générale, toute famille libre de Rn est formée d’au plus n vecteurs.

1.5. Base de Rn

Définition.

Une famille de vecteurs de Rn est une base de Rn si et seulement si elle est libre et génératrice de Rn.

Remarque.Par conséquent, une famille F = (v1, · · · vn) de Rn est une base si et seulement si tout vecteur (a1, · · · , an)s’écrit de manière unique comme combinaison linéaire des vecteurs (v1, · · · vn).

Exemple.La famille (e1, . . . , en) est une base de Rn, appelée base canonique de Rn.

En termes matriciels, on a la proposition suivante.

Proposition.

Soit F = (v1, · · · , vp) une famille de vecteur de Rn etM = (v1| · · · |vp) la matrice des vecteurs colonnes.La famille de vecteurs F est une base de Rn si et seulement si rang(M) = n = p.

Remarque.Par conséquent, si une famille de p vecteurs de Rn est une base de Rn alors p = n = rang(M).Autrement dit, la matrice M est carrée et est inversible et donc det(M) 6= 0.

Démonstration. La famille F étant libre on a rang(M) = p. F étant génératrice, on a rang(M) = n. D’oùrang(M) = n = p ce qui équivaut à M inversible et à det(M) 6= 0.

60

CHAPITRE 4. LES ESPACES RN ET LA NOTION D’ESPACE VECTORIEL

Théorème.

Soit F une famille de n vecteurs de Rn et M sa matrice colonne. Les propriétés suivantes sontéquivalentes.• F est libre.• F est génératrice.• F est une base.• rang(M) = n

• det(M) 6= 0

L’ensemble Rn possède une infinité de bases. Une base c’est simplement la donnée d’un nombre minimal dedirections permettant de couvrir tout l’espace.La base la plus simple est la base canonique B = (e1, · · · , en).En effet, soit u = (a1, · · · , an) ∈ Rn, alors u s’écrit d’une unique manière comme combinaison linéaire devecteurs de la base canonique :

u = a1e1 + a2e2 + · · ·+ anen.

Les coefficients ai de la combinaison linéaire sont simplement les coordonnées de u.

2. Espaces vectoriels et sous-espaces vectoriels

2.1. Sous-espaces vectoriels de Rn

Définition. Sous-espace vectoriel

On dit qu’un sous-ensemble E de Rn est un sous-espace vectoriel de Rn si et seulement s’il est1. non vide ;2. stable par addition :

∀x ∈ E, ∀y ∈ E, x+ y ∈ E ;

3. stable par multiplication par les scalaires :

∀x ∈ E, ∀λ ∈ R, λ ·x ∈ E

Exemple.{0Rn} et Rn sont des sous-espaces vectoriels, appelés sous-espaces vectoriels triviaux, de Rn.

En pratique, on utilise le critère équivalent suivant.

Proposition. Sous-espace vectoriel

Un sous-ensemble E de Rn est un sous-espace vectoriel de Rn si et seulement si1. le vecteur nul 0Rn appartient à E ;2. E est stable par combinaison linéaire :

∀x ∈ E, ∀y ∈ E, ∀λ ∈ R, λx+ y ∈ E.

Démonstration. Montrons qu’un ensemble vérifiant ces propriétés est un sous-espace vectoriel de Rn.• Si E contient le vecteur nul, alors il est non vide.

61

CHAPITRE 4. LES ESPACES RN ET LA NOTION D’ESPACE VECTORIEL

• Soient x et y deux vecteurs de E.En prenant λ = 1, on obtient x+ y appartient à E, ce qui prouve la stabilité par addition.• Soient x un vecteur de E et λ un élément de R.En prenant y = 0, on obtient λx appartient à E, ce qui prouve la stabilité par multiplication scalaire.

Montrons qu’un sous-espace vectoriel de Rn vérifie ces propriétés.• Si E est un sous-espace vectoriel de Rn, alors il contient un vecteur x.En prenant λ = 0, on obtient λx = 0Rn , ce qui prouve que le vecteur nul appartient à E.• Soient x et y deux vecteurs de E. Soit λ un élément de R.Par multiplication scalaire, λx appartient à E.Par somme, λx+ y appartient à E, ce qui prouve que E est stable par combinaison linéaire.

Théorème. Tout sous-espace vectoriel engendré est un sous-espace vectoriel

Pour toute famille finie (v1, . . . , vp) de vecteurs de Rn, Vect(v1, . . . , vp) est un sous-espace vectoriel deRn.

Démonstration.• Le vecteur nul 0Rn appartient à Vect(v1, . . . , vp) car 0 · v1 + · · ·+ 0 · vp = 0Rn .

• Soient x et y deux vecteurs de Vect(v1, . . . , vp). Soit λ un scalaire.Montrons que λx+ y appartient à Vect(v1, . . . , vp).x est dans Vect(v1, . . . , vp) donc il existe α1, . . . , αp dans R tels que x = α1v1 + · · ·+ αpvp.y est dans Vect(v1, . . . , vp) donc il existe β1, . . . , βp dans R tels que y = β1v1 + · · ·+ βpvp.Ainsi,

λx+ y = λ(α1v1 + · · ·+ αpvp) + β1v1 + · · ·+ βpvp

= (λα1 + β1)v1 + · · ·+ (λαp + βp)vp.

Finalement, le vecteur λx+ y appartient à Vect(v1, . . . , vp) car il s’écrit bien comme combinaison linéairedes vecteurs v1, . . . , vp.

Exemple.1. L’ensemble E :=

{(3a− 2b, a+ b, b), (a, b) ∈ R2

}suivant est un sous-espace vectoriel de R3.

E ={

(3a− 2b, a+ b, b), (a, b) ∈ R2}

={a(3, 1, 0) + b(−2, 1, 1), (a, b) ∈ R2

}= Vect((3, 1, 0), (−2, 1, 1)).

2. L’ensemble des solutions dans R3 de l’équation 2x+ y − z = 0 est un sous-espace vectoriel de R3.{(x, y, z) ∈ R3, 2x+ y = z

}={

(x, y, 2x+ y), (x, y) ∈ R2}

={x(1, 0, 2) + y(0, 1, 1), (x, y) ∈ R2

}= Vect((1, 0, 2), (0, 1, 1))

Proposition.

L’ensemble des solutions d’un système linéaire homogène à n équations et p inconnues :a11x1 + . . . + a1pxp = 0

...an1x1 + . . . + anpxp = 0

est un sous-espace vectoriel de Rp.

62

CHAPITRE 4. LES ESPACES RN ET LA NOTION D’ESPACE VECTORIEL

Démonstration. Notons S la partie de Rp constituée des solutions d’un tel système. On note A la matricedes coefficients du système. On a

S = {X ∈ Rp, tels que AX = 0n}

L’ensemble S contient 0p puisque A× 0p = 0n.Il est stable par addition car si on a

A

x1

xp

= 0n et A

y1

yp

= 0n

alors on a

A

x1

xp

+

y1

yp

= A

x1

xp

+A

y1

yp

= 0n + 0n = 0n

Enfin S est stable par multiplication par un scalaire car pour tout λ ∈ R et pour tout

x1

xp

∈ S, on a

A

λx1

xp

= λA

x1

xp

= λ0n = 0n

Remarque.Il est fondamental que le système soit homogène car sinon 0n n’est pas solution.

Remarque.• L’ensemble des solutions dans R2 de l’équation ax+ by = 0 est une droite (du plan) passant par l’originedu repère.• L’ensemble des solutions dans R3 de l’équation ax+ by + cz = 0 est un plan (de l’espace) passant parl’origine du repère.

Exemple.L’ensemble

E1 :={

(x, y) ∈ R2, 3x+ 2y = 0}

est un sous-espace vectoriel de R2. C’est une droite qui passe par l’origine du repère.

Exemple.L’ensemble

E2 :={

(x, y) ∈ R2, 3x+ 2y = 1}

n’est pas un sous-espace vectoriel de R2. C’est une droite qui ne passe pas par l’origine du repère.

Remarque.L’ensemble des solutions du système {

ax + by + cz = 0a′x + b′y + c′z = 0

est l’intersection de deux plans de l’espace passant par l’origine du repère.Si les plans sont distincts, alors cette intersection est une droite de l’espace passant par l’origine du repère.

63

CHAPITRE 4. LES ESPACES RN ET LA NOTION D’ESPACE VECTORIEL

Exemple.L’ensemble des solutions dans R3 de l’équation x = 0 est un plan de l’espace.L’ensemble des solutions dans R3 de l’équation y = 0 est un plan de l’espace.

L’ensemble des solutions dans R3 du système{x = 0y = 0

est la droite qui correspond à l’axe vertical (l’axe

des z) qui correspond à l’intersection des deux plans précédents.

Exemple.La réunion des droites du plan d’équation x− y = 0 et x+ y = 0 est l’ensemble

E3 ={

(x, y) ∈ R2, x2 = y2}

qui n’est pas un sous-espace vectoriel de R2.En effet, la somme des vecteurs (1, 1) et (−1, 1), appartenant tous deux à E3, est le vecteur (0, 2), quin’appartient pas à E3.

Théorème. Caractérisation des sous-espaces vectoriels de Rn

Les sous-espaces vectoriels de Rn sont les ensembles des solutions de systèmes d’équations linéaireshomogènes à coefficients dans R.

2.2. Dimension

Théorème. Existence et cardinal d'une base

Tout sous-espace vectoriel de Rn possède une base et toutes ses bases ont même cardinal.

Remarque.Deux vecteurs de R3 ne peuvent pas former une base de R3 : toute base de R3 est formée d’exactement troisvecteurs.De façon générale, toute base de Rn est formée d’exactement n vecteurs.

Définition. Dimension d'un sous-espace vectoriel de Rn

Soit E un sous-espace vectoriel de Rn.On appelle dimension de E et on note dim(E) le cardinal d’une (et donc de toute) base de E.

Exemple.1. La famille (e1, . . . , en) est une base de Rn de cardinal n. On en déduit dim (Rn) = n.

2. Par convention, on pose dim({0Rn}) = 0.3. Un sous-espace vectoriel de dimension 1 est appelé droite vectorielle.4. Un sous-espace vectoriel de dimension 2 est appelé plan vectoriel.

2.3. Sous-espaces vectoriels associés à une matrice

Soit A ∈Mn,p(R). Il existe deux sous-espaces vectoriels associés à la matrice A.

64

CHAPITRE 4. LES ESPACES RN ET LA NOTION D’ESPACE VECTORIEL

Définition. Image d'une matrice

Soit A une matrice deMn,p(R).On appelle image de A, et on note Im(A), le sous-espace vectoriel de Rn engendré par les vecteurscorrespondant aux colonnes de A.

Remarque.Soit A dansMn,p(R). On note v1 le vecteurs correspondant à sa ie colonne, A = (v1|v2| · · · |vp). On a

Im(A) = Vect(v1, v2, . . . , vp)

=

Ax1

xp

tels que

x1

xp

∈ Rp

(⊂ Rn)

=

y1

yn

∈ Rn tels que ∃

x1

xp

∈ Rp, A

x1

xp

=

y1

yn

On a dim(Im(A)) = rang(A).

Définition. Noyau d'une matrice

Soit A une matrice deMn,p(R).On appelle noyau de A, et on note Ker(A), le sous-espace vectoriel de Rn correspondant à l’ensembledes solutions de AX = 0n.

Remarque.Pour toute matrice A dansMn,p(R), on a

Ker(A) =

x1

xp

∈ Rp, A

x1

xp

= 0n.

.

Exemple.On considère la matrice A =

(1 2 3−2 −4 −6

).

• Ker(A) est le plan de R3 d’équation x+ 2y + 3z = 0.• Im(A) = Vect((1,−2), (2,−4), (3,−6)) = Vect((1,−2)).Ainsi, Im(A) est la droite de R2 de vecteur directeur (1,−2).

Parfois, on peut vouloir connaitre la dimension de Ker(A) sans calculer explicitement une base. C’estnotamment le cas lorsque l’on veut déterminer si une matrice est diagonalisable. On a alors le résultat suivant.

Théorème. Théorème du rang

Soit A ∈Mn,p(R). On adim(Ker(A)) + rang(A) = p

65

CHAPITRE 4. LES ESPACES RN ET LA NOTION D’ESPACE VECTORIEL

Démonstration. Ker(A) est l’ensemble des solutions du système linéaire homogène de n lignes et p colonnesAX = 0.La dimension de Ker(A) correspond donc au nombre de variable libres.On sait que rang(A) correspond au nombre de variables liées. Il y a p variables au total soit p − rang(A)variables libres, d’où le résultat.

Exemple.Reprenons l’exemple précédent.

On a A =(

1 2 3−2 −4 −6

)∼(

1 2 30 0 0

). Donc le rang de A est 1.

Ainsi d’après le théorème du rang, on a dim(Ker(A)) = 3− 1 = 2. donc ((2,−1, 0), (3, 0,−1)) est une base deKer(A) On peut vérifier que (2,−1, 0) et (3, 0,−1) sont dans Ker(A).Comme ces deux vecteurs sont non colinéaires, ils forment une base de Ker(A).

Exemple.• Soit A =

(1 23 6

). On a rang(A) = 1 donc Ker(A) est de dimension 2− 1 = 1

• Soit A =

1 2 30 1 10 0 0

. On a rang(A) = 2 donc Ker(A) est de dimension 3− 2 = 1

3. Compléments : espaces vectoriels

Les mathématiciens ont longtemps calculé sans avoir formalisé la notion d’espace vectoriel car ils manipulaientessentiellement des objets particuliers, pour lesquels il existe de manière naturelle un système de coordonnées.Cependant, certains espaces vectoriels ne possèdent pas de système de coordonnées privilégié : l’ensemble desfonctions continues sur R, l’ensemble des solutions d’un système d’équations différentielles, etc.

Le point de vue axiomatique permet de modéliser un espace vectoriel à l’aide des calculs possibles dans cetensemble, et non plus à travers un système de coordonnées donné. Il s’agit alors de se demander quelles sontles règles que doivent respecter l’addition de deux éléments et la multiplication par un scalaire pour obtenirun objet raisonnable.

Les mathématiciens ont posé huit axiomes répondant à cette question. Il faut bien comprendre que cesaxiomes ne constituent pas des conditions a priori de tout calcul possible, mais constituent les conditions aposteriori que l’histoire des mathématiques a retenues.

66

CHAPITRE 4. LES ESPACES RN ET LA NOTION D’ESPACE VECTORIEL

Définition. Espaces vectoriels

Soit E un ensemble. Soient + : E × E → E et · : R× E → E deux applications.On dit que (E,+, · ) (ou plus simplement E s’il n’y a pas d’ambigüité) est un R-espace vectoriel siet seulement si1. l’application

+ : E × E → E, (x, y) 7→ x+ y,

appelée addition, vérifie les propriétés suivantes.(a) L’addition est commutative :

∀(x, y) ∈ E2, x+ y = y + x.

(b) L’addition est associative :

∀(x, y, z) ∈ E3, x+ (y + z) = (x+ y) + z.

(c) L’addition admet un élément neutre, noté 0E et appelé vecteur nul, tel que

∀x ∈ E, x+ 0E = x = 0E + x.

Par commutativité, si l’une des deux égalités est vérifiée, alors l’autre l’est également.(d) Tout élément x de E admet un opposé, c’est-à-dire que

∀x ∈ E, ∃y ∈ E, x+ y = 0E = y + x ;

Par commutativité, si l’une des deux égalités est vérifiée, alors l’autre l’est également.2. l’application

· : R× E → E, (λ, x) 7→ λ ·x (souvent noté λx),

appelée multiplication scalaire, vérifie les propriétés suivantes.(a) La multiplication scalaire vérifie la règle d’associativité mixte :

∀(λ, µ) ∈ R2, ∀x ∈ E, λ · (µ ·x) = (λµ) ·x.

(b) Le scalaire 1 de R est un élément neutre à gauche de la multiplication scalaire :

∀x ∈ E, 1 ·x = x.

(c) La multiplication scalaire est distributive à droite par rapport à l’addition dans R :

∀(λ, µ) ∈ R2, ∀x ∈ E, (λ+ µ) ·x = λ ·x+ µ ·x.

(d) La multiplication scalaire est distributive à gauche par rapport à l’addition dans E :

∀λ ∈ R, ∀(x, y) ∈ E2, λ · (x+ y) = λ ·x+ λ · y.

Les éléments de E s’appellent les vecteurs et les éléments de R s’appellent les scalaires.

67

CHAPITRE 4. LES ESPACES RN ET LA NOTION D’ESPACE VECTORIEL

Proposition. Structure d'espace vectoriel de Rn

Rn, muni de l’addition et de la multiplication par un scalaire, possède une structure de (R-)espacevectoriel

La proposition précédente signifie que1. l’addition

+ : Rn × Rn → Rn, (x, y) 7→ x+ y,

est une application qui vérifie les propriétés suivantes(a) L’addition est commutative :

∀x ∈ Rn, ∀y ∈ Rn, x+ y = y + x.

(b) L’addition est associative :

∀x ∈ Rn, ∀y ∈ Rn, ∀z ∈ Rn, x+ (y + z) = (x+ y) + z.

(c) L’addition admet un élément neutre 0Rn := (0, . . . , 0), c’est-à-dire que

∀x ∈ Rn, x+ 0Rn = x = 0Rn + x.

(d) Tout élément x de Rn admet un opposé, c’est-à-dire que

∀x ∈ Rn, ∃y(= −x) ∈ Rn, x+ y = 0Rn = y + x

2. la multiplication scalaire· : R× Rn → Rn, (λ, x) 7→ λ ·x =: λx,

est une application vérifiant les propriétés suivantes.(a) La multiplication vérifie une condition d’associativité :

∀λ ∈ R, ∀µ ∈ R, ∀x ∈ Rn, λ · (µ ·x) = (λµ) ·x.

(b) La multiplication scalaire possède un élément neutre 1, appelé élément unité, c’est-à-dire que

∀x ∈ Rn, 1 ·x = x.

(c) La multiplication scalaire est distributive par rapport à l’addition dans R, c’est-à-dire que

∀λ ∈ R, ∀µ ∈ R, ∀x ∈ Rn, (λ+ µ) ·x = λ ·x+ µ ·x.

(d) La multiplication scalaire est distributive par rapport à l’addition dans Rn, c’est-à-dire que

∀λ ∈ R, ∀x ∈ Rn, ∀y ∈ Rn, λ · (x+ y) = λ ·x+ λ · y.

Remarque.Il existe d’autres espaces vectoriels que les espaces Rn. Les ensembles suivants sont des espaces vectoriels :• l’ensembleMp,q(R) des matrices de même type (non nécessairement carrées) ;• l’ensemble R[X] des polynômes ;• l’ensemble des fonctions de R dans R ;• l’ensemble des suites réelles (ou complexes).

68

Chapitre 5

Diagonalisation de matrices

1. Valeurs propres et vecteurs propres

Définition. Valeur propre de A

Soit A dansMn,n(R) une matrice carrée.Une valeur propre (réelle) de la matrice A est un réel λ tel qu’il existe un vecteur X non nul de Rnvérifiant

AX = λX

Un tel vecteur est appelé vecteur propre de A pour la valeur propre λ.

Exemple.Considérons la matrice suivante A =

(1 00 2

).

On peut remarquer que l’on a :

A

(10

)=(

10

)donc 1 est une valeur propre de A et

(10

)est un vecteur propre associé à la valeur propre 1.

A

(01

)= 2

(10

)donc 2 est une valeur propre de A et

(01

)est un vecteur propre associé à la valeur propre.

La définition d’une valeur propre est intimement liée à celle d’un vecteur propre associé.

Définition. Sous-espace propre associé à λ

Soit A dansMn,n(R) une matrice carrée.Soit λ une valeur propre de A.L’ensemble Eλ des vecteurs X de Rn vérifiant AX = λX est appelé sous-espace propre associé à lavaleur propre λ.

Remarque.L’ensemble Eλ est constitué des vecteurs propres associés à la valeur propre λ et du vecteur nul.

Proposition.

Soient A dansMn,n(R) une matrice carrée et λ une valeur propre de A. On a

Eλ = Ker(A− λIn)

Par conséquent, les sous-espaces propres associés à des valeurs propres sont des sous-espaces vectoriels de Rn.

69

CHAPITRE 5. DIAGONALISATION DE MATRICES

Définition. Polynôme caractéristique de A

Soit A dansMn,n(R) une matrice carrée.On appelle polynôme caractéristique de la matrice A le polynôme de variable x défini par

PA(x) = det (A− xIn)

L’intérêt du polynôme caractéristique réside dans le résultat suivant.

Proposition.

Soient A dansMn,n(R) une matrice carrée.λ est une valeur propre de A si et seulement si PA(λ) = 0.

Démonstration. Soit A dansMn,n(R) une matrice carrée.

λ est une valeur propre de A ⇔ il existe X 6= 0n tel que AX = λX

⇔ il existe X 6= 0n tel que AX − λInX = 0n⇔ il existe X 6= 0n tel que (A− λIn)X = 0n⇔ (A− λIn) n’est pas inversible⇔ det(A− λIn) = 0⇔ PA(λ) = 0

On remarque tout de suite le résultat suivant.

Proposition.

Soit A dansMn,n(R) une matrice carrée.A est inversible si et seulement si 0 n’est pas une valeur propre de A.

Démonstration. 0 est une valeur propre de A si et seulement si det(A− 0In) = 0, ce qui est équivalent àdet(A) = 0, ce qui équivaut à A n’est pas inversible.

Remarque.Ainsi, pour déterminer les valeurs propres d’une matrice, on calcule son polynôme caractéristique et ondétermine ses racines. Lors du calcul du polynôme caractéristique, il faudra veiller à garder la forme la plusfactorisée possible.

Exemple.Revenons à la matrice A =

(1 00 2

). Son polynôme caractéristique est PA(X) = (1 −X)(2 −X) dont les

racines sont 1 et 2. Les valeurs propres de A sont donc 1 et 2.

Considérons une autre matrice : B =

1 0 20 2 10 0 1

. On a PB(x) = (1− x)(2− x)(1− x). Les valeurs propres

de B sont 1, 1 et 2. Remarquons que 1 apparait 2 fois.

Remarque.Une matrice peut ne pas admettre de valeurs propres réelles. En effet, le polynôme caractéristique de lamatrice

C =(

0 −11 0

)

70

CHAPITRE 5. DIAGONALISATION DE MATRICES

est PC(x) = 1 + x2 qui n’a pas de racines réelles.Si on travaille dans C alors elle admet deux valeurs propres ±i. En fait dans C une matrice admet toujoursexactement n valeurs propres (éventuellement confondues). On y reviendra.

Proposition.

Soit A dansMn,n(R) une matrice carrée.Si la matrice A est une matrice triangulaire, alors ses valeurs propres sont ses coefficients diagonaux.

Démonstration. Cela est évident en passant par le polynôme caractéristique.

Exemple.Considérons la matrice M =

1 2 22 1 22 2 1

.On a PM (X) =

∣∣∣∣∣∣∣1−X 2 2

2 1−X 22 2 1−X

∣∣∣∣∣∣∣ . Ce polynôme est de degré 3 et il n’existe pas de formule générale

(praticable) donnant ses racines.Voici plusieurs méthodes pour déterminer les valeurs propres de M .• Méthode 1. On peut soit tout développer et chercher des racines évidentes. On trouve

PM (X) = −X3 + 3X2 + 9X + 5.

On remarque alors que −1 est racine évidente car PM (−1) = −(−1) + 3 − 9 + 5 = 0. On écrit alorsPM (X) = (X + 1)(aX2 + bX + c). En développant cette expression puis en identifiant les coefficients ontrouve PM (X) = (X + 1)(−X2 + 4X + 5) et finalement PM (X) = (X + 1)(X + 1)(5−X).On trouve les valeurs propres −1, −1 et 5.Cette méthode a le défaut de dépendre de la recherche d’une racine évidente.

• Méthode 2. On commence comme précédemment, mais on remarque que M =

111

= 5

111

. Ainsi, 5

est une valeur propre associé à A ce qui nous donne une racine de PM (X). On a donc

PM (X) = (X − 5)(aX2 + bX + c)

et on procède comme ci-dessus.Cette méthode utilise mieux la structure de la matrice, mais il faut voir une valeur propre immédiatement.• Méthode 3. On essaie de calculer le déterminant de manière plus astucieuse, en mettant en évidencedes factorisations.On commence par faire l’opération L1 ← L1 + L2 qui ne modifie pas le déterminant.

PM (X) =

∣∣∣∣∣∣∣1−X 2 2

2 1−X 22 2 1−X

∣∣∣∣∣∣∣ =

∣∣∣∣∣∣∣−1−X 1 +X 0

2 1−X 22 2 1−X

∣∣∣∣∣∣∣On factorise ensuite par le coefficient de la première ligne qui est (1 +X).

PM (X) = (1 +X)

∣∣∣∣∣∣∣−1 1 02 1−X 22 2 1−X

∣∣∣∣∣∣∣71

CHAPITRE 5. DIAGONALISATION DE MATRICES

On ajoute ensuite la colonne 1 à la colonne 2 (ce qui ne modifie pas le déterminant).

PM (X) = (1 +X)

∣∣∣∣∣∣∣−1 0 02 3−X 22 4 1−X

∣∣∣∣∣∣∣Il ne reste plus qu’à développer par rapport à la première ligne.

PM (X) = −(1 +X)∣∣∣∣∣ 3−X 2

4 1−X

∣∣∣∣∣ = −(1 +X)(X2 − 4X − 5) = −(1 +X)(1 +X)(X − 5).

Dans tous les cas, on trouve la valeur propre λ1 = −1 (deux fois) et la valeur propre λ2 = 5.

Nous allons maintenant voir l’utilité de ces notions.

2. Matrices diagonalisables

Définition.

Soit A dansMn,n(R) une matrice carrée.La matrice A est diagonalisable si et seulement s’il existe une matrice diagonale D deMn,n(R) et unematrice inversible P deMn,n(R) telles que

A = PDP−1 ⇐⇒ D = P−1AP

Le lien avec les valeurs propres est donnée dans la proposition suivante.

Proposition.

Soit A dansMn,n(R) une matrice carrée diagonalisable, c’est-à-dire qu’il existe une matrice diagonaleD deMn,n(R) et une matrice inversible P deMn,n(R) telles que A = PDP−1.Alors les coefficients diagonaux de D sont des valeurs propres de A et les vecteurs correspondant auxcolonnes de P sont des vecteurs propres de A associés aux valeurs propres de A prises dans le mêmeordre.

Démonstration. On suppose qu’il existe une matrice diagonale D deMn,n(R) et une matrice inversible P deMn,n(R) telles que A = PDP−1. Alors on a AP = PD.Notons v1, . . . , vn les vecteurs associés aux colonnes de P et λ1, . . . , λk les coefficients diagonaux de D. On adonc

AP = [Av1|Av2| · · · |Avn] = [λ1v1|λ2v2| · · · |λnvn] = PD ⇔

Av1 = λ1v1...

...Avn = λnvn

Ainsi les valeurs λ1, . . . , λn sont des valeurs propres de A et la vecteurs v1, . . . , vn sont des vecteurs propresassociés à ces valeurs propres.

Proposition.

Soit A dansMn,n(R) une matrice carrée.Si on peut construire une base de Rn formée de vecteurs propres de A, alors la matrice A estdiagonalisable.

72

CHAPITRE 5. DIAGONALISATION DE MATRICES

Démonstration. Soient v1, . . . , vn n vecteurs propres formant une base de Rn.On note P la matrice dont les colonnes correspondent aux vecteurs propres, λ1, . . . , λn les valeurs propres deA correspondant au vecteur propre de même indice et D la matrice diagonale dont les coefficients diagonauxsont les λi

D =

λ1

λn

et P = [v1|v2| · · · |vn]

On a clairementAP = [Av1|Av2| · · · |Avn] = [λ1v1|λ2v2| · · · |λnvn] = PD

De plus, la famille des vecteurs v1, . . . , vn est une base de Rn. Donc la matrice P est inversible car de rang n.Ainsi il existe bien une matrice diagonale D et une matrice inversible P telles que A = PDP−1.Donc A est diagonalisable.

Proposition.

Soit A dansMn,n(R) une matrice carrée.On note λ1, . . . , λk ses k valeurs propres distinctes.Si on a

k∑i=1

dim (Ker(A− λkIn)) = n

alors la matrice A est diagonalisable.

Démonstration. Admis.

Remarque.Soit A dansMn,n(R) une matrice carrée et λi une des ses valeurs propres.Alors il existe un entier strictement positif mi et un polynôme Q tel que Q(λi) 6= 0 et PA(x) = (λi−x)miQ(x).mi s’appelle la multiplicité de la racine λi.

On a toujours 1 6 dim (Ker(A− λiIn)) 6 mi (admis).Par conséquent, si la somme des multiplicités des différentes valeurs propres est strictement inférieure à n lamatrice ne sera pas diagonalisable.

C’est le cas pour la matrice A =

2 0 00 0 10 −1 0

. En effet son polynôme caractéristique est égal à (2−x)(x2 +1).

Cette matrice admet donc une unique valeur propre réelle qui est 2 avec multiplicité 1 (1 < 3). On peutvérifier que le sous-espace propre associé à 2 est de dimension 1.

Mais attention, ce n’est pas parce que la somme des multiplicités des valeurs propres vaut n que la matriceest diagonalisable. Il faut encore vérifier que pour tout i allant de 1 à k, la dimension de l’espace propreassocié à la valeur propre λi est égale à la multiplicité de λi :

∀i ∈ J1, kK, dim (Ker(A− λiIn)) = mi.

C’est la situation de la matrice A =(

0 10 0

). 0 est l’unique valeur propre qui est de multiplicité 2 mais le

sous-espace propre associé est de dimension 1 (1 < 2).

Exemple.Revenons à la matrice M =

1 2 22 1 22 2 1

étudiée précédemment.

On avait trouvé deux valeurs propres distinctes λ1 = −1 de multiplicité m1 = 2 et λ2 = 5 de multiplicité

73

CHAPITRE 5. DIAGONALISATION DE MATRICES

m2 = 1.On a la somme des multiplicités m1 +m2 qui vaut 3. Regardons maintenant si les dimensions des sous-espacespropres sont égales à la multiplicité des valeurs propres associées.Pour la valeur propre 5, on a clairement dim(Ker(A− 5I3)) = 1 = m2.Pour −1 ce n’est pas clair.

Déterminons l’espace propre associé à −1. Soit v =

xyz

un vecteur propre pour −1. On a

Av = −v ⇐⇒

x+ 2y + 2z = −x2x+ y + 2z = −y2x+ 2y + z = −z

⇐⇒

2x+ 2y + 2z = 02x+ 2y + 2z = 02x+ 2y + 2z = 0

Ce système est clairement de rang 1 (on a 3 fois la même équation).On a ainsi dim(Ker(A+ I3)) = 3− 1 = 2 = m1.En conclusion, on a m1 = 2 = dim(Ker(A+ I3)) et m2 = 1 = dim(Ker(A− 5I3)).Les multiplicités des valeurs propres sont toutes égales à la dimension des espaces propres associés et leursomme vaut 3.Donc la matrice M est diagonalisable.

Nous allons continuer avec deux conditions suffisantes pour qu’une matrice carrée soit diagonale.

Théorème.

Soit A dansMn,n(R) une matrice carrée.Si la matrice A admet n valeurs propres distinctes deux à deux, alors la matrice A est diagonalisable.

Démonstration. Notons λ1, . . . , λn les n valeurs propres distinctes de A de multiplicités respectivesm1, . . . ,mn.Comme λk est une valeur propre, par définition, le système homogène (A− λIn)v = 0 admet au moins unesolution non nulle (donc une infinité de solution). La dimension du sous-espace propre associé est donc aumoins de 1, ce qui s’écrit

dim(Ker(A− λIn)) > 1.

Comme mk > dim(Ker(A−λIn)) et que la somme des multiplicités est au plus égale à n (degré du polynômecaractéristique), on a donc nécessairement mk = 1 pour tout k.Finalement mk = dim(Ker(A− λIn)) pour tout k et la proposition précédente nous permet de conclure queA est diagonalisable.

Théorème.

Soit A dansMn,n(R) une matrice carrée.Toute matrice symétrique réelle est diagonalisable.

Démonstration. Admis.

Exemple.La matrice M =

1 2 22 1 22 2 1

, vue précédemment, est symétrique et effectivement on a trouvé qu’elle était

diagonalisable.

Ce théorème est fondamental car un grand nombre de matrice apparaissant dans les applications sont symé-triques (matrice de variance-covariance en statistiques et en économétrie, matrice hessienne en microéconomie

74

CHAPITRE 5. DIAGONALISATION DE MATRICES

et en optimisation, etc.)Ce théorème est à la base des méthodes d’optimisation que vous verrez en L3.

Terminons avec un petit résultat liant valeurs propres et déterminant d’une matrice.

Proposition.

Soit A dansMn,n(R) une matrice diagonalisable.Son déterminant est égal au produit de ses valeurs propres en prenant en compte leur multiplicité.

Démonstration. On a

det(A) = det(PDP−1) = det(P ) det(D) det(P−1) = det(D) det(P ) 1det(P ) = det(D)

Or la matrice D est diagonale donc son déterminant est égal au produit des ses coefficients diagonaux. Deplus, ses coefficients diagonaux correspondent aux valeurs propres de A.

3. Application au calcul de puissance de matrice

Soit A dansMn,n(R) une matrice diagonalisable.

Alors on aA = PDP−1

avec D une matrice diagonale.Pour tout entier naturel n, on a alors

An = PD

In︷ ︸︸ ︷P−1P D

In︷ ︸︸ ︷P−1P D · · ·

In︷ ︸︸ ︷P−1P DP−1︸ ︷︷ ︸

n fois

= PDnP−1.

Les puissances de D sont facilement calculables (car D est diagonale) et cette formule permet donc de calculerassez aisément An.

Exemple.Revenons à la matrice M =

1 2 22 1 22 2 1

étudiée précédemment.

On avait trouvé deux valeurs propres distinctes λ1 = −1 de multiplicité m1 = 2 et λ2 = 5 de multiplicitém2 = 1.On a la somme des multiplicités m1 +m2 qui vaut 3. Regardons maintenant si les dimensions des sous-espacespropres sont égales à la multiplicité des valeurs propres associées.Pour la valeur propre 5, on a clairement dim(Ker(A− 5I3)) = 1 = m2.Pour −1 ce n’est pas clair.

Déterminons l’espace propre associé à −1. Soit v =

xyz

un vecteur propre pour −1. On a

Av = −v ⇐⇒

x+ 2y + 2z = −x2x+ y + 2z = −y2x+ 2y + z = −z

⇐⇒

2x+ 2y + 2z = 02x+ 2y + 2z = 02x+ 2y + 2z = 0

Ce système est clairement de rang 1 (on a 3 fois la même équation).On a ainsi dim(Ker(A+ I3)) = 3− 1 = 2 = m1.En conclusion, on a m1 = 2 = dim(Ker(A+ I3)) et m2 = 1 = dim(Ker(A− 5I3)).

75

CHAPITRE 5. DIAGONALISATION DE MATRICES

Les multiplicités des valeurs propres sont toutes égales à la dimension des espaces propres associés et leursomme vaut 3.Donc la matrice M est diagonalisable.

Exemple.Revenons à la matrice M =

1 2 22 1 22 2 1

étudiée précédemment et calculer ses puissances.

On a trouvé qu’elle est diagonalisable et que ses valeurs propres sont λ1 = −1 de multiplicité m1 = 2 etλ2 = 5 de multiplicité m2 = 1.

On choisit de poser D =

−1 0 00 −1 00 0 5

(On peut mettre les valeurs propres dans l’ordre que l’on veut mais

il faut bien respecter leur multiplicité).Maintenant pour obtenir la matrice P , il faut trouver une base de chaque sous-espaces propres.

Pour la valeur propre −1, on peut reprendre le travail effectuer lors du calcul de dimension. Soit v =

xyz

un vecteur propre pour −1. On a

Av = −v ⇐⇒

2x+ 2y + 2z = 02x+ 2y + 2z = 02x+ 2y + 2z = 0

⇐⇒ x+ y + z = 0 ⇐⇒

x = −y − zy = y

z = z

Ainsi on a

E−1 =

−y − zy

z

, avec y, z ∈ R

=

y−1

10

+ z

−101

, avec y, z ∈ R

= Vect

−1

10

;

−101

Or les vecteurs

−110

et

−101

forment une famille libre, ils constituent donc une base de E−1.

Cherchons maintenant une base de E5. Comme cet espace est de dimension 1, il suffit de trouver un vecteur

propre. Soit v =

xyz

un vecteur propre pour 5. On a

Av = 5v ⇐⇒

x+ 2y + 2z = 5x2x+ y + 2z = 5y2x+ 2y + z = 5z

⇐⇒ x = y = z

Ainsi on a

E5 =

xxx

, avec x ∈ R

= Vect

1

11

Le vecteur

111

constitue ainsi une base de E5.

On pose donc P =

−1 −1 11 0 10 1 1

. On a P−1 = 13

−1 2 −1−1 −1 21 1 1

.76

CHAPITRE 5. DIAGONALISATION DE MATRICES

On peut vérifier que PDP−1 = M .Ainsi pour tout entier naturel n, on a

Mn = PDnP−1 = 13

−1 −1 11 0 10 1 1

(−1)n 0 0

0 (−1)n 00 0 5n

−1 2 −1−1 −1 21 1 1

4. Un tour dans C

On peut considérer les matrices à coefficients réelles comme des matrices deM(C).Dans ce cas, on peut considérer également des valeurs propres complexes (et le sous-espace propre associésera un C-sous-espace vectoriel de Cn).

Or dans C, tous les polynômes sont scindés, c’est-à-dire que l’on peut écrire tout polynôme de la forme

P (X) = C(X − λ1)m1 · · · (X − λk)mk

Ainsi la somme des multiplicités des racines est égale au degré du polynôme et dans le cas d’un polynômecaractéristique d’une matrice de Mn,n(C) cela correspond à n. Par conséquent, dans C, une matriceadmet toujours exactement n valeurs propres (éventuellement confondues). Mais pour qu’une matrice soitdiagonalisable, il faudra quand même vérifier que les dimensions des sous-espaces propres sont égales auxmultiplicités.

Exemple.La matrice

C =(

0 −11 0

)

n’admet aucune valeur propre réelle car sont polynôme caractéristique est PC(x) = 1 + x2 qui n’a pas deracines réelles.Mais si on travaille dans C alors elle admet deux valeurs propres ±i.Ainsi elle est diagonalisable dans C.

Remarque.Si une matrice A est à coefficients réels et qu’elle admet une valeur propre non réelle z, alors le conjugué dez est également une valeur propre de A. De plus si v est un vecteur propre de A pour la valeur propre z,alors v, le vecteur dont les coefficient sont les conjugués des coefficients de v, est un vecteur propre de Apour la valeur propre z.

77

CHAPITRE 5. DIAGONALISATION DE MATRICES

78

Annexe A

Application détaillée de l'algorithme de

Gauss�Jordan

On va appliquer en détaillant l’algorithme de Gauss–Jordan pour résoudre dans R3 le système ci-dessous.3x+ 3y + 3z = 18−x+ 3y + 7z = −10x+ 3y + 4z = 6

(A.1)

On met tout de suite sous la forme matricielle :3 3 3 18

−1 3 7 −10

1 3 4 6

1. Mise sous forme échelonné : la descente de Gauss

Étape 1 (détection du premier pivot)

On va faire en sorte que le terme en haut à gauche (1re ligne 1re colonne, donc a11) soit non nul.Trois cas sont possibles.1. Il est déjà non nul. Il n’y a rien à faire, on passe à l’étape 2.2. Il est nul mais l’un des coefficients de la première colonne (disons celui de la ligne i) est non nul. On

intervertit la ligne 1 et la ligne i :L1 ←→ Li

puis on passe à l’étape 2.3. La première colonne est entièrement nulle (autrement dit, la première variable n’intervient pas dans

l’équation). Dans ce cas on considère la sous matrice obtenue en enlevant la première colonne et onrecommence l’étape 1.

Dans notre exemple, le coefficient de la 1re ligne et 1re colonne est a11 = 3 6= 0 c’est doncun pivot. On est dans le cas 1 et on passe directement à l’étape 2.

Étape 2 (optionnelle) : on met le pivot à 1

D’après l’étape 1, le pivot a11 est non nul. On peut donc diviser la première ligne par a11 via l’opération

L1 ←−1a11

L1.

Dans notre exemple, le pivot est 3 6= 0. On fait donc l’opération L1 ←13L1 et on obtient

1 1 1 6

−1 3 7 −10

1 3 4 6

79

ANNEXE A. APPLICATION DÉTAILLÉE DE L’ALGORITHME DE GAUSS–JORDAN

Étape 3 (la clef de la méthode) : on annule tous les coefficients sous lepivot

D’après l’étape 2, on a a11 = 1. Pour annuler le premier coefficient de la seconde ligne a21, il suffit donc defaire soustraire a21 fois la première ligne à la seconde via l’opération L2 ← L2 − a21L1. On fait pareil pourtoutes les autres lignes.On fait successivement les opérations L2 ← L2 + L1 et L3 ← L3 − L1. On obtient

L2 ← L2 + L1

1 1 1 6

0 4 8 −4

1 3 4 6

L3 ← L3 − L1

1 1 1 6

0 4 8 −4

0 2 3 0

Étape 4 : on boucle

On considère maintenant la sous matrice obtenue en enlevant la première colonne et la première ligne et onrecommence l’étape 1 sur cette sous matrice (pour plus de clarté, on continue à écrire la matrice complète).Sur notre exemple, la suite d’opération est donc la suivante.

L2 ←14L2

1 1 1 6

0 1 2 −1

0 2 3 0

L3 ← L3 − 2L2

1 1 1 6

0 1 2 −1

0 0 −1 2

On arrête la procédure dès que la matrice est échelonnée (on peut même rendre le dernier pivot ann égal à 1en divisant la dernière ligne par ann).Une fois le système mis sous forme échelonnée, la résolution est aisé.Sur notre exemple,on peut réécrire le système équivalent échelonné avec les inconnues :

x+ y + z = 6y + 2z = −1− z = 2

On a donc z = −2 puis y = −1 − 2z = −1 − 2(−2) = 3 et enfin x = 6 − y − z = 6 − 3 − (−2) = 5.Finalement, le système admet une unique solution (x, y, z) = (5, 3,−2). Autrement dit, l’ensembledes solutions est

S = {(5, 3,−2)}.

2. La mise sous forme échelonné réduite : la remonté de Jordan

On peut compléter cette méthode par la remonté de Jordan qui permet de mettre le système sous une formeéchelonnée réduite. La remonté de Jordan est similaire à la descente de Gauss, mais dans l’autre sens.Cette étape s’applique sur une matrice échelonnée, par exemple après l’application de la descente de Gauss.

80

ANNEXE A. APPLICATION DÉTAILLÉE DE L’ALGORITHME DE GAUSS–JORDAN

Étape 1 : tous les pivots égaux à 1

Si ce n’est pas déjà fait, on met tous les pivots égaux à 1 en divisant si nécessaire chaque ligne qui a un pivotpar le pivot correspondant.Sur notre exemple, nous avons obtenu le système

1 1 1 6

0 1 2 −1

0 0 −1 2

.Seul le dernier pivot est non nul d’où l’opération suivante :

L3 ← −L3

1 1 1 6

0 1 2 −1

0 0 1 −2

Étape 2 : on annule les termes au dessus des pivots

On commence par la dernière colonne en soustrayant le nombre adéquat de fois la dernière ligne à toutes lesautres.Une fois la dernière colonne traitée, on recommence avec l’avant dernière colonne en utilisant l’avant dernièreligne et ainsi de suite.Sur notre exemple, ceci conduit à la suite d’opération suivante sur la dernière colonne :

L2 ← L2 − 2L3

1 1 1 6

0 1 0 3

0 0 1 −2

L1 ← L1 − L3

1 1 0 8

0 1 0 3

0 0 1 −2

puis sur l’avant dernière colonne :

L1 ← L1 − L2

1 0 0 5

0 1 0 3

0 0 1 −2

Une fois sous forme échelonnée réduite, la solution est immédiate.Sur notre exemple, le système échelonné réduit obtenu se lit :

x = 5y = 3

z = −2

et il est clair que ce système admet une unique solution : le triplet (5, 3,−2).

81


Recommended