Text
                    les maths
en » ete
Mathématiques pour M
ALGÈBRE
Xavier GOURDON


LES MATHS EN TÊTE Mathémcitiqties pour M' ALGÈBRE Xavier GOURDON Ancien élève de l'école polytechnique
Avant-propos Cet ouvrage propose aux étudiants des classes de mathématiques spéciales (programme M') des rappels et des compléments de cours assez complets, ainsi que des exeçsiçjes et des problèmes corrigés. Il pourra également intéresser les élèves préparant l'agrégation. L'ouvrage est orienté sur la relation étroite qui existe entre le cours et les exercices. Dans le fond, une bonne lecture du cours amène à s'interroger sur chaque résultat présenté : à quel niveau intervient-il dans l'articulation du cours, quelles en sont les conséquences, que se passe-t-il si on modifie les hypothèses? Dans cet esprit, de multiples remarques ponctuent les parties de cours, mettant en avant ses subtilités, et faisant le lien avec les exercices qui suivent. Les parties de cours ne sont pas un substitut au cours du professeur, aiais^^utôt un résumé exhaustif qui l'éclairé d'une façon différente. Les côrripiéments sont d«s résultats très classiques qui ne figurent pas au programme mais dont la connaissance est utile et parfois indispensable pour mener à bien un exercice ou un problème. Les résultats présentés sont démontrés lorsqu'ils sont à la limite du programme ou lorsqu'ils constituent un point important dont la démonstration met en place des techniques instructives que l'étudiant doit connaître et savoir maîtriser. À la fin de chaque section, on trouve une liste d'exercices de difficultés progressives, classiques ou parfois originaux, qui constituent une illustration du cours qui les précède. Je me suis efforcé à cha.que fois de passer en revue tous les problèmes qui tournent autour du thème de l'exercice. Les nombreuses références au cours sont là pour inviter le lecteur à s'y reporter, le but étant de savoir et de comprendre précisément les résultats que l'on utilise. Une liste de problèmes ponctue la fin de chaque chapitre, ces problèmes étant des exercices plus longs, plus difficiles ou plus originaux que les précédents et faisant appel à l'ensemble du cours du chapitre. À la fin de certains chapitres, on trouve des sujets d'étude introduisant des théories élégantes dans le thème du chapitre. Deux annexes présentent des curiosités mathématiques liées au programme d'algèbre. Les résultats du cours ou les exercices les plus importants sont indiqués par une flèche dans la marge de gauche. Je tiens enfin à remercier toutes les personnes qui m'ont aidé, Erwan Berni, Georges Papadopoulo et Alexia Stefanou pour la relecture de certains chapitres, le PROJET ALGORITHMES grâce à qui j'ai pu donner à mon ouvrage sa version typographique actuelle et la collection ELLIPSES pour avoir accueilli mon travail. Je serais reconnaissant à ceux de mes lecteurs qui me feront parvenir leurs remarques sur cette première édition. Xavier Gourdon (INRIA-Rocquencourt, 78153 Le Chesnay)
Table des matières Avant-propos 3 Chapitre I. Arithmétique, Groupes et Anneaux 7 1. Arithmétique sur les entiers 7 2. Groupes 17 3. Anneaux 28 4. Problèmes 34 5. Sujets d'étude 43 Chapitre II. Corps, Polynômes et Fractions Rationnelles 53 1. Corps, polynômes et arithmétique dans K[X] 53 2. Fonction polynôme, racines d'un polynôme 59 3. Fractions rationnelles 70 4. Polynômes à plusieurs indéterminées 77 5. Problèmes 82 6. Sujets d'étude 97 7. Le nombre ir 103 Chapitre III. Algèbre linéaire : généralités 107 1. Espaces vectoriels 107 2. Applications linéaires 112 3. Matrices 117 4. Dualité 126 5. Formes multilinéaires, déterminants 134 6. Problèmes 150 Chapitre IV. Réductions d'endomorphismes 159 1. Diagonalisation, trigonalisation 159 2. Polynômes d'endomorphismes 172 3. Topologie sur les endomorphismes 181 4. Sous espaces ca.ra.ctéristiques - Réduction de Jordan 189
4. Sous espaces caractéristiques - Réduction de Jordan 189 5. Problèmes 203 Chapitre V. Espaces euclidiens 223 1. Formes quadratiques - Formes hermitiennes 223 2. Espaces préhilbertiens 236 3. Compléments de cours (réduction des endomorphismes unitaires, normaux, inégalité d'Hadamard et matrices de Gram) 252 4. Problèmes 263 Annexe A. Résolution des équations du troisième et du quatrième degré 275 Annexe B. Invariants de similitude d'un endomorphisme et réduction de Frobenius 279 Index des notations 283 Index terminologique 285
CHAPITRE I Arithmétique, Groupes et Anneaux JUSQU'AU début du vingtième siècle, l'algèbre désigne essentiellement l'étude de la résolution d'équations algébriques (en témoigne la dénomination du théorème fondamental de l'algèbre). Avec la résolution des équations algébriques apparaît, de manière plus ou moins confuse, la notion de nombre complexe : on utilise le symbole y/— 1. Parallèlement, la théorie des congruences se développe. Ainsi, de nouveaux objets mathématiques entrent, en scène. Bientôt, les mathématiciens y voient des analogies étroites qu'ils cherchent à expliquer : l'algèbre va progressivement devenir l'étude abstraite des structures algébriques, jusqu'à ce que connaît l'étudiant d'aujourd'hui. 1. Arithmétique sur les entiers Nous supposons acquises les notions de base sur l'ensemble des entiers naturels N et des entiers relatifs Z, ainsi que les calculs dans l'anneau quotient Z/nZ. Une étude plus approfondie de ce dernier fait l'objet de la section 3 de ce chapitre. 1.1. Divisibilité - pgcd, ppcm DÉFINITION 1. Soient a et b deux entiers relatifs. On dit que a divise b (ou que b est un multiple de a), et on note a \ b, s'il existe un entier n tel que b = an. Si a ne divise pas b, on note a\b. Proposition 1 (Division euclidienne). Soient a ez,beW. Il existe un unique couple (q, r) € Z X N tel que a = bq+ r, avec 0 < r < b — 1. q s'appelle le quotient, r le reste, de la division euclidienne de a par b. Classes de congruence modulo n. DÉFINITION 2. Soit n un entier naturel non nul. On note nZ, = {nk, k € Z}. Si x et y sont deux entiers, on note x = y (mod n) si x — y € nZ. et on dit alors que x et y sont congrus modulo p. DÉFINITION 3. Soit un entier naturel n non nul. L'anneau quotient de Z par nZ est noté Z/nZ. On note généralement x (ou x) la. classe d'un entier x dans Z/nZ. Ainsi, Z/nZ = {Ô,î,...,ÏÏ^T}.
8 I. Arithmétique, Groupes et Anneaux PGCD. DÉFINITION 4. - Soient ai,... ,«„ des entiers. Il existe un unique entier naturel d tel que axTL + h «„Z = dTL. Ainsi défini, d s'appelle le pgcd de al5... , a„ et on note d = pgcd(«!,... ,«„). L'entier d est aussi le plus grand entier naturel divisant tous les a,- (1 < i< n). - Lorsque pgcd (ai ,...,«„)= 1, on dit que les entiers ax,... , a„ sont premiers entre eux dans leur ensemble. Lorsque pgcd(«j,u.;) = 1 dès que i ^ j, les entiers a,- sont dits premiers entre eux deux à deux- Remarque 1. - Des entiers premiers entre eux deux à deux sont premiers entre eux dans leur ensemble. - Il résulte de la définition du pgcd que les diviseurs communs à une famille d'entiers sont les diviseurs du pgcd. - Lorsque al5... ,a„ sont des entiers, on a Va € Z, pgcd(««!,... ,aa„) = \a\ pgcd(a1,... ,a„). - Le pgcd de deux entiers a et b se note aussi a A b. THEOREME 1 (Bezout). Des entiers ax,... ,«„ sont premiers entre eux dans leur ensemble si et seulement s'il existe des entiers «i,... , tt„ tels que Mi«i + h «„«„ = 1. Remarque 2. Lorsque deux entiers a et b sont premiers entre eux, le théorème de Bezout assure l'existence d'un couple (u,w) € 1? tel que au + bv = 1. Il existe un moyen pratique de calculer un tel couple (m, »>), appelé algorithme d'Euclide (voir l'exercice 2). THÉORÈME 2 (Gauss). Soient a, b et c trois entiers. Si a divise le produit bc et si a et b sont premiers entre eux, alors a divise c. PROPOSITION 2. Si un entier a est premier avec des entiers bx,... ,bn, alors a est premier avec le produit b\.. .b„. PROPOSITION 3. Soient «i,... ,«„ n entiers premiers entre eux deux à deux et b un entier. Le produit «i • • • «„ divise b si et sexdement si pour tout i, a,- divise b. PPC M. DÉFINITION 5. Soient «!,... ,«„ des entiers. Il existe un unique entier naturel d tel que ax7Lï\ ■■• n a„Z = dZ. Ainsi défini, d s'appelle le ppcm de al5... ,a„ et on note d = ppcm (a,,... , a„). L'entier d est aussi le plus petit entier naturel non nul multiple de tous les a,-, 1 < i < n. Remarque 3. - Il résulte de cette définition que les multiples communs à une famille d'entiers sont les multiples de leur ppcm. - On a facilement. V« € Z, ppcm (««i,... , ««„) = \a\ ppcm (al5... , a„). - Le ppcm de deux entiers a et b se note aussi a V b. PROPOSITION 4. Soient al5... ,«„ des entiers premiers entre eux deux à deux. Alors ppcm (a,,... , «„) = |a, • • -au\. Proposition 5. Pour deux entiers a et b, on a pgcd(a,&) x ppcm(«, b) = \ab\.
1. Arithmétique sur les entiers 9 1.2. Nombres premiers DÉFINITION 6. On dit qu'un entier naturel p > 2 est un nombre premier si ses seuls diviseurs sont p, — p, 1 et —1. —*- Théorème 3 (Théorème fondamental de l'arithmétique). Tout entier naturel n > 2 s'écrit de manière unique à l'ordre prés sotts la forme n = l>V---vt\ (*) où les pi sont des nombres premiers distincts et les a,- des entiers naturels non nuls. La relation (*) s'appelle la décomposition de n en facteurs premiers. Remarque 4. - Tout entier n, \n\ > 2, est divisible par un nombre premier. - Si n = p"1 • • -p^k et m = p\' • • -pf*, où les p, sont premiers distincts et les a,-,/?,- entiers naturels, alors pgcd(n, m) = p\l • • -p1^ et ppcm(n, m) = p\l ■ ■ ■p6kk où 7,- = inf(a,-,/?,-) et 6,- = sup(a,-,/8,-). PROPOSITION 6. S^ un nombre premier p ne divise pas un entier a, alors p et a sont premiers entre eux. PROPOSITION 7. Si «n nombre premier divise un produit d'entiers ai ••■a„, il divise au moins l'un des facteurs ai de ce produit. PROPOSITION 8. L'ensemble des nombres premiers est infini. Démonstration. Raisonnons par l'absurde et supposons qu'il y ait un nombre fini de nombres premiers. Soit N le plus grand d'entre eux. Posons M = N\ + 1 et, désignons par p un nombre premier divisant M. Comme p < N, on a p.\ (N\), donc p | (M — TV!) = 1, ce qui est absurde. □ PROPOSITION 9. Soit p «n nombre: premier et k un entier, 1 < k < p — 1. Alors p \ C*. PROPOSITION 10. Soit n > 2 un entier. L'anneau Z/nZ est un corps si et seulement si n est premier. —*■ THÉORÈME 4 (FERMAT). Soit p > 2 un nombre premier. Alors Va € Z, ap = a (inod p) et V« € Z,p\ a, a1"1 = 1 (mod p). THÉORÈME 5 (WlLSON). Un entier p > 2 est un nombre premier si et seulement si (p-l)!=-l (modp). Démonstration. Condition nécessaire. Si p = 2 ou p = 3, c'est évident. Pour traiter le cas p > 3, on commence par rechercher les éléments x du groupe multiplicatif (Z/pZ)* égaux à leur inverse. Ils vérifient x2 = 1, c'est-à-dire (x — l)(x + 1) = 0. Les seuls éléments de (Z/pZ)* égaux à leurs inverses sont donc x = 1 et x = — 1. On range les autres 2,3,... ,p — 2 en ^j- paires d'éléments {xi,yi} telles que Xiyi = 1. Si k = ^rp, on peut écrire k 2-3-p^2 = Y[(xiyi)=ï donc (p-l)! = -l (modp). •=1 Condition suffisante. Supposons p non premier, et notons a un diviseur de p vérifiant 1 < a < p. On a n | [(p— 1)! +1] par hypothèse, et a \ (p— 1)! puisque 1 < a < p, donc a | 1 ce qui est absurde. n
10 I. Arithmétique, Groupes et Anneaux 1.3. Exercices EXERCICE 1. Déterminer les triplets (a,b, c) € (N*)3 tels que (i) ppcm(a, b) = 42 (ii) pgcd(«,, c) = 3 (iii) a + b + c = 29. Solution. D'après (ii), 3 | a et 3 | c, donc 3 | (a + c). Comme b = 29 — (a + c), b n'est pas un multiple de 3, et 3 étant premier, 3 A b = 1. En utilisant (i) on a b | 42 = 3 x 14 et d'après le théorème de Gauss, b | 14. Donc b € {1,2,7,14}. Mais 29 — b = a + c est divisible par 3, ce qui restreint les valeurs possibles de i à 2 et 14. - Si b = 2, a g {21,42} d'après (i). Mais a < 29 d'après (iii), donc a = 21 et c = 6 avec (iii). - Si i = 14, a € {3,6,21,42} d'après (i). La relation (iii) entraîne n < 29 - b = 15, d'où a € {3,6}. Si a = 3, c = 12 par (iii); si a = 6,c = 9. Nécessairement, on a donc (a, i, c) = (21,2,6), (3,14,12) ou (6,14,9). Réciproquement, on vérifie facilement que ces triplets sont solution. EXERCICE 2. 1/ Soient a et b > 2 deux entiers naturels non nuls premiers entre eux. Montrer que 3!(w,(i, r(i) € N2, u()a — v0b = 1, avec m() < b et va < a (*) et exprimer en fonction de u0, vu, a et b tous les couples («, v) € 1? solutions de ua — vb = 1. 2/ Déterminer deux entiers u et »> vérifiant 47m + 111») = 1. Solution. 1/ Le théorème de Bezout assure l'existence de deux entiers «i et V\ vérifiant Ui<i— V\b = 1. On effectue ensuite la division euclidienne de ui par b : «i = bq + Un, avec 0 < «o < b. On obtient (bq + Uo)« — vib — 1 = Mn« — v^b, avec vn = V\ — aq. Donc —1 < Vob = Uo« — 1 < Uo« < in, et en divisant par b > 2, on tire 0 < «n < «. Ainsi, notre couple (uo, vn) vérifie l'assertion (*). Ceci étant, considérons un couple (u,v) vérifiant na — vb — 1. En retranchant à (*), on obtient (u - «n)« = (v - v0)b. (**) Ceci montre que a \ (v — Vu)b et comme a et b sont premiers entre eux, le théorème de Gauss entraîne a \ (v — v()). Soit k € Z tel que v = v(t + ka. En remplaçant dans (**), on a (u,v) = (uo + fci, t><i + ka), k € Z. Réciproquement, on vérifie facilement que ce couple est solution. 2/ Les nombres 47 et 111 sont premiers entre eux, u et v existent donc. Nous allons les déterminer grâce à l'algorithme d'Euclide. On effectue d'abord la division euclidienne de 111 par 47 111 = 47x2 + 17, puis on recommence en divisant toujours le dividende par le reste, jusqu'à ce que le reste égale 1 : 47=17x2 + 13, 17=13x1 + 4, 13 = 4x3+1. On part maintenant de 1 = 13 — 4 x 3 et on remonte : 1 = 13 - 4 x 3 = 13 - (17 - 13 x 1) x 3 = 4 x 13 - 3 x 17 = 4 x (47 - 17 x 2) - 3 x 17 = 4 x 47 - 11 x 17 = 4 x 47 - 11 x (111 - 47 x 2) = 26 x 47 - 11 x 111, d'où le résultat avec u = 26 et t; = -11. Remarque. Il existe des résultats analogues sur les polynômes (voir l'exercice 3 de la section 1.4 du chapitre 2).
1. Arithmétique sur les entiers 11 EXERCICE 3. a) Montrer que pour tout entier naturel n, 5 | (23"+5 + 3"+1). b) Montrer que pour tout entier n, 30 | (n5 — n). c) Quel est le reste de la division euclidienne de 16<2 ') par 7 ? Solution, a) On a 25 = 2 (mod 5) et 23" = 8" = 3" (mod 5) donc 23"+5 = 2-3" (mod 5) et 23"+5 + 3n+1 = 2 • 3" + 3 • 3" = 0 (mod 5). b) D'après le théorème de Fermât, ns = n (mod 5), c'est-à-dire 5 | (n5 — n). De même, n3 = n (mod 3) donc n5 = n3 ■ n2 = n ■ n2 = n3 = n (mod 3), i. t. 3 | (n5 — n). Les entiers n et n5 ayant même parité, on a aussi 2 | (n5 — n). De plus 2, 3 et 5 sont, premiers entre eux deux à deux, et finalement 30 = 2 ■ 3 • 5 divise (n5 — n). c) Posons N = 16^2 \ Il s'agit de déterminer la classe de congruence de N modulo 7. Comme 16 = 2 (mod 7), on a déjà N = 22""'" (mod 7). En vue d'utiliser la relation 26 = 1 (mod 7) (théorème de Fermât), recherchons le reste de la division de 2100<l par 6. La relation 42 = 4 (mod 6) permet, d'obtenir, par récurrence sur n, la relation 4" = 4 (mod 6), vraie pour tout n. En particulier, 210"0 = 450(l = 4 (mod 6), donc il existe un entier naturel q tel que 21000 = 6g + 4. Il ne reste qu'à écrire N = 26«+4 = (26)« • 24 = 1«24 = 24 = 2 (mod 7), et le reste recherché est 2. Exercice 4 (Nombres de Mersenne, nombres de Fermât), a) Nombres de Mer- senne. Soient a > 2 et n > 2 deux entiers. Si a" — 1 est un nombre premier, montrer que a = 2 et que n est premier. b) Nombres de Fermât. Soit n € N*. Si 2" +1 est premier, montrer que n est une puissance de 2. Solution, a) La relation x" — 1 = (* — 1)(1 + x + ■ ■ ■ + x"~l) montre que Vi6N,ï>2, (x - 1) divise (*" - 1). (*) L'entier n" — 1 étant premier, on en déduit, a — 1 = 1, c'est-à-dire a = 2. Ecrivons n = pq où p et, q sont deux entiers naturels. On a «" — 1 = 2" — 1 = (2')p — 1 de sorte que (2* — 1) divise a" — 1 d'après (*), ce qui entraîne q = 1 ou q = n puisque a" — 1 est, premier. L'entier n est donc premier. b) Lorsque n est impair, la relation x" + 1 = (1 + *)(1 — x + x2 — 1- x"~l) entraîne V* 6N,Vn€N,n impair , (x + 1) divise (*" + 1). (**) Si n n'est pas une puissance de 2, n a au moins un facteur impair p > 1. Ecrivons n — pq avec q € N*. L'entier 2" + 1 = (2»)p + 1 est, divisible par (2« + 1) d'après (**), donc non premier. Ainsi, n doit être une puissance de 2. Remarque. Nombres de Mersenne (nombres de la forme 2P — 1 avec p premier). La réciproque de a) est fausse (ce serait trop facile). Par exemple, 2U — 1 = 23 X 49 n'est pas premier. Cependant, on peut tester facilement la primalité des nombres de Mersenne grâce an test suivant (test de Lucas). Soit (Yn) la suite définie jmr Ya = 2 et Yn+l = 2Y2 - 1. Si n > 3, 2" - 1 est premier si et seulement si (2" — 1) | Yn--2. C'est en utilisant ce test que l'on a trouvé le plus grand nombre premier connu en 1992 : 275683»_ i (nombre à 227832 chiffres décimaux). On ignore s'il y a une infinité de nombres de Mersenne premiers ou pas. Notons que les nombres de Mersenne apparaissent dans les nombres parfaits (voir l'exercice 10).
12 I. Arithmétique, Groupes et Anneaux - Nombres de Fermât. Fermât, avait vérifié que 22" + 1 était premier pour 0 < n < 4 et pensait que 22* + 1 était premier pour tout n. Mais Euler montra que 22 + 1 = 641 X 6700417, et on a jusqu'ici trouvé, aucun autre nombre de Fermât premier. On ne sait même pas s'il y en a! EXERCICE 5. Soit A la somme des chiffres de 4444**** (écrit dans le système décimal) et B la somme des chiffres de A. Que vaut C, la somme des chiffres de B ? Solution. L'exercice tient dans la subtile remarque suivante. Tout entier naturel N est congru à la somme de ses chiffres (en base 10) modulo 9. (*) En effet. On peut, écrire N = a^ + ai • 10 H 1- «p 10p, où les «j sont, des entiers compris entre 0 et. 9. La congruence 10 = 1 (mod 9) entraîne 10' = 1 (mod 9) pour tout i donc p p N = Y^,<H 10* = J2«< (mod 9). On applique maintenant ce résultat. On a. C = B = A = 4444**** (mod 9). D'après (*), 4444 = 16 = -2 (mod 9) donc 44443 = (-2)3 = 1 (mod 9), et. comme 4444 = 3 - 1481 + 1, on a 44444444 _ (44443)Msi . 4444 = ! . (_2) = 7 (mod g) Finalement, C = 7 (mod 9). (**) Mais ceci ne nous donne pas C! Nous allons majorer C de manière à montrer C = 7. Le nombre 44444444 étant inférieur à 100005""" = ÎO2"""", il a au plus 20000 chiffres. Donc A vaut, au plus 9 x 20000 = 180000, donc a au plus 6 chiffres, donc B vaut au plus 6x9 = 54, donc C < 5+9 = 14. De (**), on tire C = 7. Remarque. C'est le principe (*) qui explique le pourquoi de la preuve par 9 que l'on effectue dans les classes de l'école primaire. EXERCICE 6. Soit P = A"" + c1X"_1H hc„_iX + c„ un polynôme à coefficients entiers. Montrer qu'une racine rationnelle de P est nécessairement entière. Solution. Soit x = a/b une racine rationnelle de P (a € Z, b € N*, « A b = 1). On a 0 = bnP (^) = a" + ¢,^-^+ - ■ • + c-ifii""1 + c„i" donc a" = -4(.:10-1 + • ■ ■ + c„_lfii"-2 + c»*""1), ce qui montre que b divise 0". Les entiers a et b étant premiers entre eux, ceci n'est possible que si b = 1, d'où le résultat. Remarque. On en déduit en particulier que la racine 7t-ème de tout entier N est soit entière, soit irrationnelle (considérer le polynôme Xn — N). Exercice 7. Montrer qu'il y a une infinité de nombres premiers de la forme 6k — 1, k G N*.
1. Arithmétique sur les entiers 13 Solution. Raisonnons par l'absurde en supposant qu'il n'y en ait. qu'un nombre fini. Désignons par N le plus grand d'entre eux. L'entier M = — 1 + 6(7V!) est impair donc 2 \ M. De même, M = —1 (mod 3) donc 3 f M. Soit p un facteur premier de M. Si p est. de la forme 6k — 1, alors p < N donc p | (6 • JV!), d'où p | (67V! — M) = 1, ce qui est. impossible. Le nombre p n'est donc pas de la forme 6ifc — 1. De plus p ¢ {2, 3} comme on l'a vu plus haut, donc p est de la forme 6ifc + 1, iir € N*. Dans la décomposition M = pi ■ - -p„ de M en facteurs premiers, on a donc p,- = 1 (mod 6) pour tout i, d'où M = 1 (mod 6), ce qui est absurde car M = — 1 (mod 6) par construction. Remarque. On peut démontrer de la même manière qu'il y a une infinité de nombres premiers de la forme 4k — 1. Il existe un théorème plus général (théorème de Dirichlet, 1837) qui dit : V(«,6) € (N*)2, « A b = 1, il existe une infinité de nombres premiers de la forme ak + b, k G N. Malheureusement, ce résultat, n'a encore jamais pu être obtenu par des moyens élémentaires. On peut cependant le démontrer dans certains cas particuliers (voir le problème 4 page 37 et la partie 6/ du sujet d'étude 2, page 46). EXERCICE 8. a) Montrer qu'il n'existe pas de polynôme P non constant à coefficients entiers, tel que P(n) soit premier pour tout entier n supérieur à un certain rang N. b) On considère un polynôme P à k + 1 variables et à coefficients entiers. On pose f(n) — P(n,2",3",... ,kn), et on suppose lim,,-,™ f(n) = +oo (ceci pour éviter des fonctions comme /(n) = 2"5" — 10" + 7). Montrer que f(n) ne peut pas être un nombre premier pour tout entier n supérieur à un certain rang N. Solution, a) Supposons qu'un tel polynôme existe. Ecrivons P = J2t=oat-^*- L'entier p = P(N) = J2k=(\a* Nk est. premier. Or tout entier naturel r vérifie n n P(N + rp) = J2 ak(N + rp)k = J^ akNk = 0 (mod p), *=<> *=o autrement dit P(N + rp) est. divisible par p pour tout entier naturel r. Comme P(N + rp) est premier, on a P(N + rp) = p pour tout entier naturel r. Ainsi, le polynôme P(X) — p a une infinité de racines, il est donc nul, ce qui est. contraire aux hypothèses. b) Supposons l'existence d'une telle fonction. Un peu d'attention montre que / peut se mettre sous la forme m I qT \ /(*) = £ ][>■•"' «"• où les aT et. cri, sont, entiers, avec 1 < ax < a^ < ■ ■ ■ < am. Comme limn-xx, /(n) = +00, on peut, supposer f(N) > am > ■ ■ ■ > ax > 1 (quitte à augmenter TV). Notons p le nombre premier p=f(N). On a W € N, Vs € N, [N + f.p(p - l)]' = N" (mod p), et d'après le théorème de Fermât Vr, l<r<m, a?-1 = 1 (mod p) donc W € N, a^+'p(p_1) = a^ (mod p). Finalement, V/ € N, [JV + eP(p - I)]'«fr+'P(P-1) = N'a? (mod p), et. ceci pour tous les entiers r, s donc f[N + fp(p — 1)] = f(N) = 0 (mod p). Ceci étant vrai pour tout entier naturel /, on aboutit, à une absurdité.
14 I. Arithmétique, Groupes et Anneaux EXERCICE 9. Pour tout entier naturel n, on pose Fn p?22" + 1 (nombres de Fermât). a) Montrer que les nombres (F„)„6n sont premiers entre eux deux à deux. b) En déduire une autre démonstration du fait qu'il y a une infinité de nombres premiers. Solution, a) Si n € N, k € N*, il s'agit de montrer que Fn et. F„+t sont, premiers entre eux. La relation F„+i-l = 22"+l=(22")2' = (F„-l)21 entraîne F„+i-l = (F„-l)2' = (-l)2' = l (modF„) donc Fn | (Fn+k: — 2). Ainsi, le pgcd d de Fn et F„+t divise F„+t — 2. Comme de plus d | jFn+t, d divise 2,et Fn étant impair, on a nécessairement d = 1. b) Pour tout n € N, notons p„ un facteur premier de Fn. Les F„ étant, premiers entre eux deux à deux, les (p„)„gw sont distincts deux à deux. On a donc trouvé une infinité de nombres premiers. Remarque. Profitons en ici pour rappeler quelques résultats dans l'histoire des nombres premiers. Les grecs savaient déjà qu'il y en avait une infinité. Le gros résultat suivant fut le théorème des nombres premiers. Si Vi > 0, tt(i) désigne le nombre de nombres premiers inférieurs à x, on a tt(i) ~ i/log(i) lorsque x tend vers l'infini. H fut démontré pour la première fois et presque simultanément par J. Hadamard et C. De la Vallée Poussin en 1896. La plupart des démonstrations font appel à la fonction £ de Riemann (voir le tome Analyse sur les séries de fonctions) et exigent des techniques qui sont d'un niveau supérieur au programme des classes préparatoires. — Citons enfin le théorème de TchébychefF (voir le sujet d'étude 1) qui exprime que Vn € N, n > 4, entre n et 2{n — 1) se trouve au moins un nombre premier. EXERCICE 10 (Nombres PARFAITS), a) Pour tout entier naturel non nul n, on note <r(n) la somme des diviseurs de n. Exprimer <r(n) en fonction des termes intervenant dans la décomposition de n en facteurs premiers. Montrer que n A m = 1 =^- a{nm) = a{ii)a{m). (*) b) Qii dit qu'un entier naturel non nul n est parfait s'il est égal à la somme de ses diviseurs autres que lui même (i. e. si <r(ra) = 2ra). Si 2P — 1 est un nombre premier, montrer que n = 2P-l(2p - 1) est parfait. c) Réciproquement, démontrer qu'un nombre parfait pair n est de la forme 2P_1(2P — 1), où 2P — 1 est nécessairement premier. Solution, a) Si n = p"1 ■ ■ ■ p'™ est la décomposition de n en facteurs premiers, on a La relation (*) en découle trivialement. b) On applique les résultats de la question précédente pour écrire <r(n) = «rpP-'^P - 1)] = <r{'2?-1 )<r(2p - 1) = (2P - 1)2P = 'In.
1. Arithmétique sur les entiers 15 c) La réciproque est. plus délicate. Comme n est. pair, il existe un entier p > 2 tel que n = 2p~1m avec m impair. Le fait, que 2P_1 A m = 1 nous autorise à utiliser (*), de sorte que <r(n) = j(r'Hm) = (2^- l)<r(m). Or <r(n) = 2n = 2Pm donc (2^-1) | '2Pm, et comme (2^- 1)A2'> = 1, d'après le théorème de Gauss on a (2P— 1) | m. Autrement, dit, il existe /gfJ' tel que m = (2^-1)/. La relation 2pm = 2n = <r(n) = ('2? - l)<r(m) entraîne <r(m) = 2?/ = m + /. Si l > 1, m a au moins trois diviseurs distincts qui sont 1, / et m, d'où <r(m) > m + f.+ 1, ce qui est absurde. Donc / = 1, m = 2P — 1 et. <r(m) = m + £ = m+1; on en déduit que les seuls diviseurs de m sont 1 et m, donc m est premier. En résumé, n = 2p~l('2p — 1) avec 2P — 1 premier. Remarque. On ne connaît aucun nombre parfait impair, on ne sait même pas s'il y en a. Cependant, on connaît certains résultats sur les éventuels nombres parfaits impairs. On sait par exemple que s'il en existe un, il a au moins 300 chiffres décimaux, il a au moins 8 facteurs premiers distincts et son plus grand facteur premier est supérieur à 100110. EXERCICE 11. Soit p > 5 un entier. Montrer: que l'équation en m G N* (p-l)! + l=pm n'a pas de solution. (Théorème de Liouville) Solution. Comme p > 5, (p— 1)! + 1 est impair donc pm est impair, c'est-à-dire p est impair. Or p > 5 donc 2 < £^- < p - 1, d'où (p- l)2 = 2 (^) •(/>-!) divise (p-1)!. Ceci étant, supposons (p - 1)! + 1 = pm. Comme (p - 1)! = pm - 1, (p - l)2 divise pm - 1 = (p - 1)(1 + p H 1- pm_1 ), donc (p - 1) divise 1 + p H 1- pm_1. Or p = 1 (mod p-1) donc 1 + p + 1- pm_1 = m (mod p — 1), ce qui prouve (p — 1) | m. Ceci montre m > p — 1 donc Pm > P1'-1 > (p~ l)p_1 > (p— l)'i et finalement (p— 1)! + 1 < pm et l'équation proposée n'a pas de solution. Exercice 12 (Critère de factorisabilité des nombres de Mersenne). a) Soit p un nombre premier de la forme 4k + 3 avec k G N*. Montrer que 2^-1^2 = ( —l)i+1 (mod p). b) On rappelle que les nombres de Mersenne sont les nombres de la forme Mp = 2P — 1 où p est un nombre premier (voir l'exercice 4). Si p est un nombre premier de la forme 4k + 3 (k g N*) et si 2p + 1 est premier, montrer que Mp n'est pas premier. Solution, a) Posons N = 2(P-»/2 (^) ! = 2<P-1)/2(2/k + 1)!. L'astuce est de donner une autre expression de N modulo p. On écrit que JV = 2^-0/1(1.2...2.=-1) = 2-4---(p-1) (modp), ou encore N = (2 • 4 ■ ■ • (2*)) ■ ((2k + 2) • (4Jk) ■ (4k + 2)) (mod p). Les congruenc.es - ^ '2k + 2 = -('2k + 1) (mod p) ' . , '2k + 4 = -('2k - 1) (mod p) 4k + '2 = -1 (modp)
16 I. Arithmétique, Groupes et Anneaux entraînent (2* + 2) • (2fc + 4) • • • (4Jb) • (4Jb + 2) = (-l)i+1(2fc + 1) • (2k - 1) • • • 3 • 1 (mod p) donc N = (2 • 4 • • -(2*)) • (-l)i+1((2fc + 1) • • -3 • 1) (mod p), d'où 2(p-i)/2(2fc + 1)! s N = (-l)i+1(2fc + 1)! (mod p), d'où le résultat, car comme p est, premier et, 2k + 1 < p, on a (2k + 1)! ^ 0 (mod p). b) Supposons p = 4ifc + 3 premier, ainsi que q = 2p + 1 = 8k + 7. Le résultat précédent appliqué à g = 4(2fc +1) + 3 donne 2<f-i)/2 = 2p = (-l)2i+2 = 1 (mod g) donc 2P — 1 = 0 (mod 2p + 1). Autrement, dit, 2p+ 1 divise Mp > 2p+ 1 et. Mp n'est pas premier. Remarque. En appliquant, b) aux petits nombres premiers, on montre que Mp n'est pas premier pour p = 11, 23, 83, 131, 179, 191, 239, 251. EXERCICE 13. Résoudre x2 + y2 = z2, avec (x,y,z) e (N*)3. (Indication : se ramener au cas où x, y et z sont premiers entre eux, puis étudier leur parité.) Solution. Quitte à tout, diviser par pgcd(:r, y, z)2, on peut, supposer x, y et z premiers entre eux dans leur ensemble. On vérifie alors facilement que x,y et z sont, premiers entre eux deux à deux. - Étudions la parité de x, y et, z. Tout, nombre impair N = 2n + 1 vérifie N2 = An2 + An + 1 = 1 (mod 4). Donc si x et, y sont impairs, x2 + y2 = 2 (mod 4), donc z est pair et on aboutit à une absurdité car z2 = 0 (mod 4). L'un des entiers x ou y est, donc pair, par exemple x. Comme x, y et z sont premiers entre eux deux à deux, y et, z sont, impairs. On écrit, (1)-.(-.)(41) (z et y étant impairs, ^-^- et, ^^ sont entiers). Ceci montre que *-£- et ^- sont des carrés d'entiers. Si tel n'était pas le cas, la décomposition de (|)2 en facteurs premiers entraînerait l'existence d'un nombre premier p divisant (^-) et (^1^). L'entier p diviserait (^- + ^l2-) = z et, (^1^ — *-%*■) = y ce qui est, impossible car y A z = 1. - Finalement, il existe (n,m) € N2, tel que *—**■ = n2 et. ^^ = m2. On en déduit x = 2mn, y = m2 — n2 et z = m'2 + n2. Réciproquement, ce triplet est solution. La solution du problème général est donc (x, y) ou (y, x) = (2kmn, k(m'2 - »i2)); z = k(m'2 + n2) k € N*, (m, n) € N2, m > n. Remanjue. Cet exercice est un cas particulier de l'équation xn +yn — zn. Fermât énonça en 1637 que pour tout entier n > 3, cette équation n'a pas de solution (x,y, z) £ (Z*)3, et affirmait qu'il en possédait une démonstration. On n'a malheureusement jamais retrouvé la soi-disante preuve, et cette équation a fait l'objet de très nombreuses recherches aux cours des siècles suivants. On a longtemps séché, et le premier résultat vraiment significatif date de 1983 et dit que pour tout n, cette équation n'a qu'un nombre fini de solutions (ce résultat est une conséquence d'un théorème de topologie algébrique du mathématicien allemand Faltings; cette découverte lui value d'ailleurs la médaille Fields). Une preuve complète du théorème de Fermât semble avoir été trouvée très récemment (juin 1993) par' le mathématicien anglais Andrew Wileslnut.ile de dire que la niveau de la preuve dépasse largement celui des classes préparatoires.
2. Groupes 17 - Pour ceux que la théorie des nombres intéresse, on ne peut que conseiller l'excellent ouvrage de Hardy et Wright : An Introduction to the Theory of Numbers. 2. Groupes 2.1. Généralités DÉFINITION 1. On appelle groupe un ensemble G muni d'une loi interne * telle que (i) La loi * est associative (i. e. pour tous x, y, z dans G, (x * y) * z = x * (y * z)). (h) Il existe un élément neutre e (i. e. pour tout x £ G, x * e = e * x = x). (iii) Tout élément a un symétrique (i.e. pour tout, x e G, il existe y G G tel que x * y = y * x = e). Si la loi * est commutative, on parle de groupe commutatif (ou abélien). Remarque 1. - Le neutre e. de (G,*) est unique. - Pour tout x G G, x a un unique symétrique, souvent noté x~l. DÉFINITION 2. Soit (G,*) un groupe; on dit que H C G est un sous groupe de G si la restriction de la loi * à H lui confère une structure de groupe. Exemple 1. L'ensemble Z des entiers, muni de la loi d'addition, est un groupe. Pour tout n GN, nZ est un sous groupe de (Z, +). Réciproquement, on peut démontrer que tous les sous groupes de (Z, +) sont de la forme raZ avec n G N. Dorénavant, la loi * d'un groupe sera notée multiplicativement (la notation additive est réservée aux groupes abéliens). Proposition 1. Soit G un gioupe et H C G. L'ensemble H est un sous groupe de G si et seulement si H ^ 0 et pour Unit couple {a, y) £ H on a xy~l G H. PROPOSITION 2. Une intersection de sous groupes d'un groupe G est un sous groupe de G. Remarque 2. Le résultat est faux dans le cas d'une réunion (voir l'exercice 2). DÉFINITION 3. Soit (G, •) un gioupe. On appelle centre de G, noté Z(G), l'ensemble des éléments de G commutant avec tous les éléments de G. L'ensemble Z(G) est un sous groupe de G. DÉFINITION 4. Si G est un groupe fini, Card((7) s'appelle l'ordre de G. *■ THÉORÈME 1 (Lagrange). Soit G un groupe fini. L'ordre de tout sous groupe H de G divise l'ordre de G. Démonstration. La relation xTZy •<==> xy~l G H est. une relation d'équivalence. Si on note x la classe de x € G, on a x = H x = {zx, z € H}. (En effet. : y € x <=> yll x <=> yx~l € H <=> y&Hx). Ponr tout, x € G, l'application H —► Hx y i—► yx est. une bijection comme on le vérifie facilement, donc Card(if.r) = Card(if). Ainsi, les classes ont, toutes Carcl(if) éléments. Les classes d'équivalences formant une partition de G, on a donc Card(G) = nCard(if) où n = Card(G/7J) désigne le nombre de classes d'équivalence. □
18 I. Arithmétique, Groupes et Anneaux Remarque 3. - Les classes de la relation d'équivalence définie dans la preuve du théorème sont appelées classes à droite suivant le sous groupe H (elles sont de la forme Hx). On aurait tout aussi bien pu considérer la relation d'équivalence définie par xlZy <=$■ x~ly G H, dont les classes sont de la forme xH et sont appelées classes à gauche suivant H. - L'entier Card(G/72) est appelé indice de H dans G, et noté [G : H]. On a Card(G) = [G:H]x Card(.ff). Sous groupes distingués. DÉFINITION 5. Soit G un groupe. Un sons groupe H de G est dit distingué (ou normal, ou invariant) dans G si pour tout x G G, xH = Hx. Exemple 2. — Tout sous groupe d'un groupe abélien G est distingué dans G. — Le centre Z(G) d'un groupe G est distingué dans G. Plus généralement, tout sous groupe de Z(G) est un sous groupe distingué dans G. Remarque 4. Lorsque H est un sous groupe distingué de G, on note parfois H < G. H faut prendre garde à cette notation qui n'est pas transitive. Autrement dit, si L < H et si H <\ G, il est faut d'écrire L < G. Le résultat qui suit est parfois un moyen pratique de montrer qu'un sous groupe est distingué. PROPOSITION 3. Soit G un groupe. Un sous groupe H de G est distingué dans G si et seulement si pour tout x £ G, xHx'1 c H. Groupes quotient. Soit G un groupe. On recherche les relations d'équivalence TZ sur G telles que G/1Z soit un groupe. Un moyen naturel de faire de G/1Z un groupe est de le munir de la loi x • y = (xy) (la notation x désigne la classe de l'élément x). Encore faut-il que (xy) ne dépende pas des représentants x et y des classes x et y, c'est-à-dire que si x TZx' et yTZy', on veut (xy)TZ(x'y'). Si tel est le cas, on dit que TZ est compatible avec la structure de groupe. On montre que les relations d'équivalence compatibles avec la structure de groupe sont les relations xTZy <=$■ xy~l G H, où H est un sous groupe distingué de G (dans ce cas, les classes à gauche suivant H coïncident avec les classes à droite suivant H). Muni de la loi quotient définie plus haut, l'ensemble quotient G/TZ est alors un groupe appelé groupe quotient et noté G/H. Si G est fini, on a Card(G) = Card(G/H) • Card(if). Exemple 3. Si n est un entier naturel non nul, rcZ est un sous groupe du groupe additif (Z, +). Ce dernier étant commutatif, on est même assuré du fait que nZ est un sous groupe distingué de Z. Ainsi, on peut définir le groupe quotient Z/nZ (défini tel quel, Z/nZ ne possède qu'une structure additive; la structure d'anneau de Z/nZ n'est introduite que lorsque l'on parle d'anneau quotient — voir l'exemple 3 de la partie 3.2). Morphismes de groupes. Dans ce paragraphe, G et G' désigne deux groupes, dont les éléments neutres sont notés respectivement e. et e'. DÉFINITION 6. Soit ip : G —► G' une application. On dit que y est un morphisme de groupes si pour tous x,y e G, <p(xy) = (p(x)(p(y). — Si <p est bijective, on dit que <p est mi isomorphisme de groupes; si de plus G' = G, on dit que ip est un automorjiliisme du groupe G. — L'ensemble f~l({f:'}) est appelé noyau de <p et noté Kei <p. Le morphisme <p est injectif si et seulement si Keïip = {(}. Proposition 4. Soit <p : G —► G' un marphvsme de. groupes, H et H' deux sous groupes de G, G'. Alors
2. Groupes 19 — f(H) est un sous groupe, de G', distingué si H est distingué dans G et si ip est surjectif. — <p~l{H') est un sous groupe de G, distingué dans G si H' est distingué dans G'. En jmrticulier, {e'} étant distingué dans G', Ker y? = <p~l({e'}) esi distingué dans G. De plus, le groupe quotient G/ Ker <p est isomorphe à <p(G). -*■ Remarque 5. Ce dernier résultat est important. En particulier, si (p : G —»■ G' est un morphisme surjectif, le groupe G' est isomorphe à G/ Ker ip. Cet isomorphisme est souvent utilisé lors de la résolution d'un exercice ou d'un problème sur les groupes. Groupe des automorphismes intérieurs. DÉFINITION 7. Soit G un groupe. Pour tout « G G, l'application tpa: G —► G ih axa~l est un automorphisme de G. L'ensemble A = {y>«,« G G}, muni de la loi de composition, est un groupe (on a d'ailleurs ip„ oipb = ipat), appelé groupe des automorjihismes intérieurs de G. 2.2. Génération d'un groupe Dans toute cette partie, G désigne un groupe, dont l'élément neutre est noté e. DÉFINITION 8. Soit A C G. Il existe un plus petit sous groupe H de G contenant A, qui est l'ensemble des éléments de G qui s'écrivent comme le produit d'éléments de A et d'inverses d'éléments de A. On l'appelle sous groupe engendré par A et on note H =< A >. Lorsque A = {Xi,... ,xn} est fini, on note aussi H =< xlf... ,xn >. Exemple 4. Pour tout a G G, < a >= {«m,m G Z}. Si deux éléments a et b de G commutent, alors < a,b >= {amb",(m, n) G Z2}. DÉFINITION 9. - Un groupe G est dit monogène s'il existe a G G tel que G =< a >. Si de plus G est fini, on dit que G est cyclique. — Un groupe G est dit de type fini s'il existe un nombre fini d'éléments ai,... , a„ de G tels que G =< ax,... , a„ >. Un tel n-uplet (a,,... , a„) est appelé système de générateurs de G. Remarque 6. - Tout groupe monogène est abélien. - Pour tout entier naturel non nul n, (Z/nZ, +) est un groupe cyclique. De plus, tout groupe cyclique à n éléments est isomorphe à (Z/nZ, +). DÉFINITION 10. Un élément a de G est, dit d'ordre p G N* si < a > est fini d'ordre p. L'ordre de a est aussi le plus petit entier naturel non nul p tel que ap = e, et on a < a >= {e,a,... ,ap_1}. ■*■ Théorème 2. Si G est fini d'onlre n, alors l'ordre de tout élément de G divise n. En particulier, tout élément a de G vérifie «" = e. THÉORÈME 3. Soit a un élément de G d'ordre p. On a l'équivalence (aq = e) •<=}• (p \ q). THÉORÈME 4. Si l'ordre de G est un nombre premier, le groupe G est cyclique, engendré par tout élément différent de l'élément neutre. PROPOSITION 5. Si G est cyclique d'ordre n, G =< a >, alors (<ak >=G) <=> (JbAn = l). Démonstration. Comme G =< « >, l'assertion < «* >= G est. équivalente à l'existence d'un entier v tel que akv = a. Ceci s'écrit, aussi ak"~l — e, ou encore n | (kv — 1), c'est-à-dire 3u,v € Z | ibt; — 1 = un, ce qui équivaut, d'après le théorème de Bezout. k k An = l. □
20 I. Arithmétique, Groupes et Anneaux 2.3. Groupe symétrique DÉFINITION 11. Pour tout entier naturel n non nul, on note Sn le groupe des permutations de {1,... , n} (muni de la loi de composition). Le groupe Sn est appelé groupe symétrique d'indice n. Si s G <S„, on note .s = (,^ ,(22) ;;; ,("n)). Remarque 7. On a Card(5„) = n\. DÉFINITION 12. On appelle transposition sur i,j la permutation notée r,j permutant les éléments i et j : _ ( l ■■■ i-1 i i + 1 ■■■ j-1 j j +1 • • • n \ *'; ^ 1 • • • i-1 j i + 1 • • • j-1 i j + 1 • • • n j' Théorème 5. Tout élément de Sn se décompose en produit de transpositions. DÉFINITION 13. Si s G Sn et a G {1,... , n}, on appelle orbite de a suivant s l'ensemble 0,(a)= {sk(a),kez}. DÉFINITION 14. Soit. 7 G Sn. On dit. que 7 est un cycle si parmi les 07(a), 1 < a < n, il n'existe qu'une seule orbite non réduite à un élément. Autrement dit s'il existe p > 2 et a G {'1,... ,n} tels que 07(«) = {o,7(«),... .t""»} et V* £ 07(«), 7(x) = z. L'orbite 07(a) est appelé support du cycle, son cardinal la longueur du cycle, et on note 7 = (^7(^,...,7^1^)). Exemple 5. - Une transposition est un cycle de longueur 2. - Dans 55, s = (1,3,5) = (32541) est «n cycle de support {1,3,5} et de longueur 3. - L'élément 5 = (\\ \ \) de <S4 n'est pas un cycle (deux orbites, {1,2} et {3,4}). Remarque 8. — Des cycles à supports disjoints commutent. - L'ordre d'un cycle dans le groupe Stl est sa longueur. ThÉOREME 6. Toute permutation s ^ Id se décompose de manière unique à l'ordre prés en un produit de cycles de supports deux à deux disjoints. Exemple 6. - ( i jf 5 â ) = (1,2)-(3,4)= (3,4)-(1,2). - (il f 1 II ?) = (1,2,0,4)-(3,5) = (3,5) • (1,2,6,4). Signature d'une permutation. DÉFINITION 15. Soit « G Sn. On appelle signature de s le produit «•>- n «. On a e(s) G { — 1,1}. Si e(s) = 1 (resp. e(s) = —1), s est dite paire (resp. impaire). PROPOSITION 6. Si s et t sont, deux éléments de. Sn alors e(st) = e(s)e(t). Remarque 9. - Une transposition est de signature —1. - La proposition précédente exprime le fait que e : Sn —* { — 1,1} est un morphisme de groupe. L'ensemble An = £_1({1}) = Kere est un sous groupe distingué de Sn, d'indice 2 : on a Card(.4n) = m!/2 et An s'appelle le groupe alterné d'indice n. PROPOSITION 7. La signature d'un cycle de longueur p est ( —l)p_1. Démonstration. Soit « = (aïta^t ■ ■ ■ ,ap) un cycle de longueur p. Le cycle s peut se décomposer sous la forme « = (r^, ap) • (ai, ap_i) ■ • (ax, 03) • (ai, a-j), c'est, le produit de p — 1 transpositions. Une transposition étant de signature —1, on en déduit le résultat. □
2. Groupes 21 2.4. Groupe opérant sur un ensemble Dans cette partie, G désigne un groupe dont l'élément neutre est noté e, X un ensemble quelconque. DÉFINITION 16. On dit que G opère sur X s'il existe une application Gxl-I (s,x)->s-x telle que (i) v(s, t) g G\ v* g x, s-(t-x) = (st) ■ x (ii) Vz G X, e ■ x = x. (Remarquer l'analogie avec un espa.ce vectoriel sur un corps K.) Exemple 7. - Le groupe G opère sur lui même par l'application G X G -> G (s,x)i-+sx. - Le groupe des permutations S d'un ensemble X opère sur X par l'application SxX^X (s,x)*s(x). Equivalence d'intransitivité. Dans ce paragraphe, G est un groupe opérant sur un ensemble X. DÉFINITION 17. La relation sur X définie par x T y ■<=» 3s G G, y - s-x est une relation d'équivalence, appelée relation d'intransitivité. La classe d'équivalence d'un élément x de X est Gx = {s-x, s G G}, on l'appelle classe d'intransitivité (ou orbite, ou trajectoire) de x. DÉFINITION 18. Le stabilisateur à\m élément x de X est le sous ensemble de G défini par Sx= {s e G, s-x = x}. Proposition 8. Pour tout clément x de X, Sx est un sous groupe de G. Démonstration. L'ensemble Sx n'est pas vide car e € Sx. Par ailleurs, pour tout s,t € G on a t -x = x donc x = i-1 • (t ■ x) = i-1 ■ x. Ainsi, (s/-1) ■ x = s -(t'1 ■ x) = s ■ x = x, d'où si'1 6 Sx. □ Théorème 7. Si G est fini, pour tout x e X on a Card(G) = C?uq\{Gx) - C»xà\{Sx). Démonstration. On fixe x. Soit, 1ZX la relation d'équivalence sur G définie par : s Tlx t •<=> s ■ x = (■i.Ona s TZX t •<=> (<-1*) ■ x — x •<=> t~ls G Sx •<=> s G tSx. Les classes d'équivalences sont donc de la forme tSx, t G G, ce qui montre qu'elles sont toutes de cardinal Card(Sj;). Il y a autant de clcisses d'équivalences que de valeurs prises par s ■ x, x G G, c'est-à-dire qu'il y a Card(Gx) classes d'équivalence. Donc Card(G) = Card((?r) ■ Cardai). □ Corollaire 1 (Équation aux classes). Si X est fini, si G est fini, si 0 désigne une partie de X contenant exactement un représentant de chacune des classes d'intransitivité, on a c^i{X)=j:c^i(gx)=j:^§i
22 I. Arithmétique, Groupes et Anneaux Application aux automorphism.es intérieurs. ThÉORÈme 8. Soit G un groupe fini. Il existe une famille finie de sous groupes stricts de G (le. £ {e} et £ G) (#,).e/ *e//e <7«e où Z{G) désigne le centre du groupe G. Démonstration. Faisons opérer G sur lui même par les automorphismes intérieurs : G x G —* G, (s,x)t-* <p, (x.) ■=■ st.s~ l. Si x. 6 G, on a Gx = {sxs~1, s Ç G) et Sx = {s Ç G, sx = xs) (dans ce cas, Sx est aussi appelé centralisateur ou normalisateur de x). D'après le corollaire précédent il existe 0 C G tel que card(G) = y; £=Ë£L Ot Sx = G <=> Vs € G, sx = xs <=> x e Z(G). En notant 0' = 0 \ Z(G), on a donc ^ j,™ V^ Card(G) v^ Card(G) _ ,,„,_.. v-^ Card(G) d'où le théorème car les (Sx)xçqi constituent une famille finie de sous groupes stricts de G (ce sont déjà des sous groupes d'après la proposition 6, différents de G car x ¢. Z{G), différents de {e} car {e,x}CGx). D Remarque 10. Ce dernier résultat est très puissant car il permet d'avoir des renseignements sur Card(2(G)) connaissant « prioii la forme des ordres des sous groupes de G (voir l'exercice 10 et les problèmes 7,9). Cependant, cette formule n'est pas au programme de mathématiques spéciales et il faut au besoin savoir la redémontrer. 2.5. Exercices Exercice 1. Soit G un groupe quelconque, soient x, y G G. On suppose que xy est d'ordre fini p dans G. Montrer que yx est également fini d'ordre p. Solution. Si x et y commutent, c'est bien sûr évident. Plaçons nous maintenant dans le cas général. On commence par remarquer que pour tout n Ç N*, (xy)" = (xy) ■ ■ ■ (xy) = x (yx) ■ ■ ■ (yx) y = x(yx)n ly. n termes n —1 tennes Ainsi, en désignant par e l'élément neutre de G, on a (xy)" = e •<=> x(yx)n~1y — t <=> yx(yx)n~1y = y •<=> (yx)" — e ce qui prouve que les ordres de xy et de yr sont identiques. Exercice 2. Soient G un groupe et Hx, H2 deux sous groupes de G. a) On suppose que H\ U H2 est un sous groupe de G. Montrer que H\ C H2 ou H2 C Hi. b) Si les ordres de H\ et H2 sont finis et premiers entre eux, que dire de H\ D H2 ?
2. Groupes 23 Solution, a) Raisonnons par l'absurde. Si H\ <f_ H2 et H2 ¢. H\, il existe x\ 6 H\, x\ £ H-i et il existe x2 € if2> x2 ¢ ffi- Comme ffi U H2 est un sous groupe, le produit xix2 appartient à H\ U #2- Si *i*2 € ffi, alors x2 = ^T (xi*2) € ffi, ce qui est absurde. De même, on parvient à une absurdité en supposant xix2 € H2. D'où le résultat. b) On sait que H\ O H2 est un sous groupe de H\ et H?. Ainsi, l'ordre de H\ O H2 divise l'ordre de H\ et l'ordre de H2, et vaut donc 1. Finalement, en désignant par e l'élément neutre de G, on a Hi n H2 = {e}. Exercice 3. Soient G un groupe et H\, H2 deux sous groupes de G. On pose HXH2 = {xy, x €Hi,yeH2}. a) A quelle condition nécessaire et suffisante HiH2 est-il un sous groupe de G? b) Si Hi et H2 sont finis et si HXC\H2 = {«} (où e. désigne l'élément neutre de G), montrer Card^i^) = Card(#i) • Card(#2). c) On suppose G abélien, H\ et if2 d'ordres finis p et q, où p et q sont deux nombres premiers distincts. Montrer que HiH2 est un sous groupe cyclique de G. Solution, a) Nous allons montrer que if 1 if2 eut un sous groupe de G si et seulement si if 1 if2 — H2H1. Condition nécessaire.. Soit a Ç H\H2- Alors a-1 Ç H1H2 autrement dit 3( 1:,3/) € if 1 x ff2, a-1 = xy. Ainsi « = y"1*-1, d'où a 6 H2Hi. Donc ffiff;j C H3H1. Il reste à montrer l'inclusion réciproque. Soit a — yx 6 H2H1 avec x 6 if 1 et y 6 ff2. Comme a~l = x-1y-1 6 H1H2, on a a 6 H1H2 car H1H2 est un sous groupe. Ainsi, H2H1 C ifiif2- Condition suffisante. Bien sûr, H1H2 ^ 0. Soient a, 6 6 ifiif2- H s'agit de montrer afc-1 6 ifiif2- Écrivons a = «102 et 6 = 6162, avec ai,61 € ifi et «2,62 € if2- On a ab~l = aic^fcj T = aiVx avec y = (1262 * € H3 et t. = b^1 6 ifi. Comme if 1 if2 = H2H1, il existe (x', j/) 6 ifi x if2 tel que yx = x'î/- Donc at-1 = aix't/ = (aix')(;/) € H1H2, d'où le résultat. b) Considérons l'application ip : H\ x H2—> H1H2 (xi,x2) f-* £1x2. Elle est surjective (par construction de l'ensemble d'arrivée H1H2), et injective car si ^(xi, X2) = V(!/i,!/2), alors xix2 = yiy-z donc t/f1xi = Î/2X.J1, d'où yf1xi 6 if 1 n if2 = {e}, donc xi = 1/1 et alors X2 = î/2- Finalement, <p est une bijection, donc Card(ffi) -Card(ff2) = Card(ifiif2). c) Le groupe G étant ici abélien, on a H1H2 — H2H1 donc H1H2 est un sous groupe de G d'après a). Par ailleurs, on a Card(ifiif2) = pq d'après b) car if 1 n if2 = {e} (voir l'exercice précédent, question b)). Les sous groupes ifi et H2 sont cycliques car leur ordre est un nombre premier. Soient x Ç H\ et y G if2 tels que ifi =< x > et if2 =< y >. Montrons que H1H2 —< xy >. Il s'agit de montrer que l'élément xy est d'ordre pq = Card(ifiif2). Le fait que (xy)" = e entraîne x" = (y-1)". Or H1 n H2 = {e}, donc x" = (y-1)" = e, donc p | n et q | n, et p et g étant premiers entre eux (car premiers et distincts), pq | n. Donc l'ordre de xy est supérieur à pq et comme il est toujours inférieur à Card(if!if2) = pq, son ordre est bien pq. EXERCICE 4. Soient G'i,... ,G„ des groupes cycliques d'ordres respectifs ai,... ,a„. À quelle condition nécessaire et suffisante portant sur les at le groupe G ~ G\ X ■• • X Gn est-il cyclique ? Solution. Commençons par montrer le résultat suivant : LEMME. Pour tout i, soit x,- un élément de. Cù d'ordre /¾. Alors x = (xi,.., ,x„) est d'ordre ppcm(/?i,,.. ,/?„) dans G\ x ■ ■ ■ x G„.
24 I. Arithmétique, Groupes et Anneaux Preuve. Pour 1 < i < n, notons e,- l'élément neutre de G,, de sorte que e = (ei,, ., , e„) est l'élément neutre de G. Alors ; (xp = e) •<==> (Vi, xf = «,•) •<=> (Vi, A' I ?)• Le plus petit entier naturel non nul p tel que xp = e est donc le plus petit multiple communs aux /?j, d'où le lemme. Montrons maintenant la condition nécessaire et suffisante : Le groupe G est cyclique si et seulement si les a; sont premiers entre eux deux à deux. Condition nécessaire. Soit x = (xi,.., , x„) engendrant G. Il est clair que pour tout i, x,' engendre Gi, donc est d'ordre a,-. D'après le lemme, l'ordre de t. est ppcm(ai,... ,an). Comme x engendre G, son ordre est aussi Card(G) = 01 ■ • ■«„■ Donc ppcm(c*i,... ,an) = <*i • • •<*„, ce qui entraîne que les at sont premiers entre eux deux à deux. Condition suffisante. Pour tout i, considérons xt Ç Gi d'ordre ai (xi existe puisque Gi est cyclique par hypothèse). D'après le lemme, x = (xi,... ,x„) est d'ordre ppcm(ai,.,. ,a„) dans G, et ce dernier terme égale «!'•■«„ = Card(G) puisque les <*,- sont premiers entre eux deux à deux. Finalement, G =< x > est cyclique. Exercice 5. Soit G un groupe, e son élément neutre. On suppose que tout élément x de G vérifie x2 — e. a) Montrer que G est un groupe abélien. b) Si G est fini et si G ^ {e}, montrer qu'il existe un entier n tel que G soit isomorphe au groupe [(Z/2Z)", +]. Solution, a) Si x Ç G, x2 = f. ou encore x = x""1. Si x et y sont dans G, on a donc xy — (xy)~l = y~lx~l = yx. b) Soit (xi,... , x„) un système de générateurs minimal de G (il en existe car G est fini). Si à = /3 dans Z/2Z, alors 2\ a — fi donc, pour x 6 G', x" = x'*. Ceci permet d'affirmer que l'application V : [(Z/2Z)", +] - G («x «'„) h- «-• ... j£- est bien définie. Le groupe G étant abélien, ^ est un morphisme de groupe, et il est surjectif par définition d'un système de générateurs. Montrons que <p est injectif. Soit (o'i,,,, ,à„) € Ker (p. S'il existe i tel que on — 1, par exemple a„ = 1, l'égalité x"1 ■ ■ ■ x^l"J* xn — e entraîne xn = x~l = x"1 • • ■ x^Z~i' ■ Donc (xi,.,. , x„_i) est un système de générateurs, ce qui est absurde puisque (*!,,,. ,x„) est un système de générateurs minimal. Finalement Ker <p = {(0,.., ,0)} et <p est injectif. C'est un isomorphisme. Exercice 6. On rappelle que le groupe alterné A„ d'indice n est le sous groupe de Sn constitué des permutations paires. Si n > 3, montrer que les cycles de longueur 3 engendrent An. Solution. Puisque tout élément de $n peut s'écrire comme un produit de transpositions et qu'une transposition est de signature —1, An est aussi l'ensemble des produits pairs de transpositions. Appelons A'n le sous groupe de S„ engendré par les cycles de longueur 3. On a A'n C A„ car un cycle de longueur 3 est de signature 1 (voir la proposition 7). Montrons maintenant An C A'n- D'après la remarque précédente, il suffit de prouver que le produit de deux transpositions est dans A'n- Ceci est vrai car : - Si i, j, k, l sont distincts deux à deux, (i, j)(k, l) = (i, j, k)(j, k, l) - Si i, j, k sont distincts deux à deux, (i, j)(i,k) — (i,k,j). - Sii^j, (i,j)0\«') = lil.
2. Groupes 25 Exercice 7. On rappelle que si G est un groupe fini et H un sous groupe de G, l'indice de H dans G est l'entier [G:H]= g^ff Soit p > 5 un nombre premier. Si if est un sous groupe du groupe symétrique Sp tel que [Sp : H] < p— 1, montrer que [Sp : H] G {1,2}. (Indications : Montrer que H contient tous les cycles de longueur p puis utiliser le résultat de l'exercice précédent.) Solution. Montrons d'abord que H contient tous les cycles de longueur p. Soit y € <SP un cycle de longueur p. Pour tout entier i, l'ensemble y'H est de cardinal Card(ff). Comme H est d'indice < p— 1 dans Sp, les ensembles H,jH,... ,jp~lH ne peuvent pas être deux à deux disjoints (sinon Card(5p) > ££Tp Cardai/) = p■ Card(ff)). Donc il existe deux entiers i et j, 0 < i < j < p- 1, tels que y'H O y* H ^ 0. On en déduit facilement y'~* Ç H. Or 1 < j — i < p donc yi~' engendre le sous groupe < y > d'ordre p (voir le théorème 4), ce qui entraîne y € < y'~' > C H. - Montrons maintenant que H contient tous les cycles d'ordre 3. Commep > 3, il suffit de remarquer que H contenant tous les cycles d'ordre p, on a (i,j,k) = (*, j,«',«i,«2,. ■■ ,rtp_3)(«, k,j, ap_3,... ,a2,«i) e H. - D'après le résultat de l'exercice précédent, H contient donc Ap, le groupe alterné d'indice d'indice p. Donc Card(if) > Card(^p) = |Card(5p), d'où [Sp : H] € {1,2}. Remarque. En appliquant ce résultat à p = 5, on voit qu'il n'existe pas de sous groupe de 55 d'ordre 30 ou 40, bien que Card(55) = 120. Le fait qu'un entier divise l'ordre d'un groupe fini n'est donc pas une condition suffisante pour qu'il existe un sous groupe d'ordre cet entier. Exercice 8. Soit G un groupe fini d'ordre pair 2n (n G N*). a) Soit H un sous groupe de G d'ordre n. Montrer que H est distingué dans G. b) On suppose qu'il existe deux sous groupes Hx et H2 de G d'ordre n et tels que HiC\H2 = {e}, où e désigne l'élément neutre de G. Montrer que n = 1 ou n — 2. c) On suppose qu'il existe deux sous groupes H\ et H-2 de G, distincts et tout deux d'ordre n. Montrer que H = H\C\H2 est un sous groupe distingué dans G. En déduire que l'ordre de G est un multiple de 4. Solution, a) Il s'agit de montrer : xH — Ht. pour tout t. Ç G. - Si x 6 H, on a xH — Hx — H. - Si x £ H, xH n H = 0 (en effet, si y Ç r.H O H, il existe a 6 H tel que y = xa donc x — ya~l 6 H, absurde), c'est-à-dire x.H C G \ H. Or xH et G \ H sont de cardinal n, donc x.H = G \ H. On montrerait de même que Hx = G \ H, donc xH — Hx. b) Comme Cardai U H2) = Card^) + Canl(if2) - Card(ifi n H2) = 2n - 1, il existe a € G, a ¢ Hi, a ¢ #2, tel que G = if i U H 2 U {«}, Si n = 1, c'est terminé. Sinon n > 2. On remarque alors que V(*, y) € (#! \ {(.}) x (H2 \ {e}), *i/ = a. (En effet. Si xy Ç Hi, alors y Ç x~lHi — Hi donc j/ 6 /fi n H2 — {e}, donc y = e, ce qui est absurde; de même, xy £ H2.) Ceci n'est possible que si Card(f/i \ {e}) = Card(i/2 \ {e}) = 1, c'est-à-dire n = 2. D'où le résultat. c) D'après a), H\ et if2 sont distingués dans G donc, pour tout x Ç G, xH = x,H\ n xi/2 = E\X,Ç\H2x — Hx, ce qui prouve que H est distingué dans G. Notons 7T la surjection canonique de G dans le groupe quotient G/H. Comme H est un sous groupe de Hx, tt(Hi) = Hx/H est de cardinal ^¾^ = Cm\h) ■ De même, tt(H2) = H2/H est de cardinal ci^ï/J- °r {Hi/H)C\ (H2/H) = (HXC\H2)/H est réduit à l'élément neutre de G/H. Le
26 I. Arithmétique, Groupes et Anneaux groupe quotient G/H étant d'ordre cJfyH\, on peut appliquer b) à G/H, H\/H et Ht/H ce qui donne Cat2(H) €{1,2}, Comme Hi ? H2, on a Card(if) = Card^ n H2) < n donc Ca£(tt) = 2. Finalement, Card(G) = '2n = 4Card(i7), d'où le résultat. Exercice 9 (Exposant d'un groupe abélien fini). Soit G un groupe abélien fini. a) Si x,y sont deux éléments de G d'ordres respectifs m et n, avec m An = 1, quel est l'ordre de xy ? b) On appelle exposant de G le plus grand des ordres des éléments de G et on le note r. Montrer que r divise Card(G) et que si x € G, l'ordre de x divise r. c) Montrer que r a les mêmes facteurs premiers que Card(G). En déduire que pour tout facteur premier p de Card(G), il existe un élément de G d'ordre p. Solution, a) Si (xy)p = e alors xp — (y~l)p doue xp Ç < y >, d'où (xp)" = xpn = e, donc m | pn. Or m A n = 1 donc d'après le théorème de Gauss, m | p. De même n | p et les entiers m et n étant premiers entre eux, mn | p. Or (;rt/)m" = (;rm)"(?/")m = e, l'ordre de xy est donc mn. b) Par définition de r, il existe un élément x de G d'ordre r et on a r | Card(G) d'après le théorème 3. Soit y Ç G, q son ordre. Il s'agit de montrer que q | r. Supposons q f r. En écrivant la décomposition en facteurs premiers de q et r, on voit qu'il existe un nombre premier p vérifiant f « / i g-pg avef tt>^>0 et pAî'=pAr'=l. Or a = xp est d'ordre r' et b = yq est d'ordre ;/'. D'après a), ab est donc d'ordre r'pa > r, ce qui contredit la définition de r. Donc q | r. c) Soit (xj,... , xn) un système de générateurs de G. Notons ri,... , r„ les ordres de x\,... , xn. Considérons l'application ip : < *i > x ••• x <*„ >-» G (yi,.. ,yn) •-> yi •• yn- Le groupe G étant abélien, ^ est un morphisme de groupes. De plus, <p est surjectif (puisque (xi,... , x„) est un système de générateurs de G), donc G est isomorphe au groupe quotient (< X! > x • • • x < xn >)/ Ker (p, donc Card(G) x Card(Ker (p) = Card(< xi > x ■ • • x < xn >) = ri • • -fn, donc Card(G) | fi • • -rn. Or tous les r,- divisent r d'après b), donc Card(G) | r". On en déduit que tout facteur premier p de Gard(G) divise r. Soit p un facteur premier de Card(G). On vient de prouver que p | r donc on peut écrire r = pr' avec r' entier. Si on choisit un élément x de G d'ordre r, l'élément xr est d'ordre p, d'où le résultat. Remarque. Les résultats de cet exercice permettent de montrer que si K est un corps commutatif et G un sous groupe fini du groupe multiplicatif (JT, x), alors G est cyclique. En effet. Soit r l'exposant de G. K étant un corps commutatif, l'équation xr = 1 a au plus r solutions dans K, donc au plus r solutions dans G. Or Vi eG,ir = 1 d'après b). On en déduit Caid(G) < r, et comme r | Caid(G), on a r = Card(G) et le résultat annoncé. - Ce dernier résultat est également une conséquence du problème 6. - En l'appliquant au corps TLjpTL (où p est un nombre premier), on démontre que le groupe multiplicatif (Z/pZ)* est cyclique, résultat non évident a priori. Exercice 10 (LES ^-groupes). Soit p un nombre premier et G un groupe fini d'ordre p" avec a G N* (on dit que G est un p-groupe). a) Montrer que Z(G), le centre de G, est différent de {e}, où e désigne l'élément neutre
2. Groupes 27 de G. (On pourra utiliser l'équation aux classes — voir le théorème 8). b) Que dire si a = 1 ? si a = 2 ? c) Montrer que pour tout entier m, 0 < m < a, il existe un sous groupe de G d'ordre pm. Solution, a) D'après le théorème 8, il existe une famille finie (i/,-),-e/ de sous groupes stricts de G telle que Card(G) = Card(2(G)) + £ g^|. (*) Pour tout i 6 /, Hi est. un sous groupe strict de G donc d'après le théorème de Lagrange, son ordre divise Card(G) = p", de sorte qu'il existe un entier /?,-, 1 < /¾ < a, tel que Card(if,) = pP'. Donc pour tout « € /, p divise g^ffi, = p"-*. Or p | Card(G) donc d'après (*), p | Card(Z(G)). Comme de plus Card(Z(G)) > 1 car e 6 Z(G), ceci entraîne Card(Z(G)) > p. b) Si a = 1, G est cyclique d'après le théorème 4. Si a ■=■ 2, Z(G) étant un sous groupe de G, différent de {e} d'après a), on a Card(Z(G)) € {p, p2}. Nous allons montrer que Z(G) = G en raisonnant par l'absurde. Supposons Card(Z(G)) = p- Soit x Ç G, x £ Z(G). L'ensemble Sx = {m 6 G | «x = ïu} (appelé normalisateur de x) est un sous groupe de G. Or e e S* et Z(G) C Sx, donc Card(5«) > p+ 1. Comme Card(5I) | p2 = Card(G), ceci entraîne Card(S'i) = p2 donc Sx = G, et par définition de Sx, on a x € Z(G), ce qui est contradictoire, Finalement Card(2(G)) = p2, c'est-à-dire G est abélien, c) Nous allons montrer ce résultat par récurrence sur a Ç N*. (Le principe est de quotienter par un sous groupe distingué d'ordre p pour se ramener à l'hypothèse de récurrence). - Si a = 1, le résultat est évident. - Supposons le résultat vrai pour ix, montrons le pour a + 1. Soit m, 0 < m < a + 1. Si m = 0, {e} est un sous groupe d'ordre pm et le résultat est montré. Sinon, supposons m > 1. D'après a), Z(G) est différent de {e}, Soit x 6 Z(G),x ^ e.. L'ordre de x divisant p"+1, il est de la forme jfi avec fi > 1, Donc y = r.p est d'ordre p, et le groupe H =< y > est d'ordre p, Par ailleurs, c'est un sous groupe de Z(G) et il est donc distingué dans G. Le groupe quotient G/H est d'ordre pa et d'après l'hypothèse de récurrence, il existe un sous groupe K de G/H d'ordre pm_1. Si ît désigne la surjection canonique de G dans G/H, ir est un morphisme de groupes donc K = ît(jF) est isomorphe à F/Kern = F/H ce qui entraîne Card(F) = Q&ïà{K) x Card(if) = pm. D'où le résultat. Remarque. Ce résultat est un cas particulier du théorème de Sylow (voir le problème 7). Exercice 11 (Un théorème de Cauchy sur les groupes finis). On suppose que la théorie des groupes opérant sur un ensemble est connue (voir la partie 2.4). Soit G un groupe fini (non forcément abélien) d'ordre h, et soit p un nombre premier divisant h. On note S = {(«i,... ,ap) G Gp \ ai • • -ap = e}, où e désigne l'élément neutre de G, et on note 7 le cycle (1,2,... ,p). a) On fait opérer < 7 > sur S en posant VA; e Z, 7*(«i> • • • > 'h) ~ (<V(i)> •••■> <V(p))- Déterminer le cardinal des orbites. b) Démontrer le théorème de Cauchy : Le nombre de solutions dans G de l'équation xp = e. est un multiple de p. En déduire qu'il existe au moins un élément d'ordre p dans G. Solution, a) Pour tout t. € G, on note Gx l'orbite de x et Sx son stabilisateur. On sait que l'on a p= Card(< 7 >) = Card(Gi-) x Card(.S'r), et p étant premier, Card(Gr) = 1 ou Card(G:,;) = p.
28 I. Arithmétique, Groupes et Anneaux b) L'application / : S —* G1' * (ai,... ,ap) >—> (ai,.., ,ap-i) est bijective puisque chaque élément (ai,... ,«p_i) de Gp~l a un unique antécédent par / qui est (ai, ■ ■ ■ ,«p_i, (ai • • ■ ap_i)_1). Donc Card(S) = Card(Gp-1) = hp-K Soit 0 une partie de 5 contenant exactement un représentant de chaque orbite Gx. Soit A = {i65| Card(GI) = 1}. Soit 6'=6\yl, D'après a), Vx € 0', Card(GI) = p. Or If-1 = Card(S) = Y^, Card(G.) = Card(^) + £ Card(G,). ige ige' Comme de plus p | h, on en déduit que p | Card(^) = hp~l — pCard(0'). Par définition de A, A est l'ensemble des p-uplets (x,... ,x) tels que xp — e. Le nombre Cnid(A) représente donc le nombre de solutions de xp = e, et comme p | Card(i4), on en déduit le théorème de Cauchy. On a ep = e, ce qui entraîne Card(^) > 1, et comme p | Card(^), Card(^) > p. Donc il existe x 6 G, x ^ e tel que xp = e. Le nombre p étant premier, ï: est d'ordre p. Remarque. Ce résultat entraîne que lorsqu'un nombre premier p divise l'ordre d'un groupe, il existe un sous groupe de cardinal p. On savait que c'était déjà vrai dans le cas d'un groupe abélien (voir l'exercice 8). - Le problème 7 généralise ce dernier résultat. 3. Anneaux 3.1. Définitions DÉFINITION 1. Soit A un ensemble muni de deux lois internes notées "+" et "•". On dit que (A, +, •) est un anneau si : (i) (A, +) est un groupe abélien, (ii) la loi • est associative, (iii) le loi ■ est distributive par rapport à, la loi +. Si la loi • admet un élément neutre, on parle d'anneau unitaire ; si la loi • est commutative, on parle d'anneau commutatif; un élément de A est dit inversible s'il l'est pour la loi • de A. Notation. Le neutre de la loi + est souvent noté 0, celui de la loi • est noté 1 (ou e). Dans toute la suite, (A, +, ■) désigne un anneau. DÉFINITION 2. Un élément a de A est dit diviseur de 0 à droite (resp. à gauche) si a ^ 0 et s'il existe b ^ 0 tel que ab = 0 (resp. ba = 0). DÉFINITION 3. Un anneau A est dit intègre, s'il est sans diviseur de zéro, autrement dit si (a ^0,6 ^0==^ «6^0). DÉFINITION 4. Un élément a € A est dit nilpotent s'il existe un entier naturel non nul n tel que a" = 0. L'indice (ou l'ordre) de. nilpotenc.e, de « est le plus petit entier naturel non nul n tel que a" = 0. DÉFINITION 5. Un sous ensemble B de A est dit un sous anneau de A si (B, +, ■) est un anneau. Exemple 1, - Z est un anneau unitaire intègre. - Z/8Z est un anneau non intègre (2 ■ 4 = Ô), et dans cet anneau, 2 est nilpotent d'indice 3. - Af „(E) est un anneau unitaire non intègre.
3. Anneaux 29 3.2. Idéaux DÉFINITION 6. Soit / C A. On dit que / est un idéal de l'anneau A si (i) (J, +) est un sous groupe de (A, +), (ii) V(x,a) e I X A, ax £ I et xa € /• Remarque 1. - Un idéal est un sous anneau. - La notion d'idéal est en quelque sorte l'analogue pour les anneaux de la notion de sous groupe distingué. Par contre, la notion de sous anneau est beaucoup moins utilisée que la notion de sous groupe. - Si A est commutatif, pour tout x € A l'ensemble xA = {xa,a € A} est un idéal de A. - Si A est unitaire et si 1 € J où / est un idéal de A, la propriété (ii) d'un idéal entraîne que J = A. Si un idéal / de A possède un élément inversible x de A, alors 1 = x~1x € / d'après (ii) et donc I = A. - Lorsque I C A vérifie (i) et vérifie seulement ax € / (resp. xa 6 /) pour tout (x,a) € / X A, on dit que / est un idéal à gauche (resp. à droite) de A. Si I est à la fois idéal à gauche et idéal à droite de A, / est donc un idéal de A (on précise parfois en disant, que I est, un idéal bilatèrc:). PROPOSITION 1. Une intersection d'idéaux de A est un idéal de A. Une somme finie d'idéaux de A est un idéal de. A. DÉFINITION 7. Soit (A, +, •) un anneau commutatif. Un idéal / de A est dit principal s'il existe x € A tel que I = xA. On note alors I = (x). L'anneau A est dit principal s'il est commutatif, unitaire, intègre et si tous les idéaux de A sont principaux. Exemple 2. Les anneaux Z et R[X] sont principaux. Anneaux quotients. Comme pour les groupes, on peut définir la notion de quotient sur les anneaux. Étant donnée une relation d'équivalence TZ sur A, on cherche à faire de A/TZ un anneau en le munissant des lois x + y = x + y et x ■ y = x ■ y (où x désigne la classe de x). Si ces lois sont bien définies (c'est-à-dire que x + y et xy ne dépendent pas des représentants choisis de x et y), on dit que TZ est compatible avec la structure d'anneau. On montre que les relations d'équivalence compatibles avec la structure d'anneau sont de la forme x TZ y •<=?• x — yçl, où / est un idéal de A. Si tel est le cas, A/TZ est un anneau (muni des lois définies plus haut) appelé anneau quotient et noté A/I. Exemple 3. Pour tout entier n > 0, nZ est un idéal de Z et on peut définir l'anneau quotient Z/nZ. Morphismes d'anneaux. DÉFINITION 8. Soient A et, A' deux anneaux. On appelle morphisme d'anneaux de A dans A' toute application / : A —» A' telle que f(x + y) = f(x) + f(y) et f(xy) = f(x)f(y) pour tous x, y € A. Lorsque / est bijective, on parle d'isomorphisme d'anneaux. L'ensemble noté Ker/ = /-1({0}) est appelé noyau de /. C'est un idéal de A qui vérifie : (/ est injective «=» Kex / = {0}). PROPOSITION 2. Soient A et A' deux anneaux et f : A -* A' un morphisme d'anneaux. — Si I est un idéal de A et si f est surjectif, alors f(I) est un idéal de A. — Si V est un idéal de A', f~l(I') est un idéal de A. — L'image et l'image réciproque par f d'un sous anneau est un sous anneau. — f(A) est isomorphe à l'anneau quotient A/Ker f.
30 I. Arithmétique, Groupes et Anneaux Remarque 2. La dernière assertion de la proposition est importante. C'est souvent le moyen le plus pratique pour montrer qu'un anneau est isomorphe à un anneau quotient. Caractéristique d'un anneau. DÉFINITION 9. Soit A un anneau unitaire dont l'élément neutre pour la loi • est noté e. Soit le morphisme d'anneaux / : Z —► A «h ne. — Si Ker / = {0}, (i. e. ne = 0 =^- n = 0), on dit que A est caractéristique 0. — Si Ker / ^ {0}, alors Ker / étant un idéal de Z principal, il existe un unique entier naturel non nul c tel que Ker / = cZ. L'image /(Z) est isomorphe à Z/cZ. L'entier c est aussi le plus petit entier > 0 tel que ce = 0. On dit alors que A est de caractéristique c. On a d'ailleurs ne = 0 •<=?• c | n. Proposition 3. La caractéristique d'un anneau unitaire intègre est 0 ou un nombre premier. Démonstration. Si la caractéristique c d'un anneau A unitaire intègre est non nulle et si c n'est pas premier, on peut écrire c = ab avec l<a<cetl<6<c. Donc 0 = ce = (ae)(ie), et A étant intègre on en déduit ae = 0 ou 6e = 0, absurde car c est le plus petit entier > 0 tel que ce = 0. □ 3.3. Groupe des inversibles d'un anneau unitaire On rappelle que les élément d'un anneau unitaire (A, +, •) inversibles pour la loi • sont appelés les inversibles de l'anneau A. PROPOSITION 4. L'ensemble des inversibles d'un anneau unitaire A, muni de la loi multiplicative, est un groupe appelé groupe des inversibles de A. PROPOSITION 5. Soit un entier n > 2 et k un entier. L'élément k (classe de k dans Z/nZ) est inversible dans Z/nZ si et seulement si k An = 1. Théorème 1 (des Chinois). Soient m et n deux entiers naturels non nuls premiers entre eux. Les anneaux (Z/mZ) X (Z/nZ) et Z/mnZ sont isomorphes. Démonstration. On considère l'application / : Z -> Z/mZ x Z/nZ x >-> (x,x). C'est un morphisme d'anneaux, de noyau Ker / = {x 6 Z | m | x et n \ x). Comme m A n = 1, on a aussi Ker / = {x 6 Z | mn \ x) = mnZ. Donc /(Z) et, Z/mnZ sont isomorphes. En particulier, Card(/(Z)) = Card(Z/mnZ) = mn et donc /(Z) = Z/mZ x Z/nZ. Finalement, on vient de montrer que Z/mnZ et Z/mZ x Z/nZ sont isomorphes. □ Remarque 3. - En procédant par récurrence sur p, on montre que si ni,... , np sont premiers entre eux deux à deux, alors Z/nx • • -npZ et Z/nxZ X ■■ • X Z/npZ sont isomorphes. — La surjectivité de l'application / prouve que si m A n = 1, alors (Va,b e Z, 3x e Z), x = a (mod m) et x = b (mod n). Dans la pratique, la méthode de recherche d'un tel élément x peut se faire comme suit. • On cherche u et v tels que um + vn = 1 grâce à l'algorithme d'Euclide (voir l'exercice 2 de la section 1.3) • Il suffit alors de prendre x = a + um(b — a) (par exemple).
3. Anneaux 31 Indicateur d'Euler. DÉFINITION 10. Soit un entier n > 1. Notons Gn le groupe des inversibles de Z/nZ. On appelle indicateur d'Euler de n l'entier <p(n) = Card(G„). D'après la proposition 5, <fi(n) est aussi le nombre d'entiers k € {1,2,-- ,n} tels que k A n = 1. Remarque 4. En vertu de la proposition 5 de la partie 2.2, le nombre de générateurs d'un groupe cyclique d'ordre n (typiquement Z/nZ) est y?(n). Théorème 2 (Euler). Soit un entier n > 1. Si k est un entier premier avec, n, on a k*W = 1 (mod n). Démonstration. Si k A n = 1, alors le est élément du groupe G„ des inversibles de Z/nZ d'après la proposition 5. Comme l'ordre de Gn vaut ip(n), on en déduit i*(") = 1 dans Z/nZ, d'où le résultat. □ Ce dernier résultat généralise le théorème de Fermât. Vu son importance, on aimerait pouvoir calculer y?(n). Ceci fait l'objet de la proposition suivante. PROPOSITION 6. Soit n > 2 un entier, n miers. Alors Démonstration. Soit p un nombre premier et, rt € N*. Alors iir n'est pas premier avec pa si et seulement si p | k. L'ensemble des nombres premiers de {1, 2,... ,p"} non premiers avec p est donc {p,2p, 3p (p"_1)p}- Ce dernier étant de cardinal p"-1, on en tire <p(p") = p" — p"-1 (*)■ - Si m et, n sont, premiers entre eux, d'après le théorème des Chinois, Z/mZ x Z/raZ est isomorphe à Z/mnZ. En restreignant, l'isomorphisme à Gm x G„, on voit, que Gm x G„ est isomorphe à Gm„. Donc ip(mn) = tp(m)<p(n) (**). - Si maintenant, n > 2 est, un entier dont, la décomposition en facteurs premiers est, n = p"1 ■ ■ p£k, on a d'après (**) ip(n) = <p(Pil) ■ ■ ■ ^(Pt"), d'où le résultat, d'après (*). □ Remarque 5. En particulier si p est un nombre premier, ip(p) = p — 1 et on retrouve le théorème de Fermât avec le théorème 2. PROPOSITION 7. Pour tout entier n > 2, an a n = ^ f(d). Démonstration. Considérons les fractions i 1 n~ * " , • , , . il il n n Nous cherchons à les mettre sous forme irréductible ^ ou d doit, nécessairement, diviser n. Pour chaque d divisant, n, il y a <p(d) numérateurs a possibles (puisque le nombre d'entiers a tels que a A d = 1 est, <p(d)). Comme il y a en tout, 7i fractions, on en déduit le résultat. D = p'p ■ ■ -p1k sa décomposition en facteurs pre- •(/,-l) = n(l-1).-(1-1).
32 I. Arithmétique, Groupes et Anneaux 3.4. Exercices Exercice 1. Soit A un anneau unitaire dont l'élément neutre pour la loi • est noté 1. a) Soit x € A nilpotent. Montrer que 1 — x est inversible. b) Si n € N* (et x toujours nilpotent), simplifier l'expression Un = (1 + x)(l + x2) • • -(1 + x?") = JJ(1 + x2k). k = 0 Solution, a) Soit p l'indice de nilpotence de x, de sorte que xp = 0. On a (1 - x)(l + T. + --- + xp_1) = (1 + x + ■ ■ ■ + ip_1)(l - x) = 1 - xp = 1, d'où le résultat car on a prouvé que xy = yx = 1 avec y = 1 + x + ■ ■ ■ + xp~l. b) On va montrer par récurrence sur n 6 N que U„ = (1 — ï0_1(1 — x2 )• - Pour n = 0 c'est vrai car (1 - x)U0 = (1 - *)(1 + x) = 1 - x2, d'où U0 = (1 - x)'1^ - x2). - Supposons Un-i = (1 - r)~l(l - x2"). Alors Un = Un-i(l + x2') = (1 - ¢)^(1 - x2"*1). Remarque. En particulier, le résultat du a) reste vrai pour les matrices carrées : si N est nilpotente, alors I — N est inversible (en fait, ce résultat reste vrai dès que ||iV||jl — où || • || est une norme d'algèbre sur les matrices, voir le tome analyse sur les espaces vectoriels normes). Exercice 2 (Anneau de Boole). Soit A un anneau tel que tout élément de A soit idempotent (i. e. \/x € A, x2 = x). a) Si x € A, montrer que 2x = 0. Montrer que A est commutatif. b) Montrer que si x,y € A alors xy(x + y) = 0. Que dire si A est intègre? Solution, a) Si Z € A, alors (2x)2 = 2x donc 4x2 = 2x, ce qui entraîne 4x = 2x puis 2x = 0. Ceci s'écrit encore x = — x. Si x,y 6 A, (x + y)2 = x + y donc x'2 + xy + yx + y2 = x + y = x2 +y2, d'où on tire xy + yx = 0, donc xy = —yx = yx. b) Si x, y € A, alors xy(x + y) = xyx + xy2 = x2y + xy2 = 2xy = 0. - Si A est intègre, alors A a au plus deux éléments. En effet, sinon il existe x, y 6 A distincts et différents de 0. Donc (x + ?/) ^ 0 (sinon x = — y = y) et A étant intègre xy(x + y) ^ 0, absurde. Exercice 3 (Radical d'un idéal). Soit A un anneau commutatif unitaire et /un idéal de A. On appelle radical de / l'ensemble noté V/ = {x e A \ 3n € N*, x" 6 /}. a) Montrer que \/7 est un idéal de A. b) Déterminer le radical d'un idéal de Z. Solution, a) - Montrons tout d'abord que (y/7, +) est un sous groupe de (^4,+). Il est clair que puisque / C y/1 ■ Par ailleurs, si x € \fï alors —x € \fî puisque le fait que xn € / entraîne (—1)"ï" = (—*)" € /. Prenons maintenant x,y 6 y/1. Il existe m et n 6 N* tels que xm 6 / et y" € I. L'anneau A étant commutatif, on peut écrire m+n—l (x + ,/)-+-1 = £ Ct^xV"-1--1-*
3. Anneaux 33 /m-l \ /m+n-l \ \*=(l / V k=m 1 et puisque / est un idéal, ce terme appartient à /. Donc i + i/g y/1. - Enfin, si a 6 A et si x 6 y/1, il existe n 6 N* tel que x" Ç I et donc A étant commutatif, (ai)" = anx" 6 /. Donc ax 6 -y/7. Finalement, -y/7 est un idéal de A. b) Soit / un idéal de Z. L'anneau des entiers étant principal, il existe n € N* tel que / = «Z. Si n = 0, on a bien sûr y/1 = 0 et si n = 1, v7 = Z. Sinon n > 2, et on écrit la décomposition de n en produit de facteurs premiers n = p"x ■ ■ p£k. Montrons que y/1 = px ■ ■ pkZ. - On a y/1 C pi ■ ■ PifcZ. En effet. Si x 6 -y/7 alors il existe m 6 N* tel que xm 6 nZ, donc n | xm, donc Vi, 1 < i: < k,pt | xm, donc Vi, 1 < i: < k,pi | x d'où pi ■ ■ pt | a; puisque les Pi sont premiers entre eux deux à deux (ils sont premiers et distincts). - On a pi ■ ■ -pfcZ C y/1. En effet. Soit x 6 pi ■ ■ ptZ\ Il existe r 6 Z tel que x = pi ■ ■ -pitr. Si m = maxi<,<i «;, on a n = p"1 ■ ■ p£k | xm = p™ ■ ■ ■pJV'" donc xm 6 /, ou encore x Çy/1. Exercice 4 (Idéal premier, idéal maximal). Soit A un anneau commutatif unitaire. a) Un idéal V ^ A de A est dit premier si pour i, y € A le fait que xy 6 T3 entraîne x Ç V ou y € V. Montrer que T3 est un idéal premier si et seulement si l'anneau quotient A/V est intègre. b) Un idéal Ai ^ A de A est dit maximal si les seuls idéaux contenant Ai sont Ai et A. Montrer que Af est un idéal maximal si et seulement si A/Ai est un corps. c) Montrer que tout idéal maximal est premier. d) Réciproquement, si A est principal, montrer qu'un idéal premier V ^ {0} est maximal. Solution, a) Si x G A, notons x sa classe dans A/V. Alors (P est premier) •<=> (xy Çp =*• x ou y 6 P) <É=> (x ■ ij = Ô =>• x ±= Ô ou y = Ô) <=> (A/P est intègre). b) Condition nécessaire.. Soit ,M un idéal maximal. Soit x € A tel que x (classe de a; dans A/M) vérifie x ^ 0. Alors x ¢ ,M de sorte que M + (x) = A (en effet, / = M + (x) est un idéal contenant M, différent de M puisque x $. M, donc I = A). Donc il existe a Ç A et m 6 M tels que 1 = m + ax, ce qui s'écrit 1 = «x. L'anneau A/M est donc un corps. Condition suffisante. Soit / un idéal de A tel que M C I et M ^ I. Soit a & I, a $. M. On ao^O de sorte que A/M étant un corps, il existe b Ç A, «6 = 1. Donc il existe m Ç M, ab = 1 + m, d'où 1 = ab — m 6 /. Donc / = A et M est maximal. c) Soit M un idéal de A maximal. L'anneau quotient A/M est un corps donc un anneau intègre, donc M est premier. d) Soit / un idéal de A tel que P C I etP ^ I. L'anneau A étant principal par hypothèse, il existe m 6 P tel que P = (m) et il existe a & I, I — (a). Comme m 6 /, il existe g 6 A tel que m = aq. L'idéal P étant premier, on a a € P ou q 6 7*. Or « £ P sinon P = I. Donc g 6 7*, de sorte qu'il existe p 6 A tel que q = mp. Donc m = aq = amp d'où m(l — dp) = 0 d'où ap = 1 (car A est principal donc intègre et m ^ 0 sinon 7> = 0). Or ap 6 /, donc 1 6 /, donc I = A, d'où le résultat. Exercice 5. Soit n > 2 un entier. Si a est un entier premier avec n montrer a"' = 1 (inod n).
34 I. Arithmétique, Groupes et Anneaux Solution. D'après le théorème d'Euler, on sait que a^") = 1 (mod n) où <p désigne l'indicateur d'Euler. Le résultat, sera donc démontré si on prouve <p(n) | n!. Soit n = p"1 ■ ■ ■ p£k le décomposition de n en facteurs premiers. On a <p(n) = p"1-1 ■ ■ ■Pt*-1(pi — 1) ■ ■ ■ (pt — !)■ Or p"1-1 • • -p**- | n; d'autre part, p,- — 1 < p,- < n pour tout i, et. les pi étant deux à deux distincts, (pi — 1) ■ ■ ■ (p* — 1) | (n — 1)!. On en déduit <p(n) \ n\, d'où le résultat. Exercice 6 (Anneaux NOETHÉRIENs). On dit qu'un anneau commutatif unitaire A est noethérien si tout idéal I de A est engendré par un nombre fini d'éléments (i. e. il existe r.i,... , xk 6 I tels que (x,i) + - ■ - + (¾) = /). Montrer que A est noethérien si et seulement s'il n'existe pas de suite d'idéaux de A strictement croissante au sens de l'inclusion. Solution. Condition nécessaire.. Soit (7„)„gN une suite croissante d'idéaux de A. On vérifie facilement que / = U„eN/„ est un idéal de A. Il est donc engendré par un nombre fini d'éléments *i, ■.. ,xp 6 /. Or chaque x,- appartient à / = U„gN/„ et donc il existe n,- tel que Xi 6 Ini. Si N = sup1<l<: ni, la suite (/„) étant croissante, tous les Xj (1 < « < p) appartiennent à In, et donc / = (li) + ■ ■ • + (xp) C In- Par ailleurs In C I puisque / = Ujgp)/„. Donc In = I, ce qui entraîne que la suite (/„) est stationnaire pour n > N. Condition suffisante. Soit / un idéal de A. Supposons que / ne puisse pas être engendré par un nombre fini d'éléments. Sous cette hypothèse, nous allons construire une suite (i„) d'éléments de / tels que xn+i ¢ (xi) H 1- (i„). - On choisit un élément x\ Ç I. - xi,... ,x„ Ç I étant supposés construits, on sait que (xi) + ■ • ■ + (x„) ^ / car / ne peut pas être engendré par un nombre fini d'éléments. On choisit alors xn+i 6 /, i„+i ¢ (ii) + ■ ■ ■ + (xn)- Ainsi, si on pose /„ = (xi) + ■ ■ ■ + (xn), la suite (/„) est une suite d'idéaux de A strictement croissante au sens de l'inclusion, ce qui est contraire aux hypothèses. Donc / peut être engendré par un nombre fini d'éléments, d'où le résultat. Remarque. Tout anneau principal est noethérien. 4. Problèmes Problème 1 (Cryptographie : le système de chiffrement RSA). On se donne deux nombres premiers p et q distincts et on pose n = pq. Soient c, d deux entiers tels que cd = 1 (mod y(n)) où ip désigne l'indicateur d'Euler. Montrer que si t 6 Z, tcd = t (mod n). Solution. Les nombres p et q étant premiers et distincts, on a <p(n) = (p — l)(q — 1). Soit k Ç Z tel que cd = 1 + k<p(n). Soit t 6 Z. Pour prouver que tcd = t (mod n), il suffit de prouver tcd = t (mod p) et tcd = t (mod q) (car alors p et q diviseront tcd — t, et commepAg = 1, n = pq divisera tcd — t). Prouvons par exemple tcd = t (mod p) (le calcul modulo q est analogue). - Si t A p = 1 alors V"1 = 1 (mod n) (théorème de Fermât) donc tcd = (fP-1)*^-1)* = t (mod p). — Si t A p ^ 1, alors p divise t, et alors on a tcd = t = 0 (mod p). Remarque. L'application </ : Z/nZ—^Z/nZ ii i-> ic s'appelle une fonction de chiffrement, / : < p-v id fonction de déchiffrement. L'exercice affirme que / o </(<) = t. On peut donc chiffrer un message (représenté par un élément i de Z/nZ) par le biais de g, puis on le déchiffre par le biais de /. Le couple (u, c) est appelé la clef publique, l'entier d la clef secrète. La sécurité de ce système repose sur le fait que connaissant la clef publique, il est très difficile de déterminer d : il faudrait par exemple factoriser n pour trouver p et q, ce
4. Problèmes 35 qui est encore impossible à réaliser de nos jours lorsque p et q sont grands, typiquement de l'ordre de 100 chiffres (signalons que l'on ne sait pas aujourd'hui factoriser des entiers de plus de 120 chiffres). En d'autres termes, tout le monde peut chiffrer mais seuls ceux connaissant la clef secrète peuvent déchiffrer. Ce système de chiffrement est apparu en 1976. Il est appelé système RSA (du nom des inventeurs Rivest, Shamir et Adleman) et est couramment utilisé aujourd'hui car il est extrêmement robuste. Son apparition explique l'intérêt que l'on porte aujourd'hui aux algorithmes de factorisation et de primalité. Problème 2 (Nombres pseudo-premiers et nombres de Carmichael). Le théorème de Fermât affirme que si n est premier et si a A n = 1, alors a"-1 = 1 (mod n). Le but du problème est de montrer que la réciproque est fausse. 1/ (Nombres pseudo-premiers.) Soit un entier a > 2. Un entier n est dit pseudo-premier en base a (ce que l'on note brièvement pp-a) si n n'est pas premier et si a"-1 = 1 (mod n). Si p > 2 est un nombre premier ne divisant pas a{a2 — 1), montrer que n = (a2p — l)/(a2 — 1) est un nombre pp-a. En déduire que pour tout a > 2, il existe une infinité de nombres pp-a. 2/ (Nombres de Carmichael.) Un entier n > 2 est appelé nombre de Carmichael si n n'est pas premier et si pour tout entier a premier avec n, a"-1 = 1 (mod n) (autrement dit si pour tout entier a premier avec n, n est pp-a). a) Si n = pi ■ ■ -pk (où les p, sont des nombres premiers distincts) et si p, — 1 | n — 1 pour tout i, montrer que n est un nombre de Carmichael. b) Réciproquement, montrer que tout nombre de Carmichael peut se mettre sous la forme n = pi • ■ -ptc où les Pi sont des nombres premiers distincts et où p, — 1 | n — 1 pour tout i. (Indication : on pourra utiliser le fait que si G est un groupe commutatif fini et si p premier divise l'ordre de G, alors il existe dans G au moins un élément d'ordre p — voir partie 2.5, exercice 8, c).) c) Montrer qu'un nombre de Carmichael a au moins 3 facteurs premiers. d) Soit n = pqr un nombre de Carmichael à trois facteurs premiers p < q < r. Si p est fixé, montrer que q et r sont bornés. Solution. 1/ Remarquons tout, d'abord que n = (^fr)(^f) = (a1"1 + ■ • • +-a + l) • (a?-1 - ap~2 + ■ ■ ■ — a + 1) est un entier composé. Ceci étant, on a a'2p = 1 + n(a2 — 1), de sorte que a2p = 1 (mod n) (*). Le résultat sera donc acquis si on montre que 2p | n — 1. On a (a2 - l)(n - 1) = a2p - a2 = a(ap-1 - l)(ap + a). D'après le théorème de Fermât, p | (ap-1 — 1) puisque par hypothèse p ne divise pas a. On a donc p | (a2 — l)(n — 1). Or p ne divise pas a2 — 1, donc p est. premier avec a2 — 1 (car p est premier) et d'après le théorème de Gauss, p | n — 1. Or n — 1 = a2p~2 + ■ ■ ■ + a4 + a2 est une somme paire de termes de même parité, donc 2 | n — 1. 2 et p étant, premiers entre eux, on a donc 2p | n — 1, donc n est pp-a d'après (*). Il n'y a qu'un nombre fini de nombres premiers p divisant a(a2 — 1). Comme il y a une infinité de nombres premiers, on en déduit qu'il y a une infinité de nombres premiers p > 2 ne divisant pas a(a2 — 1), donc une infinité, de nombres pp-a. 2/ a) Soit a premier avec n et soit 1 < i < k. Comme p; | a, on a a*"'""1 = 1 (mod p,-) d'après le théorème de Fermât, et comme p, — 1 | n — 1, on a a"-1 = 1 (mod p,), ce qui s'écrit aussi Pi | (a"-1 — 1), Ceci étant vrai pour tout i, on en déduit n = pi • ■ -pt | a"-1 — 1 puisque les p,- sont premiers entre eux deux à deux. Donc a"-1 = 1 (mod n), et, ceci pour tout, a premier avec n, d'où le résultat.
36 I. Arithmétique, Groupes et Anneaux b) La réciproque est plus délicate. Soit n = p™1 ■ ■ -p£k la décomposition de n en facteurs premiers. Montrons d'abord que pour tout «', a,- = 1. Supposons qu'il existe i tel que ai > 2, par exemple ai > 2. Le groupe des inversibles de Z/p"'Z est d'ordre ipÇp"*) = P™1~ (Pi — 1), donc d'après le résultat c) de l'exercice 8 de la partie 2.5, il existe a € Z tel que l'ordre de à dans le groupe des inversibles de Z/p™'Z soit pj. D'après le théorème des chinois, il existe b € Z tel que 6 = a (modpf) et Vi > 2, i = 1 (mod p;). En particulier 6 est premier avec n et donc 6"-1 = 1 (mod n), ce qui entraîne 6"_1 = 1 (mod p™1) donc dans le groupe des inversibles de Z/p™'Z, l'ordre de b = à divise n — 1. Or cet ordre est pi, donc pi | n — 1, ce qui est absurde puisque pi | n. - On a donc n = pi ■ ■ -pk, où les p,' sont premiers et distincts. Soit «', 1 < i < ib. Il est bien connu que (Z/p,Z)* est un groupe cyclique (voir la remarque de l'exercice 9 de la partie 2.5), donc il existe a € Z tel que à soit d'ordre pi — 1 dans (Z/p,Z)*. D'après le théorème des chinois, il existe b € Z tel que b = a (mod p,) et pour tout j ^ », 6 = 1 (mod p;). En particulier, b est premier avec n et donc 6"-1 = 1 (mod n), donc fc"-1 = 1 (mod p,). Or l'ordre de b = à dans (Z/p,Z)* est Pi — 1, donc p,- — 1 | n — 1. Ceci est vrai pour tout «', d'où le résultat. c) Supposons que n = Ça + 1)(6 + 1) soit un nombre de Carmichael avec a + 1 et b + 1 premiers et a jib. On a n = ai + a + 6 + 1. Or a \ n— 1 donc a | b = (n — 1 — ab — a); de même i | a. Donc a = 6, ce qui impossible d'après la question précédente. d) Comme n est un nombre de Carmichael, on a g— 1 | n—1, et donc g—1 | (n—1)—(g—1) = g(pr—1). Or g A (g — 1) = 1 donc d'après le théorème de Gauss, g — 1 | pr — 1. De même r — 1 | pg — 1, donc finalement (g — l)(i— 1) | Çpr — l)(pg — 1). Ceci entraîne (g - l)(r - 1) | Çpr - l)(pg - 1) - p2(g - l)(r - 1) = p2Çr + g) - pÇr + g) + 1 - p2, d'où on tire (g — l)(r — 1) < p2Çr + g). Comme g < r, oh a donc (g — l)2 < 2p2r (*). Nous avons vu plus haut que r — 1 | pg — 1, ce qui entraîne r < pg donc r2 < p2g2, et d'après (*) r2 < p24p2r, donc r < 4p4. En remplaçant cette dernière inégalité dans (*) on tombe sur g < v8p3 + 1. Finalement, nous avons trouvé que g < y/îîp3 + 1 et r < 4p4. Donc si p est fixé, g et r sont bornés. Remarque. Le plus petit nombre de Carmichael est 561 = 3-11-17. Les suivants sont 1105, 1729, 2465, 2821 ... - On sait depuis peu de temps (février 1992) qu'il existe une infinité de nombres de Carmichael. On a même démontré que si x est assez grand, le nombre de nombres de Carmichael < x est supérieur à x2/7. Problème 3 (Quelques tests de primalité). a) Soit un entier n > 2 vérifiant 3a € Z,(a"-1 = 1 (mod n) et V</1 n — 1, q premier, aq ^ 1 (mod n)). Montrer que n est un nombre premier. b) Soit n > 2 un entier, n — 1 = p"1 • ■ •pk*1' la décomposition en facteurs premiers de n — 1. On suppose que pour tout i, 1 < i < k, il existe un entier at tel que a?-1 = 1 (mod n) et <4"-1)/p" ± 1 (mod n). Montrer que n est un nombre premier. c) Soit p > 2 premier, et soit h 6 N tel que 1 < h < p — 1. On pose n = 1 + hp2. Si 2"_1 = 1 (mod n) et 2" ^ 1 (mod n), montrer que n est premier. (Indication : utiliser l'ordre de 2 pour montrer qu'il existe un nombre premier q divisant n avec p\ q — 1.)
4. Problèmes 37 Solution, a) Soit m l'ordre de à clans le groupe des inversibles de Z/nZ. Nous allons montrer que m = n — 1. Supposons m < n— 1. Comme a"-1 = 1 (mod n), m \ n — 1 et donc il existe un nombre premier q divisant n — 1 tel que m | (n — l)/g. Ceci entraîne que a("-1^' = 1 (mod n), ce qui est contraire aux hypothèses. Donc m = n — 1, ce qui prouve que le groupe des inversibles de Z/raZ admet au moins n — 1 éléments, ce qui n'est possible que si n est premier. D'où le résultat. b) Pour tout i, notons m,- l'ordre de rij dans le groupe des inversibles de Z/nZ. Comme a"~l = 1 (mod n), on a m,- | n — 1 = YljPj'■ Comme de plus a-"~l>'Pi £ 1 (mod n), on a aussi m,- f P?'-1 rijaSiPi'''- Ces relations concernant m; permettent d'affirmer que pf* | m,-, et donc p™' \ <p(n) (où <p désigne l'indicateur d'Euler) puisque l'ordre de a,- divise l'ordre du groupe des inversibles de Z/raZ qui est <p(n). Ceci étant vrai pour tout », on en déduit, les p,- étant premiers distincts, que n — 1 = fi. P?' I ¥>(n)> donc que <p(n) > n — 1. Donc le groupe des inversibles de Z/nZ comporte au moins n — 1 éléments, ce qui n'est possible que si n est premier. c) Soit m l'ordre de 2 dans le groupe des inversibles de Z/raZ. On a 2"-1 = 1 (mod n) donc m | n — 1 = /ip2. Or 2h £ 1 (mod «) donc m | /t. Finalement, p | m (si p f m, alors p étant premier m A p2 = 1 et donc m | h d'après le théorème de Gauss). Comme m divise l'ordre du groupe des inversibles de Z/raZ qui est <p(n), on en déduit p | ^(n) (*). Si n = p"1 ■■■pj* désigne la décomposition de n en facteurs premiers, on sait que <p(n) = p"1'1 ■ ■ ■p%k~1(pi — 1) ■ ■ • (pk — 1). Comme p\n= 1 + /ip2, on a p ^ p; pour tout i donc il existe d'après (*) un indice i tel que p | p,- — 1. Autrement dit, il existe un facteur premier g de n tel que q = 1 (mod p). Soit r l'entier vérifiant qr = n. On & qr = n = 1 + hp2 = 1 (mod p), donc r = 1 (mod p). En résumé, on a montré qu'il existe q premier, q \ n et r entier tels que qr = n avec q = 1 + up, r = 1 + vp, u, v 6 N. Le nombre q étant premier on a d'ailleurs u > 2 (si u = 0, g=letsiu=l,g est pair). Supposons r > 1. Alors t; > 1. Or on a l+hp2 = n = qr = (l+up)(l+vp) donc hp = (uv)p+(u+v), ce qui entraîne («) uv < h <p— l et (U) (« + «) > p car p | (u + v) ^ 0. Comme m > 2, (i) entraîne t; < (p — 1)/2, et d'après (ii) u > 1 +p/2, donc toujours d'après (i), t; < (p— 1)/(1 + |) < 2. Finalement t; = 1, ce qui est absurde car (i) entraînerait u < p— 1 et (ii) entraînerait u > p — 1. On a donc forcément r = 1, ce qui entraîne que n = q est premier. Remarque. Le test c) fut utilisé avec le nombre premier p = 2127— 1 pour montrer que n = l+190p2 est premier (Miller et Wheeler, 1951). Les tests de primalité de ce type permettent d'obtenir des nombres premiers ayant une forme particulière. Un problème beaucoup plus délicat est de savoir si un nombre donné n est premier ou pas; actuellement, les nombres le plus grands (sans forme particulière a priori) dont on sache tester la primalité ont environ 1500 chiffres. Problème 4 (Quelques cas particuliers du théorème de Dirichlet). 1/ a) Soit p > 2 un nombre premier. Montrer que —1 est un carré dans Z/pZ si et seulement si p = 1 (mod 4). b) En déduire qu'il existe une infinité de nombres premiers de la forme 1 + An, n € N. 2/ (Un résultat plus général). Soient un nombre premier p > 2 et un entier m > 1. Montrer que l'ensemble Vm des nombres premiers de la forme 1 +2mpn (n € N), est infini. (Indication. Si Vm est fini, considérer un nombre premier q divisant (Mp + 1)/(M + 1) où M = A'2""', K = p(Y[nevm n)> et montrer que q ç Vm)- Solution. 1/ a) Condition nécessaire.. Supposons qu'il existe x € Z/pZ, x2 = —1. Le groupe
38 I. Arithmétique, Groupes et Anneaux multiplicatif (Z/pZ)* étant d'ordre p — 1 (car jt est premier), on a xp~l = 1. Donc (r,2)^'1^2 = (— 1)(p-1)/2 = 1, ce qui n'est possible que si (p— 1)/2 est pair. D'où la condition nécessaire. Condition suffisante. C'est plus difficile. Donnons deux méthodes. - Première méthode. Comme p est premier, Z/pZ est un corps. L'équation ^(p-1)/2 = 1 a donc au plus (p — 1)/2 solutions dans Z/pZ. Comme (Z/pZ)* contient p— 1 > (p— 1)/2 éléments, il existe x € (Z/pZ)M,el que y_= x(p-1)/2 ^ T. On a y2 = x1"1 = T donc (y — T)(y + T) = 0, donc y = — 1 (car y ^ 1). Or p = 1 (mod 4), donc il existe un entier Jb tel que (p - 1)/2 = 2k. Si z = x*, on a donc z2 = x2k = x^-1*/2 = y = -T, d'où le résultat. - Seconde méthode (cette méthode est moins générale que la précédente). Soit l'entier iir tel que p = 1 + 4k. Comme p est premier, on a d'après le théorème de Wilson 1-2--- (2k) ■ (2k + 1) ■ • ■ (4ib - 1) ■ (4k) = -1 (mod 4k + 1), ce qui s'écrit aussi 1 ■ 2 ■ --(2k) ■ (-2k) ■ --(-1) = -1 (mod p) ou encore (-1)M(1-2---(2ib))2 = -1 (modp). Si on pose x — 1-2--- (2k), ceci s'écrit x2 = —1 dans Z/pZ, d'où le résultat. b) Supposons qu'il y ait un nombre fini de nombres premiers de la forme 4k + 1, iir 6 N. Soit p le plus grand d'entre eux et soit N = 1 + (p!)2. Soit un nombre premier q divisant N. Alors (p!)2 = —1 (mod q), donc —1 est un carré dans Z/gZ et donc q est de la forme 4iir + 1, iir € N d'après a). Donc q < p, donc q | p!, donc q | 1 = N — (p!)2, ce qui est absurde. Il y a donc une infinité de nombres premiers de la forme 4iir + 1, iir € N. 2/ Supposons Vm fini. Suivons l'indication en considérant l'entier N = (Mp + \)/(M + 1) = Mp_1 - MP'2 + M + 1 avec M = /l2'"-' où K = p(\[n^Vm n). Comme N > 1, il existe un nombre premier q divisant N. On a Mp + 1 = 0 (mod q) donc Kr-lP = Mp = _j (mod q^ et 7<.2"P ^ j (mod g) L'égalité de droite montre que l'ordre r de K dans le groupe multiplicatif (Z/gZ)* divise 2mp. L'égalité de gauche montre que r f 2m-1p. Comme p est premier, on a donc r = 2m ou r = 2mp. Si r = 2m, comme N divise (M2)^ + ... + M2 + l=M2P-l = ^^.1^±l yn ) -r -1-J.i-l- M2_l M_l M + 1 et que M2 = /C2 = 1 (mod g), on a 0 = (M'2)p-1+--+M2 + l=p (mod g) donc g | p, donc g | M, ce qui est absurde vu que g | Mp + 1. Ainsi, r = 2mp et comme l'ordre de tout élément de (Z/gZ)* divise g — 1, on a 2mp | g — 1 c'est-à-dire g 6 Vm- Ceci entraîne g | M ce qui est impossible. L'ensemble Pm est donc infini. Remarque. Ces résultats sont des cas particuliers du théorème de Dirichlet (voir la remarque qui suit l'exercice 7 de la partie 1.3, page 12). Dans le sujet d'étude 2 de ce chapitre, on utilise des méthodes du type de 1/ pour démontrer d'autres formes particulières du théorème de Dirichlet. Problème 5 (Anneaux euclidiens). 1/ Soit A un anneau commutatif unitaire intègre. On dit que A est euclidien s'il existe une application / : A* = A \ {0} —» N telle que (i) Vx,y€ A*, f(xy)>f(y), (ii) Va G A, V6 G A*, 3(</, r) 6 A2, tel que a = bq + r, avec r = 0 ou f(r) < /(6).
4. Problèmes 39 a) Si A est euclidien, montrer que A est principal. b) Si de plus on a (iii) Vx,ye A* ,x J: y, f(x - y) < sup{f(x), f(y)}, montrer que le couple (q, r) dans (ii) est unique. c) Caractériser les éléments inversibles d'un anneau unitaire euclidien. 2/ Soit l'anneau des entiers de Gauss Z[i] = {x -f iy, (z, y) € Z2}. a) Montrer que si z e C, il existe z{) e Z[i] tel que \z — z{)\ < 1. b) En déduire que Z[i] est un anneau principal. c) Quels sont les inversibles de Z[i] ? Solution. 1/ a) Soit / un idéal de A. Si / = {0}, / est évidemment principal. Si / ^ {0}, on considère l'ensemble T — {f(x),x € I*} C N. Soit a 6 /* tel que /(a) = inf T. Prenons maintenant un élément x Ç I. D'après (ii), 3(g, r) 6 A2, (x = aq + r avec f(r) < f(a) ou r = 0). Remarquons que r = x — aq € /. Si r ^ 0, alors /(r) < /(a) ce qui est absurde puisque r Ç /* et f(a) — inf T. Donc r = 0, donc x = ftg. On vient de montrer que / C (a)- Réciproquement, comme a 6 /, on a (a) C /■ Donc / = (a) et A est principal. b) Soit (a,b) Ç Ax A*. Soient deux couples (g, r) et (q',r') vérifiant (ii) pour (a,b). Alors bq + r = bq'+r', donc b(q-q') = r'-r. Siq^q',ona. r'-r ^ 0 et /(6) < f[b(q-q')] - f(r'-r) (*). Si r = 0 (le cas r' = 0 se traite en échangeant les rôles de (q, r) et (q1, r')), (*) entraîne /(6) < f(r') < f(b), ce qui est absurde. Si r ^ 0 et r' ^ 0, alors (*) entraîne f(b) < sup{/(r),/(r')} < f(b), ce qui est également absurde. On a donc forcément q = q' et donc r = r'. c) Soit a = inf{/(a;), x € ^4*}- Nous allons montrer que r € A* est inversible si et seulement si f(x) = a. Condition nécessaire. Si x est inversible, alors il existe y Ç A*, xy — 1. Donc Vz € ;!*, /(z) = f[x(yz)] > f(x) d'après (i), donc f(x) = a. Condition suffisante. Appliquant (ii) à (a,b) — (l,x), on voit qu'il existe (q,r) € A2 tel que l = bx + r avec r = 0 ou f(r) < f(x). Cette dernière assertion est impossible car f(x) = a, donc r = 0 et donc bx = 1. L'élément x est donc inversible (on a aussi xb = 1 car A est commutatif). 2/ a) Soit z = x + iy € C, (s,y) € M2. Il est facile de voir qu'il existe xo,yo € Z tels que \x-x0\ < 1/2 et |y-i/o| < 1/2. Si z„ = xu + iy„ € Z[«],on a |z-z0|2 = (x - x0)2+(y-y0)2 < 1/2, donc \z — zq\ < 1. b) Montrons que Z[i] est euclidien, ça suffira d'après 1/a). Soit (a, 6) Ç Z[«] x Z[i]*. D'après la question précédente, il existe q 6 Z[«] tel que |g—«/6| < 1, et donc a = bq+r avec |r| = |6||a/6—q\ < \r\, ce qui montre qu'en prenant f(z) = \z\2 = x2 + y2 pour z = x + iy 6 Z[«']*, (ii) est vérifié. Or pour tout x 6 Z[»']*, /(z) > 1, donc Vy 6 Z[»']*, /(^J/) = f(x)f(y) > f(y)- La condition (i) est donc vérifiée. Finalement, Z[i] est euclidien. c) D'après 1/c), les inversibles de Z[i] sont les éléments z vérifiant f(z) — \z\2 — 1. Ce sont donc 1, -1, « et -«'. Remarque. Les anneaux Z et K[A"] sont euclidiens, avec f(x) = |z| sur Z et /(P) = deg(P) sur E[X]. C'est d'ailleurs de ces deux anneaux qu'est née la notion d'anneau euclidien. Problème 6. Soit G un groupe fini tel que pour tout entier d > 1, l'équation xd = e (où e désigne le neutre de G) a au plus d solutions dans G. Montrer (pie G est un groupe cyclique.
40 I. Arithmétique, Groupes et Anneaux Solution. Notons n l'ordre du groupe G. Pour tout entier cl divisant n, notons <pd l'ensemble des éléments de G d'ordre d. L'ordre de tout élément de G divise n, donc la famille (<pd)d\n forme une partition de G. Si i>d = Card(^d), on a donc Yld\n i'd — n (*)■ Nous allons maintenant montrer que si d \ n, ipd < 'P(d) (**) où (p désigne l'indicateur d'Euler (voir la partie 3.3). Si ipd = 0, c'est terminé. Sinon ipd > 1 et donc il existe x0 6 <pd- Tous les éléments x de < x{) > vérifient alors xd = 1. Or < xo > a d éléments et l'équation xd = e a au plus d solutions. Les éléments qui vérifient xd — e sont donc les éléments de < xo >■ Donc ipd C< xo > et ipd correspond donc à l'ensemble des générateurs de < *» > qui, d'après 2.2 proposition 5, est de cardinal <p(d). Donc ipd — <p{d), d'où (**). Or Yldln 'PW = n (v°ir 3.3 proposition 7). De (*) et (**) on en déduit que pour tout diviseur d de n, on a ipd = <p(d). En particulier ip(n) = i>n > 0, donc il existe an moins un élément d'ordre n, d'où le résultat. Remarque. Il découle de ce problème le résultat annoncé dans la remarque de l'exercice 9 de la partie 2.5. Problème 7 (Théorème de Sylow). a) Soit G un groupe abélien fini. Soit p un nombre premier divisant l'ordre de G. Montrer qu'il existe un sous groupe de G d'ordre p (sans utiliser le résultat des exercices 9 ou 11 de la partie 2.5). b) Soit G un groupe fini d'ordre h, non supposé abélien. Démontrer le théorème de Sylow : Si pa | h avec p premier et, a 6 N, alors il existe un sous groupe de G d'ordre pa. (Indication : on pourra procéder par récurrence sur Card(G) en utilisant l'équation aux classes — voir 2.4 théorème 6.) Solution, a) On procède de manière analogue à la question c) de l'exercice 2.5 8. G étant fini, il existe un système de générateurs (xi,... ,x„) de G. Notons ri,... ,r„ les ordres de x\,... ,xn. Considérons l'application <p : < xi > x ■ ■ ■ x < xn > —► G (j/i,... ,;/„) p-v i/i • • -y„. Le groupe G étant abélien, ip est un morphisme de groupes. De plus, <p étant surjectif (puisque (*i,... , x„) est un système de générateurs de G), G est isomorphe à (< xi > x • • ■ x < xn >)/Ker tp, donc Card(G) x Card(Ker^) = Card(< x\ > x---x < x„ >) = n •-•»•„, donc Card(G) | ri ■ ■ -r„. Donc p | ri • ■ -r„, donc il existe r,- tel que p | r,-. Si n,- = pq, q 6 N*, alors x = x\ est d'ordre p et H —< x > est un sous groupe de G d'ordre p. b) Procédons par récurrence sur h = Gard(G'). - Si Card(G) = 1, c'est évident. - Sinon, supposons le résultat vrai pour les groupes d'ordres < h = Card(G). Si a = 0, c'est évident, sinon a > 1. D'après le théorème 8 de la partie 2.4, il existe une famille finie (/f,),g/ de sous groupes stricts de G telle que k = Card(G) = Card(2(G)) + £ c^{H.y (*) Deux cas se présentent : — Il existe i 6 / tel que p" \ Card(/f,). Comme Card(iï,-) < Card(G), d'après l'hypothèse de récurrence il existe un sous groupe H de H{ d'ordre pa. Ainsi H est un sous groupe de G d'ordre p". - Pour tout i e /, p" | Card(#,-). Comme p" \ k, p divise /t/Card(F.) pour tout i € /. D'après l'équation aux classes (*), on a donc p \ Card(2(G)), et Z(G) étant un groupe commutatif, il existe un sous groupe G de Z(G) d'ordre p d'après a). Comme C C -Z(G), C est distingué clans G. Soit, ir la surjection canonique de G dans (7/(7. L'ordre du groupe quotient G/C est, Card(G')/Card((7) = h/p <h = Card((7) et comme p""1 | Card((7/(7),
4. Problèmes 41 on sait d'après l'hypothèse de récurrence qu'il existe un sous groupe H' de G/C d'ordre p0-1. Le sous groupe H = Tr~l{H') est donc d'ordre Card(C*)Card(#') = p°. D'où le résultat. Problème 8. Soit G un groupe fini et H un sous groupe de G. On suppose que Card(G) = pCard(if) où p est le plus petit facteur premier de Card(G). Montrer que H est distingué dans G. Solution. Considérons la relation d'équivalence sur G définie par r.Tly <=> x~ly € H. La classe d'équivalence d'un élément x Ç G est de la forme âT = xH (classe à gauche suivant H). Notons X l'ensemble quotient G/TZ. Pour les mêmes raisons que dans la démonstration du théorème de Lagrange, Card(X) = Card(G)/Card(#) = p. Fixons g £ G. Pour tout i 6 G la classe g~x ne dépend pas du représentant x de ïT car xTZy =>• x~lyÇ.H =>• (</x)-1((/i/) = z_1i/ € H =>■ gr.TZgy. Ainsi, l'application <rg : X —► X x>-+gx est bien définie, et il est facile de vérifier que c'est une permutation de X. Comme trggi = <rg o a'g, l'application <p : G —► S g >-* trg (où S désigne le groupe des permutations de X) est un morphisme de groupes. On en déduit que Im^> est isomorphe à G/Kev<p, donc que Card(Im^) = Card(G)/Card(Ker ip). De plus Im^> est un sous groupe de S, donc Card(Im^) | Card(S) = p!. Finalement, _Card(G)_ Card(Ker <p) U " Comme p est premier et que c'est le plus petit facteur premier de Card(G), on en déduit facilement que Card(G)/Card(Ker ip) divise p. Ainsi, Card(Ker (p) > Card(G)/p = Card(#). Un peu d'attention montre que Ker ip = {g e G \ Vx € G, x~lgx € H), (*) en particulier Ker <p C H. Comme Card(Ker^) > Card(/f), ceci entraîne Ker^> = H. D'après (*), ceci s'écrit V</ 6 /T,Vx 6 G, x~1gx 6 H, c'est-à-dire que H est distingué dans G. Problème 9. 1/ Soit G un groupe. Si A C G, on note A' = {x e G,Va e A,ax = xa}. a) Si A C G, montrer que A' est un sous groupe de G. b) Soit D un sous groupe de G distingué dans G. On note A(D) le groupe des automor- phismes de D. a) Montrer que D' est distingué dans G et, que G/D' est isomorphe à un sous groupe de A{D). ^) Si D est d'ordre m premier, montrer que A(D) est isomorphe au groupe multiplicatif (Z/mZ)*. 2/ Soit G un groupe fini non ubélien d'ordre pq, où p et </ sont des nombres premiers, avec p < q. On note e le neutre de G. a) Montrer que le centre Z(G) de G est réduit à {e}. b) Montrer qu'il existe dans G au moins un sous groupe d'ordre q. (on pourra utiliser l'équation aux classes, voir 2.4 théorème 6).
42 I. Arithmétique, Groupes et Anneaux c) Montrer qu'il n'existe qu'un seul sous groupe K de G d'ordre q, et que K est distingué dans G. d) Montrer que K = K' puis que p \ (q — 1). 3/ Soit G un groupe d'ordre pq avec p et q premiers, p<qetp\q— 1. Montrer que G est cyclique. (On pourra utiliser le résultat a) du problème précédent). Solution. 1/ a) On a e 6 A'. Par ailleurs, si Z 6 A', alors pour tout a Ç A, ax = xa donc en multipliant à gauche et à droite par x-1, a;_1a = ai-1. Ainsi, z-1 6 .4'. Il ne reste plus qu'à montrer que si a;, y 6 A', alors zy 6 A', ce qui est le cas car si a Ç A, a(xy) — (ax)y = (xa)y = x(ay) = x(ya) = (xy)a. b) a) Soient x 6 G et y 6 D'. Le sous groupe D étant distingué dans G, on a x~1ax 6 Z? pour tout agi), donc (a;_1aa;)i/ = y(x~1ax), ce qui entraîne a(xyx~l) = (a;i/a;_1)a et ceci pour tout a Ç D, donc xyx*1 € Z?', ce qui prouve que D' est distingué dans G. - Pour tout a Ç G, on note ipa : D —> G x »-> <p„(x) — axa-1. C'est un morphisme injectif, et D étant distingué dans G, <pa est une bijection de D sur D. Autrement dit, iptt est un automorphisme de D. Notons A' = {<pa, « € G}. C'est un sous groupe de A(D) pour la loi de composition. Soit / : G —► A' oh ipa. f est un morphisme de groupe surjectif. Par ailleurs, Ker f = {a Ç G,V:r 6 D, <pa(x) = x) = D', donc G/Ker / = G/D' est isomorphe à A', qui est un sous groupe de A(D). P) L'ordre de D étant un nombre premier, D est cyclique donc il existe xo € D tel que D —< x0 >. Pour tout entier p, m\p, on note <pp : D —► D r. »-+ xp. Comme D est abélien (car cyclique), ipp est un morphisme de groupe. Or si xp — e. alors x — e (sinon x est d'ordre m donc m | p, contradictoire). En d'autres termes, Ker ipp = {f.}. Le morphisme ipp est donc injectif, donc bijectif (<pp va de D dans D et D est fini). En résumé, on a montré que <pp Ç A(D). - Soit / : (Z/mZ)* — A(D) pt-><pp. f est bien une application (si p = q, alors m | (p — q) donc ^>p = ipq). f est un morphisme de groupe : ippq = ipp o ipq. f est injective. En effet, si p Ç Ker /, alors ipp =Ic1d donc ïrf, = z(i donc p = 1 (mod m). Ainsi, Ker/={1}. / est surjective. En effet. Soit <p Ç A(D). Alors il existe p, 1 < p < m — 1, tel que ^(zo) = ^o (car si <p(x0) — e alors Vifc, <p(xft) — e et <p n'est pas bijective). Soit y Ç D. Il existe q Ç Z, y = Zq, donc v?(y) = vW) = vK^o)' = *(!' = ïf- Donc V = Vp = /(?)- / est donc un isomorphisme, d'où le résultat. 2/ a) Soit pi l'ordre de Z(G). Supposons pj > 1. L'ensemble 2(G) est un sous groupe de G donc Pi I P? = Card(G) donc pi Ç {p, q) car G n'est pas abélien. Le centre de G est distingué dans G, et le groupe quotient G/Z(G) est d'ordre pq/pi, donc premier, donc cyclique. Soit a Ç G tel que à (la classe de a dans G/Z(G)) engendre G/Z(G). Si s € G, il existe un entier n tel que x = à", autrement dit il existe y Ç Z(G) tel que r. = j/a". On voit donc que r. commute avec a, et ceci pour tout x Ç G. Donc a 6 Z(G), donc, à = è, ce qui est absurde puisque à engendre G/Z(G) ^ {e}. Donc pi = 1. b) D'après le théorème 6 de la partie 2.4, il existe une famille finie de sous groupes stricts de G (Zf,-)jg/ telle que pq = Card(G) = Card(2(G)) + £ ^^. S'il n'existe aucun sous groupe de G d'ordre g, alors pour tout i, Card(Zf,-) = p (car Card(Zf,-) | pg, ■£ 1, ^ pg et ^ g). L'équation aux classes s'écrit donc, pg = 1 +gCard(7), donc 1 = g(p— Card(/)), absurde. Il existe donc au moins un sous groupe de G d'ordre g. c) Supposons qu'il existe deux sous groupes distincts K\ et K-2 d'ordre g. Alors K\ O K2 = {e} (car K\ n K2 est un sous groupe de K\, son cardinal divise donc g, donc vaut 1 ou g — car g est premier . Si son ordre est g, c'est que K\ = K-j). L'application / : K\ x K2 —* G (x\, x2) *-> X1X2 est donc injective (si :ei;e2 = 3/13/2. alors x-ï 13/i = a^î/.J1 Ç /li n K-j donc xf1^! = £23½1 = e)-
5. Sujets d'étude 43 Donc Card(G) > Card(/Ci x K-j) = q'2, absurde car p < g. Il n'y a donc qu'un seul sous groupe K d'ordre g. - Montrons que K est distingué dans G. Si x 6 A et si a 6 G, alors (aa:a_1)' = ax^a'1 = aea~l = e, donc axa~l est d'ordre g ou 1 (g est premier), donc axa~l Ç K d'après l'unicité d'un sous groupe d'ordre g. Le sous groupe A est donc distingué dans G. d) Le sous groupe K étant cyclique (car d'ordre g premier), il est commutatif. Donc K C A'. Or A' est un sous groupe de G, donc Card(A') \ pq. Or Card(A') > Card(A) = g > p > 1 donc Card(A') 6 {g,pg}- Si Card(A"') = pg, c'est que A' = G et en retournant à la définition de A', ceci entraîne A C -Z(G) = {e}, ce qui est absurde. Donc Card(A') = g, donc K = A''. - D'après 1/b), K' = A étant distingué dans G, G/K' est isomorphe à un sous groupe de A(K). Donc p = Card(G)/A divise Card(.4(A)). Or d'après 1/b)/?), .4(A") est isomorphe à (Z/gZ)*. Donc Card(.4(A)) = g - 1, donc p | g - 1. 3/ Comme p f g — 1, G est abélien d'après 2/. D'après la question a) du problème précédent, on peut donc trouver deux sous groupes H\ et H-2 de G d'ordre p et g. Les nombres p et g étant premiers, H\ et /f2 sont cycliques et donc il existe x Ç Hi d'ordre p et y € Hi d'ordre g. L'élément z = xy est alors d'ordre pq (si zm = e alors xm = y~m donc jrm? = e donc p | mg donc p | m d'après le théorème de Gauss ; de même g | m donc pg | m), donc G =< z > est cyclique. Remarque. Le résultat de cet exercice est un cas particulier du résultat suivant : Si G est un groupe fini d'ordre n et si n et <p(n) sont premiers entre eux (où <p désigne l'indicateur d'Euler), alors G est cyclique. 5. Sujets d'étude Sujet d'étude 1 (Théorème de Tchébycheff). Pour tout x e E, on note [x] sa partie entière. Si n > 2, on note V(n) l'ensemble des nombres premiers < n, et 7r(n) = Card(73(n)). Enfin, si n 6 N* et si p est premier, on note »>p(n) = sup{a 6 N | pa \ n} (valuation p-adique de n). 1/ Montrer (pie si n est un entier, n > 2, on a 4" Vïï<c-<4- 2/ a) Si A; € N*, montrer (7|t+1 < 4*. b) En déduire que pour n > 2, P„ = npe7>(n) < 4"- 3/ Montrer que si n > 14, x(n) < n/2 - 1. 4/ Si n 6 N et p est premier, montrer 5/ Soient p un nombre premier et r 6 N*. Si y/ | C'"„, montrer que pr < 2n. En déduire C?„ < (2nr(2">. 6/ Soit n > 2. Soit /> premier, 2n/3 < p < n. Montrer (pie p f C"„- 7/ Soit n > 2. On note T3 = 73(2n) \ V{n) et iî„ = npgP p. Si n > 98, montrer 4"/3 j= < Rn < (2n)*(2")—("). 2y/Ti(2n)V"/'2 8/ Si î; 6 E, a; > 7, montrer que 2* > 18a;. Si x > 5, montrer que 2X > 6a;. En déduire que n 7n
44 I. Arithmétique, Groupes et Anneaux si n e N, n > 450, Rn > 2n. 9/ a) Montrer que si n 6 N, n > 5, il existe au moins deux nombres premiers p tels que n < p < 2n. b) En déduire le théorème de Tchébycheff: Si n est un entier, n > 4, alors il existe au moins un nombre premier p vérifiant n < p < 2n — 2. Solution. 1/ D'après l'identité du binôme, 2n Montrons l'autre inégalité par récurrence. - Pour n = 2, c'est vrai car <7| = 6 > 42/(2\/2). - Supposons le résultat vrai pour n, montrons le pour n + 1. On écrit rn+i = f> + l 2(2n + l) _ 2n + l +1 °2"+2 n + 1 °2n>(n+1)2^ 2%/4n(n + 1)>/Ï + T ' et il suffit alors de voir que 4n(n + 1) < (2n + l)2 = 1 + 4n(n + 1). 2/ a) On écrit tout simplement u+i 2Ck2k+1 = Ck2k+1 + €$& < £ C2"t+1 = 22^1 = 2.4*. b) Procédons par récurrence sur n. - Pour n = 2 c'est vrai car P2 = 2 < 42. - Supposons le résultat vrai jusqu'au rang n — 1. Si n est pair, alors Pn — P„_i < 4"_1 < 4". Sinon n est impair. Soit k Ç N tel que r» = 2Jb + 1. Pour tout nombre premier p tel que k + 2 < p < 2ifc + l, p divise fc'C^.j = (ib + 1) - - -(2ifc + 1). Or pest premier avec iir!, donc d'après le théorème de Gauss, p | Ckk+l. Si N désigne le produit des nombres premiers p tels que iir + 2<p<2iir + l,ona donc N | Chk+V donc N < Chk+1 < 4*. Or Pk+l < 4*+1. Donc P2k+i = NPk+l < 4*4*+1 = 42*+1. 3/ On vérifie facilement que 7r(14) = 6 = 14/2 — 1. Supposons n > 15. Parmi 1,2,... , n, les [n/2] — 1 nombres pairs 4,6,..., 2[n/2] sont composés. Par ailleurs 1,9 et 15 ne sont pas premiers. On trouve donc, au moins ([n/2] — 1) + 3 = [n/2] + 2 nombres composés parmi 1,2... , n. Donc 7r(n) < n — ([n/2] + 2) < n — (n/2 + 1) = n/2 — 1. 4/ Si iir € N*, t;p(iir) s'interprète comme l'exposant de p dans la décomposition de iir en facteurs premiers. Donc vp(n\) = Ylk=i vp(^)- Le symbole de Kronecker défini par 6k = 1 si p' | k, Sk = 0 si p* | k, nous sera utile pour éclaircir notre discours. On a bien sûr t;p(iir) = YlTLi ^*> ^e sorte que n n / oc \ 00/n * = 1 * = 1 \i=l / i = l \* = 1 Pour tout i, Y^kz=i &k représente le nombre d'entiers k, \ < k < n tels que p' | iir. Ces entiers sont de la forme f.p' où / 6 N* et / < n/p', donc au nombre de [n/p*]. Donc vp(n\) = JZ^itn/p']. 5/ Si ar g E, les inégalités 2x - 1 < [2x] <2x et x - 1 < [x] < x entraînent -1 < \2x] - 2[x] < 2, t.t comme [2x] - 2[x] est entier, 0 < [2a;] - 2[x] < 1. Par ailleurs, pr | C"„ donc 00 / r < vP{Cqn) = vp[(2n)\] - 2vp(n\) = ^ 2n r.* -2
5. Sujets d'étude 45 Si pk > 2n, [2n/pk] = [n/pk] = 0 donc '<*«*.)=£ (fè]-2fe])<I> pl<2n VL/^ J L J/ p*<2n Si p1" > 2ra, ce dernier terme est < r, absurde. Donc pr < 2n. Donc cs.= n pmc"j< n (2")=(2")*(2b). PeP(2n) PeP(2n) 6/ On a 2n/p < 3 et n > p > 1, donc [2n/p] < 2 et [n/p] > 1. Donc 0 < [2n/p] - 2[n/p] < 2-2-1 = 0, donc [2n/p] - 2[n/p] = 0. - Ceci étant, si n > 5, pour tout entier k > 2 on a pk > 4n2/9 > 2n, donc [2n/p*] = [n/pk] = 0. Donc. *«*> ■ s ([?]-2 [?])=»• d'où le résultat si n > 5. par - Si n = 3 ou n = 4, on doit avoir p = 3. Or <7| = 20 et Cg = 70 ne sont pas divisibles par 3. On a donc le résultat pour tout n > 3. 7/ Il est clair que Rn=l[p< II(2") = ('2n)*W-*W. pêp peP - Comme pour 2/b), on voit, que Rn | <7"„. Soit Qn 6 N* tel que C%n = RnQn D'après 5/, si p est premier, n < p < 2n, on a p \ Qn. Donc tout nombre premier p divisant Qn vérifie p < n. D'après 6/, on a même p < 2n/3. Le produit des nombres premiers de Qn sera donc an plus égal à P[2n/3], donc inférieur à 42"/3. D'après 5/, l'exposant de p clans la décomposition de Q„ en facteurs premiers ne sera > 1 que si p < \fh~n. D'après 3/, comme y/2n > \/2 -98 = 14, ce nombre de facteurs premiers de Qn est inférieur à [\/2n]/2 — 1, donc strictement inférieur à y/2n/'2 = sfnfi. Le produit des puissances de ces nombres premiers divisant Qn sera donc au plus égal à (2n)vn'2, et finalement Q„ < 42"/3(2»)V^2 et comme RnQn = C"„, on tire de 1/ 4" 4»/3 •RnQn > 77-7= donC R» > 7= • 2V« 2v^(2n)\A/2 8/ La première partie de cette question se résout facilement en effectuant (par exemple) une étude de fonctions. Pour la seconde partie, on écrit que si n > 450, alors comme ■v/2n/6 > 5 on a donc 2»/3 _ ^,/2^/6^,/¾ > ^/^y/^ - (2„)\A72 (+) On a aussi 2n/9 > 7, donc 22"/9 > An donc 2"/3 > (4n)3^2 > 4ny/n (**). En combinant (*) et (**), on obtient 4"/3 . > 2"^3 > 4nxA, (2n)V"P d'où le résultat d'après 7/. 9/ a) D'après 8/ et 7/, si n > 450, on a ^n)'^")"'*") > iî„ > 2n, donc 7r(2n) - 7r(n) > 2. Il reste à vérifier le résultat pour 6 < n < 450. Les nombres premiers 7, 11, 13, 19, 23, 37, 43, 73, 83, 139, 163, 277, 317, 547, 631 suffisent à l'affirmer. b) Pour n = 4 c'est vrai (4 < 5 < 6) ainsi que pour n — 5 (5 < 7 < 8). Pour n > 6, il existe d'après /a) deux nombres premiers p tels que n < p < 2n, donc il en existe au moins un vérifiant n < p < 'In — 2.
46 I. Arithmétique, Groupes et Anneaux Remarque. Ce résultat fut conjecturé par J. Bertrand en 1845 et démontré pour la première fois par Tchébycheff en 1850. Sujet d'étude 2 (Symbole de Legendre et applications). Soit p > 2 un nombre premier. Pour alléger les notations, on note Fp le corps Z/pZet ;/ = (;?— 1)/2. Pour tout x 6 E, on note [x] sa partie entière. 1/ On note (F*p)2 = {x2, x e F*p}. Calculer Card((ffp2). 2/ Si x € Z,pf x, on note (-) = 1 si x € (Fp)2, (-) = -1 sinon (symbole de Legendre). a) Si p\ x, montrer que (-) = xp (mod p), puis montrer *.,„,,,,, (v)=(|)g)- b) Calculer (^-). 3/ Soit S = {i,2,... ,p'} et soit a € Z, p \ a. Si s € N, 1 < s < p1, on peut écrire as = e,(a)s„ avec e,(a) 6 { — 1,1} et s„ 6 S. a) Montrer que l'application / : S —*■ S s *-► ia est. bijective. b) Soit /ia = Card{a € 5, e,(o) = -1}. Montrer (j|) = (-!)"•. 4/ (Loi de réciprocité quadratique.) Soit q > 2 premier, g ^ /;. On note q' = (ç — 1)/2. a) On note P' r -, j r n ■V» - 2^, ~z ei ^.p ~ 2^ „ • Montrer que Sp<q + Sqp = p7?'. b) Montrer que SîiP = fiq (mod 2). c) En déduire la loi de réciprocité quadratique (?)©=<-»"• Application 1, 5/ a) (Un test de primalité.) Soient h et m deux entiers tels que m > 2 et 1 < h < 2m - 1. On pose n = h2m + 1. Soit p > 2 premier tel que (-) = -1. Montrer que n est premier si et seulement si j/"-1)/2 = —1 (mod n). b) (Un critère de primalité des nombres de Fermât.) On rappelle que les nombres de Fermât sont les nombres de la forme Fk = 22 + 1 où k 6 N* (voir 1.3 exercice 4). Montrer que Fk est premier si et seulement si 3^F*-1^2 = —1 (mod Fk). Application 2. 6/ a) Soit p > 3 un nombre premier. Montrer que —3 est un carré dans Fp si et seulement si p = 1 (mod 6). En déduire qu'il existe une infinité de nombres premiers de la forme 6n 4- 1. b) Soit p > 5 un nombre premier. Montrer que 5 est un carré dans Fp si et seulement si p = ±1 (mod 10). En déduire qu'il existe une infinité de nombres premiers de la forme lOn- 1, ne N. Solution. 1/ L'application <p : FÏ —*• (¥t)2 x ^ x2 est, un morphisme de groupe surjectif. Or x € Ker <p <=> x2 = i <=> (x - i)(x + i) = Ô <=> x € {-i, i}. Donc Card(Ker <p) = 2, donc Card((Fp)2) = Card(F;)/Card(Kerp) = (p- 1)/2 = j/.
5. Sujets d'étude 47 B q 1 1 Q R P c O p' P Figure 1.1. La diagonale OC sépare les points de OPQR en deux régions. 2/ a) Si x 6 (ffp2, alors il existe y Ç F£ tel que x = y'2 et donc xp' = yp-1 = i. L'équation xp' — 1 ayant au plus p' racines dans le corps IFJJ, comme Cardf (1F£)2 J = p' on en déduit l'équivalence (xp' = i) <£=> (x e (F;)2). Or si x € IF;, xp-1 = x2p' = i donc (x?' - i)(xP' + i) = Ô donc xp' € {-i, i}. Donc si r, $ (Fp)2, r/ = -i, d'où le résultat. On a donc (^) = (xyf = (x"')(/) = (£) (£) (mod p) et comme p > 2, on en déduit le résultat. b) D'après 2/a), (f-) = (-1)"' (mod p), et comme p > 2 et que (=1) g {-1,1}, (71) = (-l)p'- 3/ a) Remarquons que si s Ç S ,alors f(s) = e,(a)às. Ceci étant, / est injective. En effet, si /(s) = f(s'), alors e,(a)àà = esi(a)àsJ donc e,(a)s = e,<(a)i-', donc p divise ea(a)s — eai(a)s' = n. Or |n| < |js| + |s'| < 2p' < p, donc n = 0, ce qui prouve e,(a)s = e,i(a)s' et en passant aux valeurs absolues s = s'. L'application / est injective et comme le cardinal de l'ensemble de départ est égal a celui de l'ensemble d'arrivée, / est bijective. b) On écrit ( ni ) ( 1)=(1 ■ 2 ■ ■ -p') ■àpi=»(2«) ■ --^)=(11-)- ( n e»w \»es / ^p' \»gs / Vies Comme / est, bijective, Yises * = Yisçs e»(a)> e* ce terme étant non nul, on obtient (-)=11^^) = (-1^ (modp)' VP/ ;cç ies d'où le résultat. 4/ a) Nous allons établir la preuve à l'aide d'un dessin (voir la figure ci contre). Remarquons déjà que p et g étant premiers et distincts, ils sont premiers entre eux. Autrement dit, dans la figure, aucun point à coordonnées (i,j) entières (1 < « < p', 1 < j < q') ne rencontre la diagonale OC. Soit s Ç N, l < s < p'. [sq/p] représente le nombre de points à coordonnées entières, d'abscisse s, d'ordonnée > 0, se trouvant sous la diagonale OC. Le nombre 5?iP = J2s=1[*?/p] représente donc le nombre de points à coordonnées entières d'ordonnées > 0 dans le rectangle OPQR se trouvant sous la diagonale OC. Pour des raisons analogues, Sp<q représente le nombre de points à coordonnées entières d'abscisse > 0 dans le rectangle OPQRse trouvant an dessus de la diagonale OC. La somme 5Pl? + SÇiP est donc le nombre de points à coordonnées entières dans le rectangle OPQR d'abscisse et d'ordonnées > 0, c'est-à-dire Spg + Sq<v = p'q'. b) Si s 6 N, 1 < s < p', on peut écrire sq = p[sq/p] + u,, où 1 < us < p — 1. Par ailleurs : Si us < p', us = s, et es(q) = 1.
48 I. Arithmétique, Groupes et Anneaux Si us > p', us = p — sq et, e,(g) = —1. Comme et que, en travaillant modulo 2 »=i i<»<p' i<»<p' Yu'- 1Z s»+ 1Z (?-*»)= Yl s»+^»P+ 1Z s» (mod2), » = 1 «.(?)=! e,(j)=-l e.(j)=l e.(j)=-l ce qui s'écrit aussi p' p X) U» = X) S» + /'»P = X) S + W = ^7J " + (*1 (m°d 2) 5=1 S~l 5 = 1 on a g—^ = pSg,p + —^ i + /i, = Sg>p + - '- + fig (mod 2). Comme g = 1 (mod 2) ce résultat entraîne que 5?|P et /i? ont la même parité. c) D'après 4/b), 5?rP et p.q ont la même parité, de même que SPlq et /ip. Donc d'après 3/b) f^j (l\ = (_i)»«r(_i)*«. = (-1)^,.,+5,., _ (_!)?'»'_ cette dernière égalité provenant de 4/a). 5/ a) Condition nécessaire. Comme m > 2, n' = (n—1)/2 est pair, donc d'après la loi de réciprocité quadratique (î) = (;)-'■ ce qui d'après 2/a) entraîne p(" '^2 = —1 (mod n). Condition suffisante. Soit g un facteur premier de n (g ^ p car p A ra = 1). On a p(»-i)/2 = _i (mo(i g)] p»-i = 1 (mod g), p*"1 = 1 (mod g). Si tf est l'ordre de p dans (Z/gZ)*, on a donc r/f^i, d|(i»-l) et d\q-l, c'est-à-dire rft2m_1/t rf|2m/t et rf|(g-l). Donc 2m | d et 2m | (g - 1). Soit, x € N* tel que. g = 2mx + 1. Si r est tel que n = qr, de n = 1 = g (mod 2m) on tire r = 1 (mod 2m) donc il existe, y çN,r- 2my + 1. Donc n = qr = (2mx + l)(2mj/ + 1) = 22mxy + 2m(x + y) + 1 d'où on tire 2mxy < 2mr,y + x + y = h < 2m, donc y = 0, et donc n = g est premier. b) On veut appliquer le test précédent avec k = 1 et m = 2* > 2. Comme 2m = (—l)m = 1 (mod 3), on a n = 2 (mod 3) donc (j) = —1 comme on le vérifie facilement. Le test précédent s'applique donc (avec p=3), d'où le résultat. 6/ a) D'après la loi de réciprocité quadratique (;)(!)-<-'>■■" "- G) = <-'^(s) On a donc, en utilisant 2/a) et 2/b) (t)-(t)(ï)=<-^-^(î)-(I) <•»■
5. Sujets d'étude 49 Si p = 1 (mod 3), alors (§) = 1 ; si p = 2 (mod 3), alors (|) = -1. D'après (*), -3 est donc un carré dans Fp si et seulement si p = 1 (mod 3), autrement dit si et seulement si p = 1 + 3k avec k 6 N*, ou encore p = 1 + 6n avec n 6 N* car iir doit être pair. Supposons qu'il y ait un nombre fini de nombres premiers de la forme 1 + 6n. Nous les notons Pi, ■ ■ ,Pk- On pose N = l+223(pi - - Pk)2- Soit p un nombre premier divisant AT. Comme 6 | N — 1, on a p > 3. Par ailleurs -l = 223(pi---p*)2 (modp) donc - 3 = (2 ■ 3Pi ■ ■ -pk)2 (mod p), donc —3 est un carré dans Fp, donc p = 1 (mod 6), donc il existe i tel que p = pi. Mais alors p | N — 1, ce qui est absurde puisque p = p,- divise N. D'où le résultat. b) D'après la loi de réciprocité quadratique g) (0-(-1)^ = 1 -« (ï) = (ï) M- On vérifie facilement que les carrés dans F£ sont —1 et 1. D'après (**), 5 est donc un carré dans Fp si et seulement si p = ±1 (mod 5), c'est-à-dire p = ±1 + 5fc, k Ç N*, où encore p = ±1 + 10«, n 6 N* car k doit être pair pour que p soit premier. Supposons qu'il y ait un nombre fini de nombres premiers de la forme 10n— 1, n 6 N*. Nous les notons pi, ■ ■ ■ ,pk- Posons N = — 1 + 22325(pi ■ ■ pk)2- Soit p un nombre premier divisant N. Comme (2 ■ 3 • 5) | N + 1, p > 5. Par ailleurs, l = 22325(p1-p*)2 (modp) donc 5 = (2 ■ 3 ■ 5Pl ■ ■ -pk)2 (modp), donc 5 est un carré dans Fp. Donc p = ±1 (mod 10). Si p = —1 (mod 10), alors il existe j tel que p = p{ et donc p | N + 1, ce qui est absurde puisque p \ N. Nous venons donc de montrer que tout diviseur premier p de N vérifie p = 1 (mod 10), ce qui en écrivant la décomposition en facteurs premiers de N entraîne N = 1 (mod 10). Ceci est absurde puisque la forme de N entraîne N = — 1 (mod 10). Il y a donc une infinité de nombres premiers de la forme 10« — 1, n 6 N*. Remarque. On retrouve avec la question 2/b) le résultat 1/a) du problème 4 (page 37). Le résultat de 6/a) est un cas particulier de la question 2/ de ce même problème. - Les nombres de Fermât Fk sont premiers pour k < 4. On n'a jusqu'ici jamais trouvé d'autres nombres de Fermât premiers. Le test 5/b) a récemment été utilisé pour montrer que F20 n'est pas premier. Sujet d'étude 3 (Sur les entiers somme de deux carrés). Le but de ce sujet d'étude est de donner une condition nécessaire et suffisante sur n pour qu'un entier n soit somme de deux carrés. On note A2 = {x2 + y2, (x,y) € Z2}. On suppose connu le résultat 1/a) du problème 3 : Si p > 2 est premier, alors — i est un carré dans TLjpTL •£=> P=l (mod 4) (*). 1/ Si X et Y appartiennent à A2, montrer que XY 6 A-i- 2/ Soit p un nombre premier tel que p = 1 (mod 4). a) Montrer qu'il existe un entier m, 1 < m < p, tel que mp 6 A2- Soit mu la plus petite valeur de m non nulle telle (pie m^p 6 A2. Supposons mu > 1. b) Montrer qu'il existe deux entiers tfi et yx tels que x\ -f y\ = /^/71,,, avec mi un entier vérifiant 1 < mi < m„. c) Montrer (pi'il existe deux entiers X et Y tels que X'2 -\-Y2 = mxp. Conclure.
50 I. Arithmétique, Groupes et Anneaux 3/ Démontrer le résultat suivant : Un entier n > 0 est somme de deux carrés d'entiers si et seulement si tous les facteurs premiers de n de la forme 4m+ 3, m € N, ont un exposant pair dans la décomposition en facteurs premiers de n. Solution. 1/ Si X = x\ + x\ et Y = y\ + yf, il suffit de remarquer que XY — (x\X2 + yit/2)2 + (zit/2 ~x2yi)2. 2/ a) D'après (*), —1 est un carré dans Z/pZ. Autrement dit, il existe x Ç Z,tel que —1 = x2 (mod p). On peut même choisir x tel que 0 < x < p — 1. Comme x2 + 1 = 0 (mod p), il existe m 6 Z tel que x2 + 1 = mp, et comme 0<i <p-l,ona0<m<p, d'où le résultat. b) Par hypothèse, il existe x, y 6 Z tels que x2 + y2 = mup (**). Si ray divise x et y, alors m2, | (x2 + y2) donc mo | p, ce qui est absurde puisque 1 < mo < m < p. Donc ray ne divise pas x ou ne divise pas y. On en déduit qu'il existe (c, ri) 6 Z2 tels que *i = x — cm0 et y\ = y — dm0 vérifient l*il < 2m»' M ^ 2m" et xî + yî>0 (pour c et <i, il suffit de prendre les entiers les plus proches de x/m0 et y/m»). Or x\ = x (mod m(>) et yi = y (mod mo) donc x2 + y2 = x2 + y2 = 0 (mod m(>), et donc il existe rai ÇN tel que x2+y2 = rrurn,). Comme x\ + yf > 0, mj > 0. Par ailleurs, x2 + y2< (m0/2)2 +(m0/2)2 = ml/2 donc mj < m(). c) Multipliant (**) par l'égalité x2 + y2 = mimu, on obtient m2mip = (x2 + y2)(x2 + y2) = (xxl + yjn)2 + (xyx - xiy)2. Mais xxi+ yyi = x(x — cmu) + y(y — dmo) = maX avec X = p — ex — dy Ç.TL xVi — xiV = x(y — dmu) — y(x — emu) = m^Y avec Y = cy — dx € Z Donc mip = X2 + Y2 6 Ai- Or 1 < mi < m» ce qui est contraire à l'hypothèse de minimalité faite sur m». Donc m0 = 1, c'est-à-dire pg .42- 3/ Condition nécessaire. Soit p un facteur premier de n tel que son exposant dans la décomposition de n en facteurs premiers soit impair. Notons « = 2k + 1 (k Ç N) cet exposant. Soient x et y 6 Z tels que n = x2 + y2. Soit </ = pgcd(x-,y), soient X, Y Ç Z tels que x = dX, y = dY (X A Y = 1) , et soit /? l'exposant de p clans la décomposition de d en facteurs premiers. Comme ri = d2(X2 + Y2) = d2N avec N = X2 + Y2 e N, on a d2 \ n donc 20 < a = 2k + l donc /? < fc. L'exposant de N dans la décomposition de N en facteurs premiers est a — 2fi = 2(fc — /?) + 1 > 1, donc p\ N, donc X2 + Y2 = 0 (mod p). Or pf X (sinon p | X donc p | Y, absurde car X A Y = 1), X est donc non nul dans Z/pZ. Comme X2 + Y2 = Ô dans Z/pZ, on a -i = (X~lY)2 est un carré dans Z/pZ, donc p = 2 ou p = 1 (mod 4) d'après (*). D'où la condition nécessaire. Condition suffisante. Soient pi,... ,pt les facteurs premiers de 71 dont l'exposant dans la décomposition en facteurs premiers de 71 est impair. On voit que l'on peut écrire 71 = m2pi ■■■pie, où m € N*. Par hypothèse, pour tout 1 on a p; ^ 3 (mod 4), ce qui, les p,- étant premiers, entraîne Pi = 1 (mod 4) ou p, = 2. Donc p,- € .42 (d'après 2/ et parce que 2 = l2 + l2 € ^2)- Donc d'après l/i Pi ■ ■ Pk € ^2- Or m2 = m'2 + 02 G ^2, et toujours d'après 1/, 71 = (m2)(pi ■ ■ pt) € Ai- D'où le résultat. Remarque. Ce résultat fut complété par Jacobi qui montra que si di(n) (resp. d3(n)) désigne le nombre de diviseurs de n de la forme An -f 1 (resp. An -f 3), alors Card{(tf, y) e Z2, n = x'2 + 1/2} = A(dx(n) - d3(n)). Sujet d'étude 4 (Tout entier est somme de quatre carrés). Le but de ce sujet d'étude est de montrer que tout entier naturel est, somme de quatre carrés. On note
5. Sujets d'étude 51 A4 = {x2 + y2 + z2 +12, (x, y, z, t) e Z4} et Z[i] = {z +ty, (x, y) G Z2} (anneau des entiers de Gauss). 1/ Soient x,y,z et < des nombres complexes. Vérifier que (kl2 + \vVWV + \t\2) = \xz + ft\2 + \xt - yz\2. En déduire que si X et Y £ A4, alors XY G Aj. -^ 2) Soit p > 2 un nombre premier. a) Montrer qu'il existe x,y G Z tels que -1 = x2 -\- y2 (mod p). (On pourra utiliser le résultat de la question 1/ du sujet d'étude 2/). b) En déduire qu'il existe mGN,l<m<ptel que mp G Aa- Soit m0 le plus petit entier > 0 tel que m0p G A4- Supposons m0 > 1. c) Montrer que m„ est impair. d) Montrer qu'il existe x, y G Z[i] tel que m„p = 1^ + |r/|2. e) Montrer qu'il existe c et d G Z[i] tels que z = x — cmu et t = y — dm0 vérifient \z\2 -f |<|2 = mQm.i avec 1 < mj < mQ. f) En utilisant 1/, montrer que m^; G Aa- Conclure. 3/ En déduire le théorème de Lagrange : tout entier naturel est somme de quatre carrés d'entiers. Solution. 1/ Pour la première partie de la question, il suffit d'écrire \xz + yt\2 + \xt -yz\2 = (xz + yt)(xz + yt) + (xt - yz){xt - yz) = (|xz|2 + \yt\'2 + xzyi +xzyt) + (\xt\2 + \yz\2 - xtyz-xtyz) = M2 + \yt\2 + \xt\2 + \yz\2 = (\x\2 + \y\2)(\z\2 + |<|2). Maintenant, donnons nous X = x2 + x'j + x| + j\ et Y = y2 + y\ + y\ + y\ deux éléments de A\. Appliquons la relation précédente avec x = x\ + ix-2, y = X3 + ix.4, z — yi + »3/2 et t = y3 + iy4. On a X = \x\2 + \y\2 et Y = \z\2 + \t\2. Le carré du module d'un élément de Z[i] étant la somme de deux carrés d'entiers, on en déduit que XY = \xz + yt\2 + \xt — yz\2 est somme de quatre carrés d'entiers, d'où le résultat. 2/a) D'après la question 1/ du sujet d'étude '2, on a Card{x2, x € (Z/pZ)*} = (p - 1)/2. En comptant Ô, on voit donc que T = {x2, x € Z/pZ] a (p + 1)/2 éléments. De l'injectivité de l'application Z/pZ-> Z/pZ y •-► -1 - y, on voit que T' = {-1 - y2, y € Z/pZ} a aussi (p+ 1)/2 éléments. Donc mT ^ 0 (car si TnT' = 0, alors p- Card(Z/pZ) > Card(r) + Card(r') = p+1, absurde), ce qui entraîne l'existence de x, ;/ G Z/pZ tels que — 1 — y2 = x2, d'où le résultat. b) D'après la question précédente, il existe x,y G Z tels que —1 = x2 + y2 (mod p). On peut même supposer 0 < x < p et 0 < y < p, et quitte à changer x en p — x, y en p — y, supposer 0 < x < (p - 1)/2 et 0 < y < (p - 1)/2. Comme p | 1 + x2 + y2, il existe m G Z tel que 1 + x2 + y2 = mp. Donc 0 < mp < 1 + 2(^-)2 < p2, d'où 1 < m < p. c) Supposons m(i pair. Soient xi, x2, X3,146Z tels que mup = x2 + x\ + x| + £4- Comme m0 est pair, les éléments xi,X2,X3,X4 sont (i) soit tous pairs, (ii) soit tous impairs, (iii) soit deux d'entre eux sont pairs et deux sont impairs, et quitte à renuméroter, on peut supposer *i, X2 pairs et X3, X4 impairs. Dans tous les cas, les éléments Xl - X-2 Xl + X-2 X3 - X4 X3 +X4 2 ' 2 ' 2 ' 2 sont des entiers. Comme m0 fxi~r.2\ , fxi+x2\ /x3-x4\ ^3 + ^4^ "Fp=HH +{-r-) +{-2—) +{-^-) • l'hypothèse de minimalité de mu est contredite. Donc mu est impair.
52 I. Arithmétique, Groupes et Anneaux d) Si ïi,*2. *3.*4 € Zsont tels que m(>p = x'{ +X2+X3+X4, si x = xi+ix2 et y = 13 + 1x4 € Z[«], alors mop = |a:|2 + \y\2. e) Montrons auparavant le résultat suivant : VZ = a + ifceC, 3Z' €Z[«] tel que |Z-Z'|2<i. (*) Il suffit en effet de prendre Z' = a' + «'6' où a' et 6' sont des entiers tels que \a — a'\ < 1/2 et \b - b'\ < 1/2. On a alors \Z - Z'\2 = \a - a'\2 + \b - b'\2 < (1/2)2 + (1/2)2 = 1/2. D'après (*), il existe c € Z[i] tel que \x/mo — c\2 < 1/2. Autrement dit, si z = x — m0c, on a |z|2 < ml/2. Comme \z\2 est un entier et que m0 est impair, on a même |z|2 < ml/2. De même, il existe d e Z[i] tel que t = y- dma vérifie |*|2 < ml/2. Or |z|2 + |<|2 = |a:|2 + \y\2 - m0[(xc + xc) + (y<i + yd)] = ma(p — [(xc + ïc) + (yrf + yd)], donc mo divise |z|2 + |<|2. Soit mi € N tel que |z|2 + |i|2 = mim(). On tire des majorations de |z|2 et |i|2 que mi < mo. Par ailleurs mi > 0 car si mi = 0, alors z = < = 0 donc x = cm0 et j/ = f/m(| donc pm(> = |x|2 + \y\2 = |m(i|2(|c|2 + |<i|2), donc m0 | p ce qui est absurde car 1 < ma < p (d'après 2/a)). Donc 1 < mi < mo d'où le résultat. f ) En multipliant les égalités mQp = |x|2 + \y\2 et m^mi = |z|2 + |i|2, on obtient d'après 1/ mlmip = \xl + yt\2 + \ri - yz\2. (**) Or xz + yt = x(x — cm()) + y(y — dmu) = \x\2 + \y\2— mo(xc + yd) = maa où a = p—xc — yd £ Z[i]. Par ailleurs, xi — yz = —dmax + cm{)y = m()/? où fi = —dx + cy € Z[i]. D'après (**), on peut écrire mip = |or|2 + |/?|2, et comme le carré du module d'un élément de Z[«] est la somme de deux carrés d'entiers, mip e ,44. Ceci contredit l'hypothèse de minimalité faite sur mQ. On a donc. m0 = 1, c'est-à-dire p e ,44. 3/ D'après 2/, tout nombre premier p > 2 est somme de quatre carrés. Il en est de même de p = 2 = l2 + l2 +02 +02. Tout nombre premier est donc élément de A4- Si n est un entier, n peut s'écrire comme le produit de nombres premiers d'après le théorème fondamental de l'arithmétique, et donc, n € A4 d'après 1/. D'où le résultat. Remarque. Une question qui vient à l'esprit, est, de se demander si tous les entiers ne sont pas somme de trois carrés. Le cas de 7 montre que non. - On peut se poser le problème plus général suivant. Etant, donné un entier k > 2, que vaut g(k), le plus petit entier m > 0 tel que tout, entier est somme de m puissances fc-ème d'entiers, et que vaut, G{k), le plus petit entier m > 0 tel que tout, entier suffisamment grand est somme de m puissances fc-ème d'entiers ? La recherche (et l'existence) de g(k) et, G{k) s'appelle le problème de Waring. Nous venons de montrer que </(2) = 4. On peut montrer que G(2) = 4. On sait par exemple que </(3) = 9 et, 4 < G(3) < 7, 19 < #(4) < 22 et, G(4) = 16, g(5) = 37 et, G(5) < 23.
CHAPITRE II Corps, Polynômes et Fractions Rationnelles HISTORIQUEMENT, la recherche des solutions des équations polynomiales précède l'étude des polynômes. Elle marque l'entrée des mathématiques dans une nouvelle ère. En effet, la première en date des grandes découvertes en mathématiques allant nettement, au delà des connaissances de l'antiquité est la formule de résolution de l'équation du troisième degré r3 — pr = q obtenue sans doute au début du seizième siècle par Scipione del Ferro, professeur à l'université de Bologne. Cardan est le premier à rendre publique cette formule vers 1545. Vers 1540, Ferrari, élève de Cardan, obtient la formule de résolution de l'équation du quatrième degré. L'équation du cinquième degré tient cependant les mathématiciens en échec pendant 200 ans ; ce n'est qu'en 1826 qu'Abel démontre qu'il est impossible de donner des formules explicites de type de celles données pour les degrés inférieurs pour les solutions des équations de degré supérieur ou égal à 5. Quelques années plus tard, Galois donne un critère de résolubilité par radicaux de toutes les équations polynomiales. La théorie des polynômes est née. Parallèlement, on essaye de démontrer le théorème fondamental de l'Algèbre (tout polynôme complexe de degré, n a n racines complexe). On s'y attaque vers 1746, d'abord en essayant de donner une démonstration purement algébrique, avant de s'apercevoir qu'il fallait utiliser les propriétés topologiques de E. Lagrange en publia une démonstration dans ses mémoires en 1771. 1. Corps, polynômes et arithmétique dans K[X] 1.1. Corps DÉFINITION 1. Soit K un ensemble muni de deux lois internes "+" et "•". (K,+,•) est un corps si (i) (K, -f ) est un groupe a.bélien. (ii) (K*, •) est un groupe, (iii) La loi • est distributive par rapport a la loi -f. Remarque 1. — Si la loi • est commutative, on parle de corps commutatif. - Il revient au même de dire qu'un corps est un anneau dans lequel tout élément non nul est inversible. — Les corps les plus couramment rencontrés sont Q,M,Cet TLjpTL (p premier). DÉFINITION 2. Soit (L, -f, •) un corps et, K C L. On dit, que K est, un sous corps de L si la restriction à K des lois -f et, • lui confère une structure de corps (on dit aussi que L est un surcorps ou une extension de K). Remarque 2. Si K est, un sous corps commutatif de L, L est un K-espace vectoriel.
54 IL Corps, Polynômes et Fractions Rationnelles Avec la définition de la caractéristique d'un anneau donnée au chapitre I, section 3.2, définition 9 (page 30), on a : Proposition 1. La caractéristique d'un corps est 0 ou un nombre premier. Démonstration. Immédiat, d'après la proposition 3 de la partie 3.2 du chapitre 1 (page 30) car un corps est un anneau intègre. □ Exemple 1. Les corps, Q, E et C sont de caractéristique 0 ; si p est premier, le corps Z/pZ est de caractéristique p. Corps premier, sous corps premier. DÉFINITION 3. Un corps est dit premier s'il n'admet, pas d'autres sous corps que lui même. Exemple 2. Les corps Q, TLjpTL (p premier) sont premiers. DÉFINITION 4. Soit (K,+,-) un corps dont l'élément neutre de (K*, •) est noté e. — Si K est de caractéristique 0, alors Qi = { —, (n, m) G TL X Z*} est un corps premier isomorphe à Q. C'est le sous corps premier de K. — Si K est de caractéristique p premier, l'application / : Z —► K n >-+ ne est un morphisme d'anneaux et Ker / = pTL. Donc Z/Ker / = TLjpTL est isomorphe à K* = /(Z), donc K* est un corps premier. C'est le sous corps premier de K. Exemple 3. Le corps Q est le sous corps premier de E (ou de C). Le corps Z/pZest le sous corps premier de Z/pZ (p premier). 1.2. Polynômes DÉFINITION 5. Soit A un anneau commutatif unitaire. On appelle polynôme à une indéterminée, à coefficients dans A toute suite («„)„gw d'éléments de A tous nuls à partir d'un certain rang. Les polynômes sont munis des opérations usuelles d'addition et de produit de polynômes. On rappelle que tout polynôme P = (a,)jgN à une indéterminée à coefficients dans A s'écrit P = S,gN diX' où X désigne la suite X — (0,1,0, •• • , 0, • •• ). On appelle degré de P, noté deg(P), le plus grand indice i tel que «; ^ 0 (avec par convention deg(P) = — oo si P = 0). L'ensemble des polynômes à une indéterminée à coefficients dans A est noté A [A-]. C'est un anneau commutatif unitaire, intègre si A est un anneau intègre. Si A = K est un corps, K[A"] est un K-espace vectoriel. DÉFINITION 6. Soit A un anneau commutatif unitaire. — Deux polynômes P, Q £ A[X] sont dits associés s'il existe Aê^ inversible tel que P = \Q. — Un polynôme P G A[X] est dit unitaire si son coefficient dominant (z. e. le coefficient du monôme de plus haut degré de P) vaut 1.
1. Corps, polynômes et arithmétique duns K[X] 55 1.3. Arithmétique dans K[X] Dans toute cette section, K désigne un corps commutatif. Le caractère euclidien (donc principal) de l'anneau des polynômes K[A] lui confère une structure arithmétique tout-à-fait analogue à celle sur les entiers. Pour cette raison, nous ne passerons en revue que les propriétés arithmétiques de K[A] les plus importantes. Théorème 1 (Division euclidienne). Soie.nt A, B G KLX-], B ^ 0. Alors 3!(Ç, R) G K[A]2 tel que. A = BQ + R avec deg(R) < deg(5). Remarque 3. Si K = A est simplement un anneau commutatif unitaire, si le coefficient dominant de B est inversible, alors (3(Q,R.)eA[X]2), A = BQ + R avec deg(i?) < deg(5). Si de plus A est intègre, il y a unicité du couple (Q,R). (Pour s'assurer du bien fondé de cette remarque, reprendre la démonstration de la division euclidienne dans .4[A]). Ceci est en particulier vrai sur Z[A] si B est unitaire. Théorème 2. L'anneau K[X] est principal. Remarque 4. Attention ! Ce résultat est faux pour A[X] lorsque A n'est pas un corps (voir l'exercice 1). DÉFINITION 7. Soient P\,-- ,Pn n polynômes de E[X]. H existe un unique polynôme unitaire P engendrant l'idéal (Pi)H K-P«)- Ce polynôme s'appelle le pgcddes Pi, et on le note P = pgcd(Pi, • • • , Pn). C'est aussi le diviseur unitaire de plus haut degré divisant tous les P{. DÉFINITION 8. Des polynômes Pi, ■ ■ • , Pn G K[A] sont dits premiers entre eux dans leur ensemble si on a pgcd(Pi,-- ,Pn) = 1. Ils sont dits premiers entre eux deux à deux si V^j,pgcd(P;, ^)=1. La notion de ppcm se définit de la même manière, comme dans Z. THÉORÈME 3 (Bezout). Des jmlynômes Pi,... , Pn G K[X] sont premiers entre eux dans leur ensemble si et seulement s'il existe Ui,... , Un G K[A"] tels que. UiPi-\ \- UnPn = 1. Remarque 5. — Lorsque l'on a affaire à deux polynômes P et Q premiers entre eux, on peut même trouver U et V tels que deg(î/) < deg(Q) et deg(V) < deg(P) (voir la remarque de l'exercice 3, page 57). — Comme dans Z, il découle du théorème de Bezout le théorème de Gauss : Si P | QR et si pgcd (P,Q) = 1, alors P | R. Ce qui dans Z joue le rôle des nombres premiers est ici appelé polynôme irréductible. Plus précisément : DÉFINITION 9. Un polynôme P G K[X] est dit irréductible dans K[X] si P n'est pas constant (i. e. deg(P) > 1) et si ses seuls diviseurs dans K[A"] sont les constantes non nulles et les polynômes associés à P. Remarque 6. Attention. Un polynôme irréductible dans K[X] ne l'est pas forcément dans L[A"] où L est un surcorps de K. Par exemple, P = X2 -f 1 est irréductible dans M [A-], mais pas dans C[X] puisque P = (X - i)(X -f i). Comme dans Z, on a le résultat suivant.
56 II. Corps, Polynômes et Fractions Rationnelles THÉORÈME 4. Soit P G K[A"] un polynôme non nul. Alors P se décompose de manière unique, à l'ordre prés sous la forme. P = \P^-..P°k où A G K*, a,- G N' et les Pi sont des polynômes distincts, unitaires et irréductibles dans K[X]. Rappelons enfin le théorème de division selon les puissances croissantes. Théorème 5. Soient A,B G Kf-X-], le coefficient du terme constant de. B étant non nul. Soit k G N*. Alors (3!(QÈ,iît)el[I]2), A = BQk + Xk+1Rk avec deg(Rk) < k. Déterminer (Qk, Rk), c'est effectuer la division de. A par B selon les puissances croissantes à l'ordre k. 1.4. Exercices Exercice 1. Soit A un anneau commutatif unitaire intègre. Montrer que A est un corps si et seulement si A[X] est un anneau principal. Solution. La condition nécessaire est une question de cours. Montrons la condition suffisante. Soit a G A, a ^ 0. Il s'agit de montrer que a est inversible. Comme A[X] est principal, il existe P G A[X] tel que (a) + (X) = (P). Comme a G (P), il existe Q G A[X] tel que a = PQ. On en déduit, A[X] étant intègre, que P G A. Comme P G (a) + (X), il existe U et V G K[X] tels que ail + XV = P. Si b G A désigne le coefficient du terme constant de U, on en déduit ab = P puisque P est constant. Comme X G (P), il existe Q G A[X] tel que PQ = X. Si c G A désigne le coefficient du terme en X de Q, on a donc Pc = 1. Finalement, on a abc = Pc = 1, et A étant commutatif, a(bc) = (bc)a = 1 donc a est inversible. D'où le résultat. Exercice 2. Soient A = X" - 1 et B = Xh - 1 G K[X], avec a, b G N*. Quel est le pgcd de A et de B ? Solution. Nous allons trouver pgcd(j4, B) grâce à l'algorithme d'Euclide. Rappelons en le principe. On effectue à partir de A et B des divisions euclidiennes successives. On écrit A = BQ0 + R0 avec Q„, .R,, G K[X] et deg(i?») < deg(B), et on recommence, en divisant toujours le dividende par le reste : B = R(tQi + Ri avec Qi, i?i G K[X] et deg^x) < deg(iî(l). Au rang k, on fait Rk-i = RkQk+i + Rk+i avec Qk+i, Rk+i G K[X] et deg(i?t+1) < deg(iît). La suite (deg(i?t))tgN décroît strictement et doue il existe ?i G N* tel que Rn = 0 et Rn-\ ^ 0. On remarque alors que pgcd(j4, B) =pgcd(B, R{)) = ■ ■ ■ =pgcd(.R„_i, Rn), de sorte qu' a une constante multiplicative près, pgcd(j4, B) = Rn-i (cet algorithme reste valable dans Z). Avant d'appliquer l'algorithme, remarquons d'abord que si m > n G N* et si m = nq + r est la division euclidienne dans Z de m par n, on a Xm - 1 = (X" - l)(Xm~n + Xm~2n + ■■■ + Xm-i") + (Xm-i" - 1). Comme m — qn = r < m, cette égalité constitue la division euclidienne de Xm — 1 par X" — 1. Nous venons donc de montrer que
1. Corps, polynômes et arithmétique dans K[X] 57 le reste de la division euclidienne de Xm — 1 par X" — 1 est Xr — 1 oïl r est le. reste de la division euclidienne de m par n. (*) Appliquons l'algorithme d'Euclide (dans Z) à a et b : a = bq„ + r0, 0 < r0 < b, b = r„qi + n, 0 < ri < r„, nt-i = ntît+i + nt+i, 0 < rt+i < nt. On s'arrête au rang n lorsque r„ = 0 ^ r„_i. Comme pour les polynômes, on a pgcd(a,6) = pgcd(6,r0) = ■ • ■ = pgcd(r„_i, r„) = r„_i. D'après le principe (*), si les Rk désignent les polynômes introduits plus haut, on a R{> = Xr" l,Ri = Xr> - l,-- ,i?„_! = Xr»-> - l,Rn = 0. Donc pgcd(,4, B) = Rn-i = X*"-1 - 1 jj^pgcd(rt,6) _ j Exercice 3. Déterminer l'ensemble des polynômes P G M.[X] tels que P=l (mod(X-l)3) et P=-l (mod(X+l)3). Solution. Notons T cet ensemble. On a PGT^>3U,VGU[X],[Pp Z \++U^X~+%s BU, VGU[X], { l + F,Y_,U _ .,,,^^,,,3 P = 1 + U(X - l)3 Î/(X-1)3 = -l + v(X + l)3 En d'autres termes, T représente l'ensemble des polynômes de la forme 1 + U(X — l)3 où U appartient à l'ensemble {U € M.[X] | 3V € M.[X], U(X - l)3 + V(X + l)3 = 2}. (*) Divisant U et V par 2, on est ramené au problème suivant : Quels sont les couples (U, V) tels que U(X — l)3 + V(X + l)3 = 1 ? C'est une question classique qui rentre dans le cadre du résultat suivant. Lemme. Soient P, Q £ K[X], premiers entre eux. Alors il existe (î/(i, Vo) € K[X]2 tel que UqP + V0Q = 1, et l'ensemble des couples (U, V) vérifiant UP + VQ = 1 est T' = {(î/(1 + KQ, Va - KP), K€K[X]}. Preuve. L'existence de (î/(), V») est assurée par le théorème de Bezout. Maintenant, si UP+VQ = 1 on a (U - U0)P + (V- V„)Q = 0 donc (U - Ua)P = -(V - V„)Q (**). Donc P \ (V - V0)Q et comme P et Q sont premiers entre eux, d'après le théorème de Gauss, P \ V — Va. Donc il existe K £ K[X] tel que V — Vo — KP, et en remplaçant dans (**), on a U = U(\ + KQ. Réciproquement, on vérifie facilement (pie ce couple est solution. D'où le lemme. Les polynômes X — 1 et X + 1 étant premiers entre eux, il en est de même des polynômes P = (X — l)3 et Q = (X + l)3, et le lemme s'applique donc. Ceci étant, comment trouver Ua et Vo? Comme dans l'exercice précédent (et comme dans l'exercice 2 de la partie 1.3 du chapitre I — page 10), nous allons utiliser l'algorithme d'Euclide. Concrètement, cela donne : (X + l)3 = (X - l)3 + (GX'2 + 2), (X - l)3 = (GX2 + 2)(| - \) + (^X), 6^+2 = (^)(^) + 2.
58 II. Corps, Polynômes et Fractions Rationnelles Maintenant, on remonte. 2 = (6X* + 2) (X-l)3-(6X2 + 2)(|-i) 9„w„ .>, , rty! <J*) = (--X)(X-l)3 + (6X2 + 2) <*-£>!* + ' = (-£x)(X - l)3 + [(X + l)3 - (X - l)3] ^X2 - f X + 1) = (-jjx2 + lx + l)(X - l)3 + ^x2 - |x + l)(X + If. Si î/o = -fax2 + fax + \ et V0 = fax2 - faX + f, on a donc U0P + V0Q = 1. D'après le lemme et d'après (*), on a donc r = {1 + [2J7o + K(X + l)3](X - l)3, K G R[X]}, où Uo est défini plus haut. Remarque. On peut tirer du lemme un résultat analogue à celui de la question a) de l'exercice 2 de la partie 1.3 du chapitre I (page 10), qui ici s'exprime sous la forme suivante. Si P et Q G K[AT] sont premiers entn: eux, alors il existe un unique couple (U0,V0) G («[A-])2 tel que U0P + VaQ = 1 avec deg(î/0) < deg(Q) et deg(Vo) < deg(P). (Pour montrer ce résultat, partir d'une solution IIP 4- VQ = 1 puis effectuer la division euclidienne de U par Q ... ) Exercice 4 (Lemme de Gauss et critère d'Eisenstein). 1/ a) Soient P, Q e Z[X] et p un nombre premier. On suppose que p divise tous les coefficients du produit PQ. Montrer que p divise tous les coefficients de P ou tous les coefficients de Q. b) (Lemme de Gauss). Si P G Z[X], on note c(P) le pgcd des coefficients de P. Montrer que si P, Q e Z[X], alors c(PQ) = c(P)c(Q). 2/ Montrer que si $ G Z[X] est irréductible dans Z[X], il est irréductible dans Q[A"]. 3/ a) (Critère d'Eisenstein). Soit P = anX" + \- aLX + «0 G Z[X\. On suppose qu'il existe un nombre premier p tel que (i) VA;, 0 < k < n — 1, p \ a* («') p \ an (in) p2 f a0. Montrer que P est irréductible dans Q[A"]. b) Application. Soit p un nombre premier et $(X) = Xp~x -f \- X -f 1. Montrer que $ est irréductible dans Q[A"]. Solution. 1/ a) Si a € Z, on note a sa classe dans Z/pZ. Si P = anX" + ■ ■ ■ + a\X + <io G Z[X], on note P = «^"X" + ■ ■ ■ + 57X + ô» G Z/pZ[X]. Si p divise tous les coefficients de PQ, on a, avec ces notations : PQ = P ■ Q = 0. Comme Z/pZ est intègre, Z/pZ[X] est intègre. Donc P — 0 ou Q = 0, d'où le résultat. Remarque : on peut également résoudre cette question "à la main", sans passer par Z/pZ (mais c'est tellement plus élégant comme on l'a fait). b) Soient P, Q G Z[X]. Il est clair que Px = ^P et Qx = ^Q G Z[X], et on a c{Px) = c(Qi) = 1- Si c(PiQi) > 1, alors il existe un nombre premier p divisant c(PiQi). D'après 1/a), on a donc p | c{P\) ou p | c{Q\), ce qui est absurde. Donc c(PiQi) = 1, ce qui entraîne c(PQ) — ¢(^)^)^^) = c(P)c(Q). 2/ Supposons $ réductible dans Q[X]. Il existe P,Q G Q[X] tels que $ = PQ avec 1 < deg(P) et 1 < deg(Q). Soient a,0 G N* tels que PL = «P et QL = ftQ G Z[X]. On a <*/?$ = PxQx donc
2. Fonction polynôme, racines d'un polynôme. 59 a/3 ■ c($) = c(Pi)c(Qi) d'après le lemme de Gauss. Posons Pi = -^rppjPi et Q2 = i vQi. Ces polynômes sont à coefficients entiers. Par ailleurs, <*/?$ = c(Pi)c(Qi)P2<32 = «/? ■ c($)P2<32- Si P3 = c($)P2, on a donc $ = P3Q2 avec P3, Q2 G Z[X] et 1 < deg(P3), 1 < deg(Q2). Ainsi, le polynôme $ est réductible dans Z[X], ce qui est absurde. Finalement, $ est irréductible dans Q[X]. 3/ a) Supposons P réductible dans Q[X]. D'après la question précédente, $ est réductible dans Z[X] et donc il existe Q, R G Z[X] tels que P = QR, avec « = deg(Q) > 1 et b = deg(iî) > 1. Dans Z/pZ, on a, d'après les hypothèses, P = â^Xn. Ecrivons Q = Yli=oJ>X' et R = £2;_0 r;X'. Dans Z/pZ[X], on a. P = QR donc ô^X" = <JR, donc Q = p" et iî = rjX6. Ceci entraîne gô~ = rj = 0, donc p | go et p | r0, donc p2 | q0ro = «Oj ce qui est contraire aux hypothèses. Finalement, P est irréductible dans Q[X]. b) On aimerait bien utiliser le critère d'Eisenstein, mais comment faire? Il suffit de considérer $(X + 1). On a (X - 1)$(X) = XV - 1 donc X$(X + 1) = (X + If - 1, d'où on tire $(X + 1) = £X***-1- Il est maintenant facile de vérifier que $(X + 1) satisfait les hypothèses du critère d'Eisenstein avec le nombre premier p (rappelons que si p est premier et si 1 < k < p — 1, alors p | C*), donc $(X + 1) est irréductible clans Q[X]. Donc $(X) est irréductible dans Q[X]. Remarque. Le résultat 3/ b) est un cas particulier d'un résultat général concernant les polynômes cyclotomiques (voir le problème 9, page 92). 2. Fonction polynôme, racines d'un polynôme Dans toute cette section, K désigne un corps commutatif. 2.1. Fonction polynôme Soit A une K-algèbre (rappelons qu'une K-algèbre est un K-espace vectoriel muni d'un produit interne — noté ici multiplicativement — faisant de A un anneau et tel que si A G K, et x, y G A, alors X(xy) = (Xx)y = x(\y)) non nécessairement commutative (typiquement A = K, A = K[X] ou A = Mn(K)). Pour tout F = «,„ + uxX + • • •+ anXn G K[X], on note F l'application n F : A —>■ A x *-* y^jijx'. 1 = 0 - Si F, G G K[X], on a F + G = F + G et FG = FG. - Si 4_= K[X], on note F o G = F(G). Pour toute K-algèbre A, on a alors F o G = FoG. Remarque 1. Lorsqu'il n'y aura aucune ambiguïté, la fonction polynôme x *-* F(x) sera notée x p-v F(x). 2.2. Racines d'un polynôme DÉFINITION 1. Soit F G K[X] et L une extension de K. On dit que a G L est une racine. (ou un zéro) de F si F(a) = 0. PROPOSITION 1. Soit a G K et F G K[A"]. L'élément a est une. racine, de. F si et seulement si X — a divise. F.
60 II. Corps, Polynômes et Fractions Rationnelles DÉFINITION 2. Soit F G K[A"], a G K et h G N*. On dit que a est une racine d'ordre h de Fsi(X - a)h \F et(X- a)h+1 f F. Proposition 2. Soz'< F G K[A"] e< al5... , ar G K des racines de F d'ordre hx,... ,hr (les a,- étant deux à deux distincts). Alors il existe Q G K[A"] tel que F(X) = (X-al)h>---(X-ar)h'Q(X) et Vi, Q(ai) ± 0. Conséquence. Si -F G K[A"] est de degré n > 1, alors J1 a au plus n racines (comptées avec leur ordre de multiplicité). Remarque 2. Attention ! La proposition précédente est fausse lorsque l'on remplace le corps K par un anneau. Par exemple, dans Z/8Z, le polynôme F = AX G Z/8Z[X] a 3 racines Ô, 2 et 4, mais deg(.F) = 1. PROPOSITION 3. Soit F G K[X] tel que pour tout x G K, F(x) = 0. Si K est infini, on a F = 0. Remarque 3. Si K est fini, le résultat précédent est faux. Par exemple, si on note ai,... ,an les éléments de K, le polynôme F = (X — ai) • • -(X — «„) est non nul et pourtant tous les éléments x de K vérifient P(x) = 0. Il ne faut donc pas confondre polynôme et fonction polynôme. Par contre, si K est infini, la proposition précédente nous dit qu'il y a bijection entre K[A"] et les fonctions polynôme de K dans K. DÉFINITION 3. Un polynôme F G K[A"] est dit scindé (on dissocié) sur K si on peut écrire F = \(X-al)hl---(X-ar)hr avec A G K et pour tout z, a,- G K et /i,- G N*. Remarque 4. Deux polynômes F et G de K[A"] scindés sur K sont premiers entre eux si et seulement s'ils n'ont aucune racine commune. Théorème 1 (Relations entre coefficients et racines). Soit un polynôme P = a{) X" -f ai X"~l -f • • • 4- a„_i X -f a„ G K[A"] avec a„ ^ 0, scindé, sur K : P = a0(X — x,i) ■ ■ -(X — xn). Alors pour tout p, 1 < p < n, *P= £ ^---^ = (-1)^- l<t,<"<t,<n "" En particulier n n vi = Yl,Xi = —L' a* = YL xixi = -,^= T[xi = (-1)"—- 2.3. Dérivation dans K[X] DÉFINITION 4. Soit F = </,„ + a,A" H \- anXn G K[A"]. On appelle polynôme, dérivé de F le polynôme f = a, + 2a.^ + • • • ««„*"-'. Remarque 5. — Si J1 est constant, F' = 0. La réciproque est vraie si K est de caractéristique 0, fausse en caractéristique non nulle (par exemple si F = X2 -f 1 G Z/2Z[X], on a F' = 2X = 0 et pourtant F n'est pas une constante). — Les règles de dérivations de somme, produit et, composée pour les polynômes sont identiques aux règles de dérivations usuelles sur les fonctions dérivables. D'ailleurs, sur K[A], la fonction polynôme dérivé coïncide avec la dérivée de la fonction polynôme.
2. Fonction polynôme, racines d'un polynôme 61 Théorème 2 (Formule de Taylor). Si le corps K est de caractéristique nulle, tout polynôme F de K[X] de degré inférieur ou égal à n vérifie Va G K, F(X) = F(a) + ^-^'(a) + • • • + (*~a)V">(a). I! ni On en déduit Théorème 3. Si le corps K est de caractéiistique 0, et si F G K[A"], F ^ 0, alors a G K est racine d'ordre h de F si et seulement si (i) Vt, 0 < i < h - 1, F^(a) = 0 (u) i**>(a) ^ 0. Remarque 6. — Le cas de F = X3 G Z/3Z[A"] et a = Ô montre que ceci est faux en caractéristique non nulle (a est racine d'ordre 3 de F et pourtant F(3\a) = 0). — Le résultat du théorème reste vrai en caractéristique quelconque pour caractériser les racines simples. Plus précisément, on a le résultat suivant. Si F G K[A"], F ^ 0, et si a G K, alors a est racine simple de F si et seulement si F(a) = 0 et F'(a) ^ 0. En effet. Si F = (X - a)G, alors F' = G + (X - a)G' donc F'(a) = G(a) et on en déduit facilement le résultat. 2.4. Polynômes d'interpolation de Lagrange Soient a1?... ,a„ G K, deux à deux distincts, et, b\,...,bn G K. Nous allons prouver qu'il existe un unique polynôme F G K[A"], deg(J') < n — 1, tel que Vi, F(a{) = bt. — Existence. Pour 1 < i < n, on pose F _ (X - ai) • • -(X - aj-i)(X - ai+l) ■ ■ -(X - a„) («i - ai) • • •(«< - «i-i)(«i - «i+i) • • -(a.' - an) (les polynômes Fi s'appellent, des polynômes d'interpolation de Lagrange). On a Fi(ai) = 1 et pour tout j ^ i, Ft(aj) = 0. Si F = J27=i kFi, on a alors F(ai) = biFi(ai) = bi pour tout i et comme deg(F) < n — 1, F convient. — Unicité. Supposons que F et G conviennent. On pose H = F — G. Pour tout t, 1 < i < n, on a H(at) = F(<ii) — G(a;) = 6,- — fej = 0. Le polynôme H a donc au moins n racines. Or deg(if) < n — 1, donc d'après la conséquence de la proposition 2, H = 0, c'est-à-dire F = G. Remarque 7. Nous allons donner une autre expression de F, souvent utile dans la pratique. Posons $ = (X — ai)- • -(X — «„) et pour tout i, 1 < i < n, $^ le polynôme tel que $ = (X - a,-)$,-. Par dérivation, on obtient $' = $j + (A" - «,)$'; et donc $'(<!;) = $i(<J;), d'où on tire 2.5. L'anneau quotient K[X]/(P) Notation. — Si P G K[A], on rappelle que (P) désigne l'idéal (P) = {PQ, Q G K[X]}. — Si A, B e K[X], on note A = B (inod P) lorsque A- B e (P). Soit P G K[X], P ^ 0. Comme (P) est, un idéal de K[X], le quotient K[X]/(P) définit une structure d'anneau (voir la partie 3.2 du chapitre I). Si A G K[A"], la classe de A dans ¥[X]/(P) est À = A + (P) = {A + PQ, Q G K[X]}. On a par ailleurs À = B <=* A = B (mal P) <=» P | (B - A).
62 II. Corps, Polynômes et Fractions Rationnelles THÉORÈME 4. Soit P e K[X], deg(P) > 1. Alors K[X]/(P) est une K-algèbre de dimension finie n = deg(P). Si on note x = X, la famille (1,1,... , xn~l) en est une base. Démonstration. L'anneau quotient K[X]/(P) est évidemment une K-algèbre. Montrons que la famille (1, x,... , x"~l) en est une base. - C'est une famille génératrice. En effet. Soit A 6 Kpfj. Il existe Q, R 6 K[X] tels que A = PQ+ R avec deg(iî) < n = deg(P). Donc À = Rç Vect(l, x,... , x"'1). - C'est une famille libre. Si a(> + <i\x + ■ • ■ + an-ixn~l = 0 , alors le polynôme .A = a0 + <i\X + ■ ■ ■ + On-iX"-1 vérifie A = 0. Donc P \ A, et comme deg(-A) < deg(P), on a A = 0, donc do = a\ = ... = (in-\ = 0. □ PROPOSITION 4. Soit P e K[A"], deg(P) > 1. L'anneau K[A"]/(P) est un corps si et seulement si P est irréductible. Démonstration. Condition nécessaire. Si P est réductible, alors il existe Q et R Ç K[X] tels que P = Qiî, avec 1 < deg(Q) < deg(P) et 1 < deg(iî) < deg(P). Donc 6 = QR avec Q ^ Ô et R ^ 6, ce qui est absurde puisque K[X]/(P) est un corps par hypothèse. Donc P est irréductible. Condition suffisante. Supposons P irréductible. Soit A 6 K[X], A ^ 0. Le polynôme P ne divise pas A et P étant irréductible, P et ^4 sont premiers entre eux. D'après le théorème de Bezout, il existe U, V 6 K[X] tels que UP + V.A = 1, d'où VA = 1. Donc A est inversible, et ceci dès que À ii 6. Finalement, K[X]/(P) est un corps. □ Remarque 8. Noter l'analogie de ce résultat avec celui du chapitre I, partie 1.2, proposition 10 — page 9 (c'est normal, les propriétés arithmétiques de Z et de K[X] sont semblables.) 2.6. Corps des racines d'un polynôme Toutes les extensions de corps considérées dans cette sous partie seront commutatives. Notation. Si Lest une extension de corps de K, pour tout j4CLon note K(A) le plus petit sous corps de L contenant K et A (il existe, c'est l'intersection des sous corps de L contenant K et A). Lorsque A = {al7 • • • , «„} est fini, on note souvent K(A) = K(ax,... , a„) pour alléger les notations. Remarque 9. Si A et B sont deux parties de L, on a facilement K(A){B) = K{A U B). PROPOSITION 5. Soit P e K[X] irréductible dans K[A"]. Il existe une extension Lèl telle que P admette une racine x dans L. Démonstration. D'après la proposition 4, L = K[X]/(P) est un corps. L'injection canonique <p : K —>■ L a *-* à (c'est une injection car deg(P) > 1) permet d'identifier les éléments de K et de ^(K). Ainsi, L apparaît comme une extension de K. En posant x = X Ç L, on voit que P(x) = P = 0. □ THÉORÈME 5. Soit F e K[X], deg(.F) > 1. Alors il existe une extension L de K sur laquelle le polynôme F soit scindé. Démonstration. Nous allons procéder par récurrence sur n = deg(F). Pour n = 1, c'est évident. Supposons le résultat vrai jusqu'à n — 1 et montrons le pour n. Soit G un facteur irréductible de F, et H tel que F = GH. D'après la proposition précédente, il exist.e une extension Li de K dans laquelle G admette une racine ai. On peut, écrire G = (X — a\)Gi avec G\ 6 L^X], et donc F = (X — ni)F\ avec Fi = G\H 6 LjX]. Comme deg(Fi) = n— 1, il existe d'après l'hypothèse de récurrence une extension L de L.! telle que F\ soit scindé sur L. Dans L[X], F est donc scindé. □
2. Fonction polynôme, mânes d'un polynôme 63 Remarque 10. Une telle extension L de K dans laquelle F soit scindé s'appelle un corps de dissociation de F. Dans ce corps, on peut écrire F=\(X-al)---(X-an) où A € K et où les a< sont, dans L. Le corps Li = K^,... ,a„) est le plus petit sous corps de L sur lequel F soit scindé. On peut montrer que Li ainsi défini est unique à un isomorphisme près (l'unicité n'est pas immédiate car il n'y a pas unicité du corps de dissociation L). On l'appelle corps des racines du polynôme F. DÉFINITION 5. Un corps K est dit algébriquement clos si tout polynôme de K[A"] de degré > 1 a au moins une racine dans K. Remarque 11. Une récurrence immédiate sur le degré montre que si K est un corps algébriquement clos, tout polynôme de K[X] est scindé sur K. - On peut montrer que tout corps K admet une extension L algébriquement close (théorème de Steinitz). La plus petite extension L vérifiant cette propriété est unique à un isomorphisme près, et on l'appelle clôture algébrique de K. Nous ne démontrerons pas ce résultat. On a cependant le résultat suivant. Théorème 6 (Théorème fondamental de l'algèbre). Le corps C des nombres complexes est algébriquement clos. Remarque 12. Ce théorème est démontré au problème 4 (page 86) par deux méthodes différentes. - Le théorème fondamental de l'algèbre entraîne que lès polynômes irréductibles de C[A"] sont de degré 1. On montre que les polynômes irréductibles de R[X] sont les polynômes de degré 1 et les polynômes de la forme aX2 + bX + c avec b2 — 4ac < 0. 2.7. Exercices Exercice 1. Montrer qu'un corps fini n'est pas algébriquement clos. Solution. Soit K = {«i,... , a„} un corps fini. Le polynôme P — 1 + (X — ax) ■ ■ ■ (X — a„) 6 K[X] vérifie P{<i%) = 1 pour tout i. Donc. P n'a pas de racine dans K, et K n'est pas algébriquement clos. Exercice 2. a) Si n e N, n > 2, factoriser P„ = (X + 1)" - (X - 1)" dans C[X]. b) En déduire pour tout p 6 N* la valeur de Vcot2(—— ) et, TTcotf—^r). Solution, a) Il s'agit de trouver les racines de Pn. On écrit P„(z) = 0 *=> (*+l)" = (*-l)" *=> (~\) =1 <=> 3k, 0<k<n- 1, ^—j^ = e2ik*'' z+ 1
64 II. Corps, Polynômes et Fractions Rationnelles Le cas iir = 0 est à exclure car on ne peut pas avoir ^rj = 1. Si 1 < Jb < r» — 1, l'équation _ e2tk*/n s'^crj| aussi z — = ——; = —icot [ — 1. Finalement, on z J e2«*ir/n _ J gtkit/n g—«jfcir/n V __ / ' a P„(z) = 0 <£=> 3fc, 1 < fc<n- 1 | z = -i'cot(—j. On a trouvé n — 1 racines distinctes de Pn. Le monôme de plus haut degré de P„ étant 2nXn~l, P„ est de degré n — 1 et n-lr /t \" P„ = 2nJJ X + «cot(—j . b) Posons 5 = >J cot2 I j. La relation de symétrie V 2P+i y \2p+ij permet d'affirmer que 5 = S2/2 où S2 = > cot2 ( ). Notons U). = —i cot [ ) les racines de P2P+i- Comme P2P+i(X) = 2(2p+ 1)X2" + 2C^+1X*-2 + ■ ■ ■ les relations entre coefficients et racines montrent que 2p <73 <ri = £ u* = 0 et <r2 = Yl «*«' = 2¾- = !<*«<2p _ £Vm _ P(2p-1) 3 Donc 6 - 262 - ~2 2^u* ~ ""2' l ~ ' ~ 3 ' Par ailleurs, le terme constant de i^p+i est 2. Son coefficient dominant étant 2(2p+ 1), on a " / 1. \ r 2" / l \i1/2 r2" i1/2 1 V5pTT' Exercice 3. a) Montrer que pour tout n é N, n > 2, le polynôme p" = 1 + hx+kx2+-+hx" n'a que des racines simples dans C. b) Montrer que pour tout n > 2, le polynôme Pn = X" — X +1 n'a que des racines simples dans C. Solution, a) Supposons que Pn ait une racine multiple z(> 6 C. Alors Pn(zo) = P^(zo) = 0 et comme P'n = Pn-\, on a P„_i(z,>) = 0, donc z^/n\ = (Pn - P„_i)(z0) = 0 d'où z0 = 0. Ceci entraîne P„(z0) = Pn(ii) = 1 ^ 0, ce qui est absurde. Le polynôme P„ n'a donc que des racines simples dans C.
2. Fonction polynôme, racines d'un polynôme 65 b) Supposons que P„ ait une racine multiple z(> Ç C. Alors P„(z(>) = P^(zo) = 0, c'est-à-dire z£ - z0 + 1 = nz""' -1=0. Donc z(? - z0 + 1 = 0 et z,f = z0/n, d'où z0(l/n - 1) + 1 = 0, c'est-à-dire z0 = n/(n — 1). Ceci entraîne p^Zo) = nzrl-l = n(-^-[) -l>n-l>0, ce qui est absurde. Le polynôme Pn n'a donc que des racines simples dans C. Exercice 4. 1/ Soit P e Q[X] irréductible dans <Q[X], Montrer que P n'a que des racines simples dans C. 2/ (Deux applications) a) Soit P e Q[X] un polynôme ayant une racine A 6 C d'ordre de multiplicité fi > deg(P)/2. Montrer que A € Q. b) Soit P 6 Q[A"], deg(P) = 2n + 1 avec n 6 N", tel que P admette une racine d'ordre n. Si n > 2, montrer que P admet une racine dans Q. Solution. 1/ Il suffit de montrer d'après le théorème 3 que P et P' n'ont aucune racine commune, ce qui équivaut (voir la remarque 4) à montrer que P et P' sont premiers entre eux dans C[X], ce qui n'est qu'un cas particulier du résultat plus général suivant (d'ailleurs utile!). LeMME. Soit K *n corps comrnutatif, L *n surcorps commiitatif de K. Soient P et Q € K[X] deux polynômes premiers entre eux dans K[X]. Alors P et Q sont premiers entre eux dans L,[X]. En effet, cela provient de l'égalité de Bezout. Il existe U et V € K[X] tel que UP + VQ = 1, égalité qui reste évidemment vraie dans h[X], d'où le lemme. Maintenant le polynôme P étant irréductible dans Q[X], P et P' sont premiers entre eux dans Q[X] (car deg(P') < deg(P)) donc dans C[X] d'après le lemme précédent. 2/ a) Soit P = aPi-Pk la décomposition de P en facteurs irréductibles de Q[X]. Parmi Pi, ■ ■ ■ , Pk, il y a r polynômes dont A soit racine, par exemple P\,... , Pr. Si A £ Q, comme P\, ■ ■ ■ ,Pr sont à coefficients rationnels, on a deg(P^) > 2 pour 1 < « < r. Or d'après 1/, les P,- étant irréductibles, A est racine simple de P,- pour 1 < i < r. Donc /i = r. Donc * r deg(P) = £deg(P,-) > £deg(P,-) >'2r = 2p, «=i «=i ■ ce qui est contraire aux hypothèses car /i > deg(P)/2. On a donc forcément A Ç Q. c) Par hypothèse, il existe une racine A 6 C d'ordre n de P. Supposons que P n'ait aucune racine dans Q. Alors dans la factorisation de P en facteurs irréductibles de Q[X], P = aP\ ■ ■ ■ Pk, on a deg(P,) > 2 pour tout «'. Parmi Plt... , Pt, il y a r polynômes dont A soit racine, par exemple Plt... , Pr. D'après 1/, les Pi étant irréductibles, A est racine simple de P,- pour 1 < i: < r. Donc r = n. - On a. k = n. En effet. Si k > n, alors * n 2n + 1 = deg(P) = ^deg(P) > £deg(P,-) > 2n, t=i «=i donc k n deg(Pt) < ^deg(P) - ^deg(P) < (2n + 1) - 2n = 1, ce qui est absurde car on a vu deg(Pt) > 2. - Donc. P = aP\ ■ ■ ■ P„. Le degré de P étant impair, il existe un polynôme P,- de degré impair, par exemple deg^) impair. Comme de plus deg(Pi) > 2, on a deg^) > 3.
66 II. Corps, Polynômes et Fractions Rationnelles - Il existe un polynôme Pi de degré 2 (sinon pour tout «', deg(Pj) > 3 donc 2n + 1 = deg(P) = 527=1 deg(.Pi) > 3n, absurde car n > 2), par exemple deg(P2) = 2. Effectuons la division euclidienne de Pi par P2 ■ Pi = QPi + R, avec R € <Q[X] et deg(iî) < deg(P2) = 2. On a R ^ 0 car P, est irréductible et deg(P,) > deg(P2). Or A est racine de R (car P,(A) = 0 = Q(A)P2(A) + R(X) = R(X)), donc comme R ^ 0 et deg(iî) < 1, on en déduit A 6 Q, ce qui est contradictoire. Le polynôme P admet donc au moins une racine rationnelle. Remarque. Si n = 1, le résultat 2/b) est faux (prendre par exemple P = A"3 — 2). Exercice 5. Déterminer les polynômes P non constant de C[X] vérifiant P(X2) = P(X)P(X + 1). (*) Solution. Soit P 6 C[X] vérifiant (*) avec. deg(P) > 1. Soit a une racine de P. Comme P(at2) = P{a)P{a + 1) = 0, a2 est une racine de P. En itérant le procédé, on voit que a2, a4,... , a2 ,... sont des racines de P. Le polynôme P n'ayant qu'un nombre fini de racines, on doit avoir a = 0 ou \a\ = 1. (**) D'après (*), P[(a - l)2] = P(a - l)P(a) = 0, donc (a - l)2 est une racine de P. D'après (**), on doit avoir \(a — 1)2| = 0 ou \(a — 1)2| = 1, c'est-à-dire a = 1 ou |o—1|=1. (***) D'après (**) et (***), on a soit (i) a = 0, soit (ii) a = 1, soit (iii) |o — 1| = |or| = 1. On vérifie facilement que la condition (iii) s'écrit aussi a = 1 + j ou a = 1 + j2 où j = exp(2iV/3). Or (a — l)2 est une racine de P donc d'après (**), \(a — l)2 — 1| 6 {0,1}, et comme \j2 — 1| > 1 et I0'2)2 — l| = |j— 1| > 1, on voit que les solutions (iii) ne conviennent pas. Nécessairement, on a donc, a 6 {0,1}. Ainsi, le polynôme P est de la forme P = \XP(X — Vf, A 6 C. Comme P vérifie (*), on a xx2p(x2 - ly = x2xp(x - iy(x + îyx1*, d'où on déduit p = q et A = 1. Réciproquement, si P est de la forme XP(X — l)p, on vérifie facilement que P vérifie (*). Les solutions sont donc, les polynômes de la forme XP(X — l)p, p 6 N*. Exercice 6. a) Soit P e C[A"], deg(P) > 2. Montrer que les racines de P' appartiennent à l'enveloppe convexe des racines de P. b) Que dire sur les racines de P' si P e M.[X] a toutes ses racines réelles? Solution, a) Soient cii, ■ ■ ■ , a„ les racines de P, comptées avec leur ordre de multiplicité, de sorte que si P désigne le coefficient dominant de P, P = fi(X — ai) ■ ■ ■ (X — a„). On a facilement P'(X) _ .A 1 P{x) ~t[x-(li' Soit a une racine de P'. Si a est une racine de P, le résultat est évident. Sinon n = p'(a) _ V 1 = V H-57 P(„) j^ a-a, £f|«-«i|2'
2. Fonction polynôme, racines d'un polynôme 67 et en passant an conjugué " — / " 1 \ " gi^F = 0 donc (Eï^pJ'-Eï—^ d'où le résultat. b) D'après a), les racines de P' sont réelles. On a même plus de renseignements sur leur localisation. Soient ai,... , ap les racines de P avec a\ < ■ ■ > < ap , d'ordre de multiplicité <*i, ■ ■ ■ , otp, de sorte que si /? est le coefficient dominant de P, P = P(X — ai)"1 ■ ■ ■ (X — ap)"'. D'après le théorème de Rolle, pour tout i € {1,.. p — 1}, il existe b{ 6 ]a,-, a.+J tel que P'(l>i) = 0> On a ainsi trouvé p — 1 racines de P'. - Pour tout i tel que oti > 2, a,- est racine de P1 d'ordre de multiplicité ai — 1 (voir le théorème 3). Comptées avec leur ordre de multiplicité, on a ainsi localisé (p— l) + 5Tf=1(<*« — 1) = (52,- <*«)— 1 = deg(P)— 1 = deg(P') racines. On a donc localisé toutes les racines de P' : ce sont les 6,- 6 ]ctj, ttj+i[ et les <ii tels que a,- > 2. Exercice 7. Donner la forme des polynômes P e R[X] scindés sur M, de degré n > 2, à racines toutes distinctes ax < a2 < • • • < an tels que V.\l<i<«-1, P'(^±i)=0. (*) Solution. Nous allons montrer que les polynômes vérifiant, la condition sont ceux de degré 2. Si P = a(X — a.\)(X — 0,2) est de degré 2 (avec, cii < ai et a 6 E), on a P1 = a(2X — a! — 02) donc P vérifie la condition (*). Si maintenant P = otYYi=i(X ~ a«) ^ de degré n > 3 («i < ■ ■ > < a„, a ^ 0), on écrit P = (X — ai)(X — a^)Q avec. Q = a n"=3(-^ ~ "«)■ Par dérivation, on obtient P'(X) = (2X - a, - a2)Q(X) + (X- «,)(X - a2)Q'(X). Si P vérifie (*), on a donc. Q'("lJÇ''1) = 0, ce qui est impossible car - Si deg(Q) = l, Q' est une constante non nulle. - Si deg(Q) > 2, Q' s'annule au moins une fois sur chaque intervalle] a,-, a,+ 1[ (2 < i < n— 1) d'après le théorème de Rolle, donc. Q' a au moins n — 3 racines distinctes dans l'intervalle ]«2,«n[- Comme deg(Q') = n — 3, on en déduit que toutes les racines de Q' sont dans ]d2, a„[ et comme "'+"» £ ]ri2, a„[, on aboutit à une contradiction. Exercice 8 (Principe du maximum). Soit P ç C[A"] un polynôme non constant. Soit r > 0. Montrer Vz„ € C, |z„| < r, |P(z„)| < sup \P(z)\. Solution. Tout découle du résultat suivant. LEMME. Va eC,Vp> 0, 36 € C, \b - a\ < p tel que \P(b)\ > \P(a)\. En effet. Quitte à multiplier P par e*^ avec V1 € R bien choisi, on peut supposer P(a) 6 E+. Soit Q(X) = P(X + a)v = £"=0 «*' (n = deg(P)). On a g„ = Q(0) = P(n) € R+. Par ailleurs, g„ ^ 0 de sorte que fc = inf{«, 1 < 1 < n, qi ■£ 0} existe. On peut écrire Q(z) = ql) + qkzk(l + <p(z)) avec. lim<p(z) = 0.
68 IL Corps, Polynômes et Fractions Rationnelles Il existe p', 0 < p' < p tel que Vz € C, \z\ < p', |v?(z)| < 1/2. Écrivons g* = Ig^e", 9çl. Soit z0 = p'e~ie/k. On a Q(z„) = q„ + \qk\p'k[l + <p(zo)], donc comme q0 € M+ : lQ(*o)| > |?0 + \qk\A ~ \\qk\f/k<p(z0)\ >qo+ |g*|/ - \\qk\p'k = q0 + \\qk\p'" > q0 = |Q(0)|. Si b = a + z0, on a donc \b - a\ = p' < p et |P(6)| = |Q(z0)| > |Q(0)| = \P(a)\, d'où le lemme. Montrons maintenant le résultat demandé. L'ensemble C = {z € C, \z\ < r} est compact, et l'application z *-+ \P(z)\ étant continue 3*i € C, |z,| < r, |P(z,)| = sup \P(z)\. (*) Si \zx\ < r, le lemme entraîne l'existence de zi Ç C, \z2\ < r tel que |-P(z2)| > l-P^OI, ce qui est absurde d'après (*). Donc. Iz^ = r et donc. sup|z|<r |-P(z)| = supizi=r |-P(z)|, d'où : Si z0 6 C, \z0\ < r, \P(z0)\ < suP|,|<r \P(z)\ = suP|z|=r \P(z)\. Remarque. Ce résultat sera généralisé au tome d'analyse (voir le chapitre sur les fonctions de plusieurs variables). - Plus généralement, le lemme permet également de montrer que pour tout compact C C C, 0 on a : Vz0 G C, \P(zu)\ < supzgFr(C) \P(Z)\ ou Fr(C) désigne la frontière de C. Exercice 9. Soient ai, a2, • • • , «„ n entiers distincts. a) Prouver que P = (X - ax)(X - a2) ■ • -{X - «„) - 1 est irréductible dans Z[X] (c'est- à-dire que si P = FG avec F,G € Z[A"], alors F ou G est constant). b) Prouver que P = (X - a^X - a2)2 ■ • -(X - a„)2 + 1 est irréductible dans Z[X]. Solution, a) Supposons P réductible dans 1\X\. Il existe deux polynômes F, G 6 Z[X], deg(F) < n et deg(G) < n, tels que P(X) = (X- a,)(X - n2) ■ ■ ■ (X - n„) - 1 = F(X)G(X). Pour tout «', 1 < i < n, on a F(cii)G(ai) = —1 (*). Comme F et G sont à coefficients entiers, F(ai) et G((ii) sont entiers. Avec (*), on en déduit que pour 1 < i < n, F(cii) = — G(cii) = ±1. Le polynôme F+G s'annule donc aux points «,-, 1 < « < n. Or deg(F+G) < sup{deg(F), deg(G)} < n, ce qui entraîne la nullité de F + G. Donc F = —G, d'où P = —F2. Cette dernière égalité est impossible puisque P est unitaire et que —F2 ne l'est pas. D'où le résultat. b) Supposons P réductible dans Z[X]. Il existe F, G € Z[X], deg(F) > 1 et deg(G) > 1, tels que P = (X - <H)2(X - a2)2 -(X- n„)2 + 1 = F(X)G(X). On peut supposer F et G unitaires (l'égalité précédente entraîne que les coefficients dominants de F et G sont égaux tout deux soit à 1, soit à -1). Soit k = deg(F), / = deg(G), de sorte que k + f. = '2n. La forme de P montre que pour tout réel t., P(t.) > 1. Ainsi, P ne s'annule pas sur E, il en est donc de même de F et G qui alors gardent un signe constant sur E. De plus F et G sont unitaires et prennent donc des valeurs > 0 sur E. Pour tout «', 1 < i < n, F(cii)G(m) = 1 (**). Comme de plus F(cu) et G(at) sont entiers et positifs, on en déduit que pour tout «', F(rii) = G(«,) = 1. Si k = deg(F) < / = deg(G), alors k < n. Or pour tout i, F(rij) = 1; autrement dit, le polynôme F— 1 s'annule en n points donc est, nul (son degré est < n). Finalement F = 1, ce qui est absurde car deg(F) > 1. De même l'inégalité / < iir est impossible. On a donc. deg(F) = deg(G) = n. D'après (**), pour tout «, 1 < i < n, F((u) = G (m). Le polynôme F — G s'annule donc en n points. Or deg(F— G) < n— 1 (F et G sont de degré n et sont tout deux unitaires), donc F—G = 0.
2. Fonction polynôme, racines d'un polynôme 69 Donc F = G. Finalement, on a P(X) = F(X)2, c'est-à-dire F(X)2 - (X - atf ■ ■ (X - an)2 = 1 ou encore [F - (X - a,) • • • (X - an)][F + (X - a,) • • ■ (X - an)] = 1, égalité impossible à réaliser. Le polynôme P est donc irréductible dans Z[X]. Remarque. On peut également montrer que (X — a^4 • • -(X — an)4 + 1 est irréductible dans Z[X], mais c'est plus difficile. - En fait, les polynômes exhibés sont irréductibles dans Q[A"]. En effet, d'après le lemme de Gauss (voir l'exercice 4 de la partie 1.4 — page 58) que tout polynôme de Z[X] irréductible dans Z[X] est irréductible dans Q[X]. Exercice 10 (Quelques polynômes irréductibles). Si F = a0 + axX -\ anXn e Z[X], on note (pour p e N*), F = 5^ + â~[X -\ + â^X" e Z/pZ[X] où pour tout i, 57 désigne la classe de a,- dans Z/pZ. 1/ Si P € Z[X], unitaire, est tel que P € Z/pZ[X] est irréductible dans Z/pZ[X], montrer que P est irréductible dans Z[X]. La réciproque est elle vraie? 2/ Montrer que F = X4 + X + 1 est irréductible dans Z[X]. 3/ Soit p g M* un nombre_premier et F = Xp - X - 1 e_Z[X]. _ a) Soit a une racine de F dans le corps des racines de F. Montrer que les racines de F sont exactement a, a + 1, • • • , a + p — 1. b) En déduire que F est irréductible dans Z/pZ[X], puis que F est irréductible dans Z[X]. Solution. 1/ C'est^ immédiat. Si P = FG avec F,G € Z[X], unitaires, alors T ^_~FG dans Z/pZ[X]. Comme P est irréductible dans Z/pZ[X], ceci entraîne deg(F) = 0 ou deg(G) = 0. Les polynômes F et G étant unitaires, on a deg(F) = deg(F) et deg(G) = deg(G) et donc F ou G est constant, ce qui prouve l'irréductibilité de P dans Z[X]. (P est alors irréductible dans Q[X], voir 1.4 exercice 4). La réciproque est fausse. Par exemple, P = X2 — 2X — 1 est irréductible dans Z[X] et pourtant P n'est pas irréductible dans Zj'i!Z\X\. 2/ On va montrer que F est irréductible dans Z/'1Z[X], ce qui prouvera le résultat en vertu de 1/. Supposons F = PQ avec P, Q € Z/'2Z[X], deg(F) > 1, deg(Q) > 1. Le polynôme F n'a aucune racine dans Z/2Z, donc. deg(F) = deg(Q) = 2. Le coefficient dominant et le coefficient constant de F étant égaux à 1, P et Q sont nécessairement de la forme P = X2 + aX + ï et Q = X2 + bX + T, a,b Ç.Z/2Z. Donc F = X4 + X + ï = PQ = X^_ + (a + b)(X3 + X) + (2 + a + b)X2 + ï, et donc le coefficient de X3 est égal à celui de X dans F, ce qui est absurde vue la forme de F. 3/ a) Notons K le corps des racines de F, » une racine de F dans K. Le corps K étant de caractéristique p (car surc.orps de Z/pZ), on a Va: € K, F(x) = F(x) - F(a) = xp - ap - (r. - a) = (x - a)p - (x - a) (pour se convaincre de la dernière égalité, développer (t. — «)p par la formule du binôme et utiliser le fait que p \ C* si 1 < iir < p— 1). Donc r. 6 K est une racine de F si et seulement si x — a est une racine de Xp — X, c'est-à-dire si et seulement si x— a 6 {0,1,... ,p— 1} (les racines du polynôme Xp — X Sont Ô,ï,... ,p— 1 en vertu du théorème de Fermât). b) Soit G un facteur irréductible unitaire de F dans Z/pZ[X]. Notons k = deg(G). D'après la question précédente, les racines de G dans K sont de la forme a + a\,- ■ • , a + dk où les ai sont dans Z/pZ. De plus G étant unitaire, le coefficient du monôme de degré iir — 1 de G est au signe près la somme de ses racines. Comme G a ses coefficients dans Z/pZ, on en déduit que 5T,-=1(<* + ««) € Z/pZ, et comme les a,- € Z/pZ, kn € Z/pZ. Or a ¢ Z/pZ (sinon F(«) = (ap - a) + ï = ï ^ 0).
70 II. Corps, Polynômes et Fractions Rationnelles Le fait que ka G Z/pZ entraîne donc que iir = 0 et donc k = p puisque l < k < p. Donc G est de degré p ce qui entraîne que F = G est irréductible dans Z/pZ. Donc F est irréductible dans 7L\X\ d'après la question 1/. 3. Fractions rationnelles Dans toute cette partie, K désigne un corps commutatif. 3.1. Généralités L'anneau K[A"] étant intègre, son corps des fractions existe bien. On le note M(X). Proposition 1. Soit F e M(X), F ^ 0. On peut écrire F = P/Q avec P et Q e K[X], Q unitaire, P e.t Q premiers entre eux, e.t ceci de. manière unique. L'écriture P/Q s'appelle la forme réduite de. F. DÉFINITION 1. Soit F G 1K(X), F ^ 0, F = N/D sa forme réduite. Un élément a G K est dit pôle, de F d'ordre h si a est racine de D d'ordre h. Le résultat fondamental portant sur les fractions rationnelles est le suivant. Théorème 1 (Décomposition en éléments simples). Soit F G K(X),F ^ 0, N/D sa forme réduite. Soit D = D"1 • • • D£n la décomposition de. D en facteurs irréductibles de. K[A"]. On peut écrire, de. manière unique. avec E e K[A"], A{j e K[X] e.t deg(i4,j) < deg(Z),). Le. polynôme. E s'appelle la partie entière de. F e.t s'obtient comme, le. quotient de. la division euclidienne de. N par D. Les deux parties suivantes s'attachent à donner des méthodes de calcul des éléments simples Aij/D{ pour K = C et K = E. 3.2. Pratique de la décomposition dans C(X) Il est indispensable de bien savoir décomposer en éléments simples (on s'en sert en particulier pour le calcul de primitives de fractions rationnelles). Soit F G C(X),F ^ 0, de forme réduite N/D. Le corps C étant algébriquement clos, on peut écrire D = (X — ai)"1 • • -(X — «„)"" avec, aj G C pour tout i et a,- G N*. Appliquant le théorème précédent, on voit que l'on peut écrire de manière unique F = E + fl\EixaiJaiy) avec *j€ Cet £€€[*]. Comme on l'a déjà dit, on obtient E comme le quotient de la division euclidienne de N par D. Pour tout i, le terme 2J t v %J >, ■ s'appelle jmrtie principale, de F relative au pôle a,-. Nous allons donner des méthodes de calcul des a,-y.
3. Fractions rationnelles 71 Partie principale relative à un pôle simple. Soit F G C(X), F ^ 0, iV/D sa forme réduite. Soit a un pôle simple de F. La partie principale de F relative à a est de la forme A NX — avec A G C, et on peut écrire F = — = — \- G avec G G C(A"), a n'étant pas X — a D X — a un pôle de G. On peut également écrire D = (X - a)Dx avec Dx G C[A"] et Z>i(a) ^ 0, de sorte que £- = X + (X-a)G donc A = $&. (*) On a aussi D = (X - a)Dx donc D' = Dx + (X - a)D[ et donc D'{a) = Dx{a), d'où un autre moyen de calculer A : A_ D'(ay (**} Remarque 1. (*) et (**) s'utilisent dans des circonstances différentes : (*) quand on connaît une forme explicite de Dx, (**) sinon (voir les exemples qui suivent). Exemple 1. — Soit X + 3 F= T^ ,w^ ■ »x = "^ 7 + (X-l)(X + 2) X-l X + 2 Grâce à (*), on trouve a = 4/3 et b = —1/3. - Soit F = P_ , avec. P G C[X], deg(P) < n. Notons u = e2i*ln. On a X" - 1 = n-l n-1 JJ(X - u>k), donc .F = £ y_* t' rt* e C Grâce à (**)' on trouve ifc=0 PCa;*) w* 1 ^ a;* Plu;*) n(a;*)"-1 n n f^0 X — uk Partie principale relative à un pôle multiple. Soit J1 G C[A"], iV/D sa forme réduite, et a G C un pôle d'ordre h > 2 de J1. On peut écrire D = (X — a)hD0 avec D0 G C[X] et D0(a) ^ 0. Posons DX(T) = D0(T + a), JV,(T) = N(T + a) et FX(T) = F(T + a). On a F,(T) = rfjwr)• A1"81' si #i = K + " • ■ + «iT*"1)/?, + T"5, (5 G C[X]) est la division selon les puissances croissantes de Nx par D\ à l'ordre h — 1, on a : S(T) ^,(i )-- + - + ...4--4-- i(T) et donc ey jn - a' j. j. a" . s(x -a) F(X)-X^ + ---+(X-a)"+ A,(X) ■ On a ainsi obtenu la partie principale relative au pôle a. X + 3 Exemple 2. Recherchons la partie principale de F = —— —— relative au pôle 1 d'ordre 4. On a, avec les notations précédentes, N^T) = T + 4 et DX(T) = T + 2. On effectue la division euclidienne de T+4 par T+2 selon les puissances croissantes à l'ordre 3, ce qui donne 4 +T -T LT2 ^T3 2 + r 2 - iT + JT* - ^T3
72 IL Corps, Polynômes et Fractions Rationnelles On en déduit que la partie principale de F relative au pôle 1 est -1112 8(A"-1) A(X-lf 2{X-lf ' (x-iy En pratique, on n'utilise cette méthode que si l'ordre du pôle est grand (typiquement supérieur à 3 ou 4). La plupart du temps, on procède par identification en donnant à X certaines valeurs particulières et en utilisant certaines propriétés de F comme la parité, le fait que F est à coefficients réels, et en utilisant la remarque suivante : Si a est un pôle ■N d'ordre h de F, on peut écrire F = — .. , D0(a) ^ 0, et {X — a) Do X — a (X — a)" a n'étant pas un pôle de G. En multipliant cette dernière égalité par (X — a)h, on obtient £- = ah+(X- a) [aft_, + • • • + ai(X - a?-2 + (X - a)h-lG} . En donnant à X la valeur a, on trouve un moyen commode de calculer ah : flft = D^ry {***] X + 2 Exemple 3. F = -— -■- — se décompose en éléments simples sous la forme a b c d F= ~—^ + 7^—^7 + -^—r + X-2 {X-2Y X + l (X + l)2 En utilisant la relation (***), on trouve b = 4/9 et d = 1/9. Par ailleurs, en multipliant F par X, en regardant X comme un nombre réel et en le faisant tendre vers +oo, on trouve (i) 0 = a + c. Or F(0) =|=^ + | + c + </, donc (ii) | = -a + 2c. De (i) et (ii), on trouve a = ^ et c = ^. D'autres décompositions en éléments simples dans C(X) sont traitées à l'exercice 1. 3.3. Pratique de la décomposition dans R(X) On trouve dans U(X) deux types d'éléments simples. ce - Les éléments simples de première espèce —— —, a G K, a G K. Y _i_ fk - Les éléments simples de seconde espèce -r^- — —, a,/?,p, a G K et p2 — 4o < 0. (X2 + pX + </)" Pour décomposer F G K(A") en éléments simples dans R(X), on peut - Soit décomposer F en éléments simples dans C(X) et regrouper les termes conjugués (en général à éviter). - Soit procéder par identification, en utilisant les propriétés de F (parité, ... ). Des exemples sont traités dans l'exercice 2.
3. Fractions rationnelles 73 3.4. Exercices Exercice 1. Décomposer en éléments simples dans C(A") les fractions rationnelles suivantes : a\ F _ £ h) F = X* Solution, a) On commence par scinder le dénominateur de F dans C[X], ce qui donne (X2 - l)2(X2 + 1) = (X - \)2{X + l)2(X + i)(X - i). On peut donc écrire Comme F est impaire, l'unicité de la décomposition de F en éléments simples permet d'identifier la décomposition de F(X) et de F(—X), ce qui donne a = a' et 6 = —b'. De plus F est à coefficients réels, donc F(X) = F(X) et par identification c=c'. En utilisant la relation (*) de la partie 3.2, on trouve 6 = | et c = ^¾ = g. Donc b' = — g et c' = i s- Multipliant F par X, regardant X comme un nombre réel et en le faisant tendre vers +oo, on tire 0 = a + a' + c + d. Donc 2a = a + a' = -(d + c) = -\, d'où a = a' =-\. b) Recherchons les racines de Xs + 1. On a x5 + l = 0 <=ï xs = -l = ei' <=ï t. = e*'^/^2**/5) = Uk,(k 6N,0 < k < 4). On peut donc écrire En utilisant la relation (**) de la partie 3.2, on trouve ai = w|/(5w£) = 1/5. Donc 5^X-wt Exercice 2. Décomposer en éléments simples dans R(X) les fractions rationnelles suivantes. X2 1 a) F= . b) F= - . ; (X4 + X2 + l)2 ' X(X2 + 1)2 Solution, a) On a (X4 + X2 + l)2 = (X2 + X + l)2(X2 - X + l)2 donc -3 , . , , m aX + b cX+d eX + f gX + h 3a,b,c,d,e,f,g,heU, *" = x, + x+ l +{x, + x+ l)* +x* _ x+ l + {x* _ x+l)2- Comme F est paire, l'unicité de la décomposition en éléments simples permet d'obtenir e = —a, f = b, g = —c, h = d. Multipliant F par (X2 + X + l)2 puis en remplaçant X par j = e2*"/3, on obtient i2 J2 1 1 cj + d = 7-^ : -rr = -rrr = -r donc c = 0 et d = -. 0"* - J + 1) 4J 4 4 On a F(0) = 0 = b + r/ + / + h = 26 + 'ld donc 26 + £ = 0, d'où 6 = -\.
74 IL Corps, Polynômes et Fractions Rationnelles On a F(i) = -1 = ^-(ci + ri) - ^U - (gi + h), donc -1 = 2a + &^--i(c +g) - (d + h) = 2a-2d=2a- i, d'où a = -i. Finalement on a trouvé 1 ; 1 n a 1 1 f 1 n A 1 a = --, l> = ~4, c=0, d=-, e=-, / = -^, g = 0, /.= -. b) Il existe a, 6, c, d, e € E tels que F = — + -r^—r + ttpô—ï\2 ■ La fracti°n F est impaire, donc A A + 1 (A + lj c = e = 0. D'après la relation (*) de la partie 3.2, on a a = 1. Multiplions F par (A2 + l)2 puis remplaçons A par i. On obtient 4- = di: + e = <i« donc d = — 1. Multipliant F par A, regardant A comme un nombre réel et en le faisant tendre vers +oo, on obtient 0 = a + b, donc b = — a = — 1. c) Classique ! Il faut procéder par divisions euclidiennes successives. On trouve A7 + 2 = (A2 + A + 1)(A5 - A4 + A2 - A) + (A + 2), d'où A7+ 2 _ A + 2 A5 - A4 + A2 - A ~ (A2 + A + l)3 ~ (A2 + A + l)3 + (A2 + A + l)2 ' W On recommence, en divisant cette fois ci A5 — A4 + X2 - A par A2 + A + 1. A5 - A4 + A2 - A = (A2 + A + 1)(A3 - 2A2 + A + 2) - 4A - 2, donc A5 - A4 + A2 - A _ 4A + 2 A3 - 2A2 + A + 2 (A2+A + l)2 ~~(A2+A + 1)2 + A2 + A + l (*+) De même A3 - 2A2 + A + 2 = (A2 + A + 1)(A - 3) + (3A + 5), donc X3 - 2A2 + A + 2 _ 3A + 5 A2+A + l ~A2 + A + 1 De (*), (**) et (***), on tire + A - 3. (***) F_ X + 2 4A + 2 3A + 5 (A2 + A + l)3 (A2 + A + l)2 A2 + A+l"1"V ' Procédé pratique, à retenir ! d) On décompose d'abord dans C(A). On pose u = e"ln, de sorte que A2" - 1 = Y^T0l{X -uk). x- Donc F = ££=01^¾^ où d'après la relation (**) de la partie 3.2, ak = l/p^w*)2"-1] = 7(2"). Il ne reste plus qu'à regrouper les termes conjugués. _ u" a>(2"-*) _ uk £j* _ 2 cos(fc7r/w)A - 2 - ~" ' X-uk + A-w<2"-*) ~ A-w* + A-w* ~ A2-2cos(/br/rc)A + r 1 — = y- s(iir7r/n)A donc F_ J_ y^ uk _ J_ [_J 1_ v^ 2cos(kir/n)X-2 ~ 2nf^n X-uk~ 2n A-l A + 1 + f^ A2 - 2cos(fc7r/rc)A + 1 Exercice 3. a) Pour tout n G N*, montrer qu'il existe un polynôme Pn G R[X] de degré n tel que Jn + i-j^x + i). b) Pour tout n G N*, décomposer la fraction rationnelle Fn = 1/Pn en éléments simples dans R(X).
3. Fractions rationnelles 75 Solution, a) On procède par récurrence sur n 6 N*. Pour n = 1, c'est évident en prenant P\{X) = X. Supposons le résultat vrai jusqu'au rang n — 1 et démontrons le au rang n. On a (* 4)"=£«*-*(£)'■ En posant Pq{X) = 1, on vérifie facilement que pour tout entier n, où [n/2] désigne la partie entière de n/2. Cette égalité montre qu'en posant [»/2] Pn{X) = X"-J2 CknPn-2k{X), *=i on a Pn (x + 1 ) = Xn + -^ et deg(P„) = n. b) Commençons par chercher les pôles de Fn, qui sont les racines de P„. On a Pn (x + -) = 0 <É=* x" + — = 0 <É=* x2" = -1 <é=* x = wt = e*(at+i)»/(2») (fc e Z). \ X / x" Ainsi, pour tout k Ç Z, la valeur Xjfc = Wjfc + _L = e*(2t+l)-/(2n) + e-,-(2t+l)»/(2n) = j cos f(2fc + *M Wi \ 2rc / est une racine de P„. On remarque que les xk sont deux à deux distincts lorsque 0 < k < n— 1, et comme deg(P„) = n, ceci montre que les xk pour 0 < & < n— 1 sout les racines de P„. Maintenant, on peut écrire (grâce à la relation (**) de la partie 3.2) F=J_ = y^_l L_ " p» hp»(rkS> *-**' Il ne reste plus qu'à remarquer, après dérivation de la relation P„(X + l/X) = X" + l/X", que donc p>(r \ - H fu» u-»\ - n "°[(2* + lW2] _ (-1)* r^k) Uk _ w-i ^k "k > ~ nBin[(2fc + l)x/(2n)] ~ sin[(2fc + l)x/(2n)] ' et le tour est joué. Exercice 4. Pour tout F £ C(X), on note DF = C \ {ai,... ,a„} (où %,..., an sont les pôles de F) et on identifie F avec la fonction DF -> C z •-»■ F(z). a) Si F G C(A") est non constante, montrer que (t) F(DF) = C ou (n) 3« e C | F(2?f.) = C \ {a} et caractériser les fractions rationnelles F vérifiant l'assertion (ii). b) Si F, G G C(X), et si G n'est pas une constante qui est un pôle de F, il est possible
76 IL Corps, Polynômes et Fractions Rationnelles de définir la composée F o G € C(A"). Donner la forme des fractions rationnelles F et G G C(X) telles que la fraction rationnelle F o G soit un polynôme. Solution, a) Soit F = 7V/Z? la forme réduite de F. Par hypothèse, F est non constante donc l'un au moins des polynômes N, D est non constant. Pour tout A € C, l'équation F(z) = A (z Ç Z?f) est équivalente à (W - XD)(z) = 0 (z G C). (En effet, si (W - AZ?)(z) = 0 alors on doit avoir D(z) / 0 sinon N et D ont une racine commune, c'est-à-dire z € Df)- Deux cas se présentent : (i) Pour tout A € C, le polynôme N — XD est non constant. Le corps des nombres complexes étant algébriquement clos, N — XD admet une racine z\ pour tout A 6 C. Ainsi, pour tout A € C, F(zx) = A et on en déduit F(Df) = C. (ii) Il existe a 6 C tel que N — aD est constant. Pour tout A / a, le polynôme N — XD est non constant (si N — XD est constant pour A / a, il est facile de voir que l'on doit avoir N et D constants, ce qui est contraire aux hypothèses) donc admet au moins une racine z\ qui vérifie F(z\) = X. Ainsi, C \ {a} C F(Df)- De plus, le polynôme N — aD est une constante non nulle (si elle est nulle, F est, constant égal à a), donc l'équation N — aD = 0 n'a pas de solution. Finalement, F(Dp) = C \ {a}. Les fractions rationnelles F = N/D vérifiant (ii) sont celles vérifiant 3c 6 C | N — aD = c. Ainsi, F = N/D = (aD + c)/D = a + c/D est de la forme F = a + l/P où P est un polynôme non constant et réciproquement, une fraction rationnelle de cette forme vérifie (ii). b) Si F est constant, F o G = F est toujours un polynôme. De même, si G est constant et si G n'est pas un pôle de F, F o G est une constante donc un polynôme. Supposons maintenant F et G non constants. Si a est un pôle de F, on a lim \F(z)\ = +oo, donc si a = G(P) € G(DG), lim|FoG(z)| = +oo (théorème de composition des limites). Comme FoG est une fraction rationnelle, ceci entraîne que fi est un pôle de F o G. On veut que FoG soit un polynôme ; notre discussion précédente montre donc que pour tout pôle a de F, a ¢. G(Dc), ou encore a6C\ G(Dg) D'après la question précédente, l'ensemble C \ G(Dg) a au plus un élément, ce qui montre que nécessairement F a au plus un pôle. — Si F n'a pas de pôle, c'est-à-dire si F est un polynôme, alors si F o G est un polynôme, G est un polynôme. En effet, si G admet un pôle fi, alors lim \G(z)\ = +oo et le polynôme F étant non constant on a lim |Fo G(z)\ = +oo car lim \F(z)\ = +oo, *-*/* |z|—*+oo et F o G ne peut donc pas être un polynôme. - Si F admet un seul pôle a, on peut écrire F sous la forme f=W^' Pec[x] et fceN*- Pour que FoG soit un polynôme, on a vu que l'on devait avoir C\ G(Dg) = {et}. Comme G n'est pas constant (le cas G constant a été. traité plus haut), d'après la question a), ceci entraîne G = a + l/Q où Q est un polynôme non constant. On a alors
4. Polynômes à plusieurs indéterminées 77 En écrivant, P = YHc=» fi* Xk (où n = deg P), ceci s'écrit aussi n et ceci est un polynôme si et, seulement si n = deg(P) < h. Réciproquement, il est facile de vérifier que les solutions trouvées conviennent. Finalement, FoG est un polynôme si et seulement si l'une des conditions suivantes est vérifiée : (i) F est constant. (ii) G est constant et n'est pas un pôle de F. (iii) F et G sont des polynômes. (iv) F est de laforme F = *_ ' où P € €[X] et deg(P) < h, et G de la forme G = a+l/Q oùQ€C[X]. 4. Polynômes à plusieurs indéterminées 4.1. Généralités Soit A un anneau commutatif unitaire. L'ensemble A[X] est aussi un anneau commutatif unitaire. On peut donc définir l'anneau des polynômes à une indéterminée à coefficients dans i4[X]. C'est i4[A"][Y], noté aussi A[X, Y], appelé anneau des polynômes à coefficients dans A à deux indéterminées. Les éléments de A[X, Y] sont ceux de la forme P = YfaiJXiYi1 aitjeA où la somme sur (i,j) est finie. Par récurrence, on définit même A[X1,...,Xn] = A[X1,...,Xn.1][Xn], anneau des polynômes à coefficients dans A à n indéterminées. — Si A = K est un corps commutatif, K[A"i, • • • , Xn] est une K-algèbre, dont {XÎ1 ■•■X'n", (iu... ,in) en"} est une base. — Si A est intègre, i4[Xi,... ,Xn] est un anneau intègre. Si n > 2, et K est un corps, K[A\, • • • , Xn] n'est pas un anneau principal. C'est par contre un anneau dit factoriel, c'est-à-dire qu'il possède des propriétés arithmétiques. DÉFINITION 1 (DEGRÉ partiel). Soit P £ A[XX,... ,Xn] et i, 1 < i < n. On peut écrire P = 52jPjXi avec pour tout j, Pj G A[Xi,... , A",_i, Xi+i,... ,Xn]. On appelle degré partiel de P selon X{ le degré, de P considéré comme polynôme en Xi et on le note degx.(P) (avec les notations précédentes, degx(P) = sup{j | P;- ^ 0}). DÉFINITION 2 (DEGRÉ total). Le degré total d'un monôme aX[l ■•■Xin", a/ 0, est ii + • • • + in. Si P G A[Xi,... ,Xn], le degré total de P, noté deg(P), est le plus grand degré total des monômes qui forment P. De même que dans K[AT], on peut définir dans K[A\,... ,Xn] des fonctions polynôme de n variables. On a en particulier le résultat suivant. PROPOSITION 1. Soit K »m corps commutatif infini et un polynôme P G K[ATi,... ,Xn]. Si P(x,i,... , xn) = 0 pour tout n-uple.t (x-i,... , xn) de K", on a P = 0.
78 II. Corps, Polynômes et Fractions Rationnelles Remarque 1. — Comme pour les polynômes à une indéterminée, ce résultat est faux si K est un corps fini. Par exemple dans Z/pZ[Xi,... , Xn] (p premier), le polynôme P = (A"!)(A"i — T) • • (A"i — (p — 1))X2 • • • Xn est non nul et pourtant, pour tout xu... , xn e Z/pZ, P(xu ... ,xn) = 0. — Attention, même si K est un corps infini, on peut avoir P(x,i,... , xn) = 0 pour une infinité de n-uplets (xu... , xn) sans que P = 0 (prendre par exemple P(X, Y) = X -Y sniR[X,Y]). 4.2. Polynômes symétriques DÉFINITION 3. Un polynôme P 6 A[Xi,... ,Xn] est dit symétrique si pour tout a G Sn (où Sn désigne le groupe symétrique d'indice n), P(A"<7(1),... , X„(n)) = P(Xi,... , Xn). Exemple 1. Dans R[X,Y, Z], P = XY + YZ + ZX est symétrique. DÉFINITION 4 (SymÉTRISÉ d'un monôme). Soit M = X"1 ■ ■ ■ X%n G A[Xu---Xn]. Si a G <S„, on pose M„ = X"\, • • -X°?y Le polynôme ^ Ma est symétrique dans Mffdistîncts AfA-!,... ,Xn]. On l'appelle symétrisé de M dans i4[A\,... ,Xn] et on le note ^2 M. Exemple 2. Dans K{XltXi], ^X?X2 = X'(X2 + XxXl Dans V[XUX3,X3], £X?X2 = X\X* + XxXj + X*X3 + X*X2 + X?X3 + XxXl (On voit sur cet exemple que les symétrisés d'un monôme dans .4[A\,... ,Xm] et dans i4[A"i,... , Xn] sont différents si n ^ m). Polynômes symétriques élémentaires. On appelle polynômes symétriques élémentaires de .4[A\,... ,Xn] les polynômes notés S,- (1 < i < n) et définis par E1 = '£x1 = x1 + --- + xn, S2 = 2^X\X2 = }XjXj, Sp = 2JXi ■ ■ ■ Xp = 22 xtl- • -xir, s„ = 2_^ X\ • • • x„ = x i ■ ■ ■ x„. On a l'égalité (T - XO ■ ■ -(T - Xn) = T" - SxT"-1 + S2T"~2 + • • • + (-lf-X-iT + (-1)"S„. En particulier, si P = Xn + «iA""-1 + ■ ■ ■ + o„ est un polynôme de K[X] scindé sur K et si «i,... , u„ sont ses racines, alors Vi, 1 < i < n, ( —l)'o,- = Si(«i,... , «„). Remarque 2. Si $ G A[XU... ,Xn], alors $[5^(^,... ,Xn),... ,En(Xu... ,Xn)] est un polynôme symétrique de i4[A"i,... , X„]. La réciproque est. vraie : tout polynôme symétrique peut se mettre sous cette forme. Plus précisément, on a le théorème suivant : ThÉorÈme 1. Soit A un anneau commutatif unitaire et P G i4[A"i,... , Xn] un polynôme symétrique dans A[Xi,... ,Xn]. Il existe un ttniqtte. jwlynôme $ ç A[Xi,... ,Xn] tel que P = *(Elt...,Xn). Exemple 3. Dans A[XU ... ,Xn], ^X'( = EJ - 2E2 et £,X?X2 = £^ - 3E3-
4. Polynômes à plusieurs indéterminées 79 Remarque 3. Ce théorème entraîne le résultat suivant. Soit P 6 Z[X] un polynôme unitaire. Les fonctions symétriques ai,...,an de ses racines «i,... ,un sont donc entières. Si F 6 Z[Xi,...,Xn] est symétrique, alors F(ui,... ,un) G Z (en effet. D'après le théorème il existe G G Z[A"i,... , Xn] tel que F = <j?(£i,.. ■ , £„), et donc F(ui,... , u„) = G(au... ,<t„)€Z). 4.3. Exercices Exercice 1. Pour les polynômes P suivants, déterminer le polynôme $ tel que P(Xlt...,Xn) = *(Elt...,En). a) P = X3 + Y3 + Z3 e R[A", Y, Z]. b) P = £ X2X%X3 € KIA-!, ...,Xn] pour n > 5. Solution, h) On a. (X+Y + Z)3 = X3+Y3+Z3+3X2Y+3X2Z+W2X+ W2Z+3Z2X + 3Z2Y+ 6XYZ, et donc X3 + Y3 + Z3 = E? - 6E3 - 3 £ X2Y. Or £ *2Y = S1S2 - 3E3. Finalement, on aP = E?-3EiE2 + 3E3. b) Rappelons que la méthode générale (méthode de Waring) pour trouver le polynôme $ consiste à faire diminuer la hauteur de P (la hauteur de P est la plus grande des hauteurs de ses monômes, la hauteur d'un monôme. aX"1 ■ ■ -X£n étant (m,.. ■ ,(*„), ordonnée par l'ordre lexicographique). Ici, le monôme de plus haut, de P est XiX|X3. On va donc commencer par retrancher P à Ç$2 XiX2)(Y, ^1¾¾) = E2E3. Calculons ce dernier terme. Chaque monôme de E2E3 est de degré total 5 (produit de deux monômes de degré total 2 et 3) et est moins haut que X^X^X^. On peut donc écrire 3a,b,e, E2E3 = 0^¾2¾ + 1^¾¾¾ + ¢^¾¾¾¾¾. Le nombre a est le coefficient de X^X'^X^ dans E2E3. C'est donc le nombre de manières de former X\X2X3 par un monôme de E2 multiplié par un monôme de E3. Il n'y a qu'une seule façon de faire ceci. C'est X2X%X3 = (XiX2)(XiX2X3), donc a = 1. - De même, b est le nombre de façons d'écrire X{X2X3X4 comme le produit d'un monôme de E2 par un monôme de E3. Ces façons sont, X\X2X3XA = (XiX-MXiXaXt) = (XiX3)(XiX3X4) = (X1X4)(X1X2X3), donc 6 = 3. - On trouve de même c = C\ = 10. - Finalement, on a P - E2E3 = -3J2XÏX^X3X^ ~ ll) £ ^1^2^3^4^5- Par des méthodes analogues aux précédentes, on trouve E1E4 = y ^ Xi X2X3X4 -+- 5 y j X\XiXzX\X*>, et donc Y,X\X2X3X4 = £1¾ — 5E5. Finalement, on a P = E2E3 - 3(ExE4 - 5Er.) - 10E5 = E2E3 - 3EiE4 + 5ES. Remarque. H est bon dans ce type de calcul de vérifier les résultats, en donnant par exemple à n, X\,... ,Xn des valeurs particulières. Exercice 2. Soit P = X3 + pX + q e M.[X], n,/3,j ses racines complexes, a) Calculer A = (a — fl)'2(fi — 7)^(7 - (*)2 en fonction de p et q.
80 IL Corps, Polynômes et Fractions Rationnelles b) En déduire une condition nécessaire et suffisante portant sur pet q pour que P ait trois racines réelles. Solution, a) Posons o\ = a + fi + 7, ai = a fi + fiy + ya, as = afiy. On sait (voir le théorème 1 de la partie 2.2 — page 60), que ai = 0, ai — p et «73 = —q. Comme A est symétrique en a, fi, 7, on peut l'exprimer comme polynôme en ai, ai, 0¾. Ceci est un moyen de procéder mais les calculs sont lourds. Nous allons utiliser une technique différente. Supposons dans un premier temps q / 0, c'est-à-dire afiy = 0¾ / 0, de sorte que a, fi et 7 sont non nuls. On a (a - fi)2 = a2 + fi2 - 'lafi. Or a2 + fi2 + 72 = a\ - 'lai = -2p, donc (a - fi)2 = -'lp- 72 - 'lafi = -2p - 72 + 3i. 7 On montrerait de même {fi-7)2 = -'lp-a2+'^ et (T-„)2 = -2p-/?2 + |. Finalement, on a a= n h* -*'+?)■ r racine de P Recherchons un polynôme Q dont les racines sont les y = — 'lp — x2 + 2q/x (x = a, fi, 7). ( x3 +px + q =0 ( x2 = -p-q/x ( 0 = 1 + p/x2 + q/x3 { -'lp-x2 + 'lq/x = y ^1 y = -p+Zq/x ^ \ x = 3q/(y + p) 1+P(^)2 + ?(^)3 = ° ^ ^+^ + ^ + (^ + ^) = 0. Donc Q = X3 + QpX2 + $p2X + (4p3 + 27g2). Le nombre A apparaissant comme le produit des racines de Q, on en déduit A = —(4p3 + 27g2). Ceci est vrai pour g / 0. Si g = 0, alors une des racines de P est nulle, par exemple a, et alors A = fi2y2(fi -7)2. Or ai = 0 = fi + 7, donc y =-fi et donc A = /T4 • Çlfi)2 = 4/96. Il ne reste plus qu'à remarquer que p = a2 = fiy = —fi2, et donc A = —4p3. Finalement, dans tous les cas, A = —(4p3 + 27g2). b) Le polynôme P 6 R[X] est de degré impair et admet donc au moins une racine dans E (c'est classique ! Comme linix-.+oo P(x)P(—x) = —00, il existe a > 0 tel que P(a) et P{—a) aient des signes opposés, et P étant continue, il existe x 6 ] — a, a[ tel que P(x) = 0 d'après le théorème des valeurs intermédiaires). Notons par exemple a une telle racine réelle. Deux cas se présentent. - Premier cas. fi et y sont réelles. Alors A = (a — fi)2{fi — <*)2(7 — a)2 > 0. — Second cas. fi et y sont non réelles. Alors elles sont complexes conjuguées. Autrement dit, on peut écrire fi = x + iy et 7 = x — iy avec i,y6R,y/0. On a alors A = ((a - fi)(a - 7)) \fi - 7)2 = (|a - fi\2) \'liy)2 = -4y2\a - fi\4 < 0 Finalement, on voit que P a trois racines réelles si et seulement si A = —(4P3 + 27g2) > 0. Remarque. Ce dernier résultat peut également s'obtenir à partir des formules de Cardan donnant les racines de P en fonction de ses coefficients (voir l'annexe A). - Le nombre A s'appelle le discriminant de P. De manière générale, pour tout polynôme Q, deg(Q) = n >2, si Xi,... ,xn sont les racines de Q, le discriminant de Q est défini par A = Yli<j(xi ~ xj)2- Comme A est symétrique en les xt, il s'exprime comme polynôme en fonction des coefficients de Q. On voit par ailleurs que Q n'admet (lue des racines simples si et seulement si A jt Q.
4. Polynômes à plusieurs indéterminées 81 Exercice 3 (Formules de Newton). Soit, un entier n > 2. On appelle sommes de Newton les expressions S„ = ]£*f €R[*i,...,*„]. «=i Comme Sp est symétrique, il s'exprime comme polynôme en les polynômes symétriques élémentaires Si,... , S„. On se propose de donner des formules simples permettant de calculer le polynôme $p tel que Sp = $p(Ei,... , S„). a) Soit (xx,... ,xn) G K". Pour tout p G N*, on pose sp = £^=13^ et pour tout i, on pose Ui = Ei(zi,... ,xn), a'{ = (-l)'V,-. Soit P = n."=i(^ ~ *«)• En remarquant que " P p> _ V^ montrer t-* X — x- V*. l<*<n-l, ^-5^^+--- + (-1)^4..^+(-1)^4 = 0. (*) b) Pour tout p € N, donner une relation entre Sn+P,Sn+P^i,... ,Sp. Solution. On a P = X" + a'xXn~^ H 1- «r^X +</„. Pour tout, i, la division euclidienne de P par X — xi donne —— = Xn~l + (xi + SJX"-2 + (,? + ^x; + <r'2)X"-3 + ■ - ■ A — Xi + (xp1 + «ri*?"2 + ■ ■'+<-.& + <-l)- (**) En sommant, l'égalité (**) pour 1 < i < n, on trouve P' = Y) - = nX""1 + (Sl + B^pf—2 + (a2 + o^ + n^X"'3 + ■■■ + («r.-l + 0-'l*r.-2 + ■ ■ ■ + ^-2*1 + "^n-l)- Or on sait que P' = nXn~l +(n— tya^X"'2 + ■ ■ ■ + oJn_1. En identifiant les coefficients, on trouve Vfc, 1 < iir < n— 1, Sk +A4-1C1 + 1- «î^jb-i + kv'h = 0. Autrement dit, si Pk = Sk - St_iEi + ■ ■ ■ + (-l)k-1S1Ek^i + (-l)kki:k, on a Pk(xu ■ ■ ■ , xn) = 0, et ceci pour tout (xi,..., xn) 6 E", donc Pk = 0 (1 < iir < n — 1) d'où le résultat. b) Il suffit de remarquer que Vi, ^P(x.i) = 0 = xj+" + ^+-1 + ■ • • + ^,.^+1 + <r'nxpit et, en sommant cette égalité pour 1 < i < u : 0 = Sp+n + ci-V+n-l + 1" "'n-l^p+l + "'«V Ceci étant vrai pour tout, (xi,... , x„) 6 E", on en déduit, que SP+n — Ei'S'p+n-i + ■ • ■ + (—I)"- E„_l5p+1 + (—1)"E„5P = 0. Remarque. En procédant par récurrence sur p, ces formules permettent de trouver facilement les polynômes en Si,... , S„ égaux à Sp. Elles peuvent en particulier s'inverser (pour 1 < p < n), ce qui prouve que les Sj (1 < i < n) s'expriment comme des polynômes en les Si (1 < i < n). Donc tout polynôme symétrique de IR[A"i,... ,Xn] peut s'exprimer comme polynôme en 5i,... , Sn.
82 II. Corps, Polynômes et Fractions Rationnelles Exercice 4. (Cet exercice suppose la connaissance préalable de la théorie sur les séries entières) Un polynôme P G M.[Xx,... , Xp] est dit n-homogène si P est somme de monômes de degré total n. Soit DPi„ la dimension de l'espace vectoriel des polynômes n-homogènes de M[XU... , Xp]. Donner le rayon de convergence et la valeur de la série entière J2^=o DPi„zn, ainsi que la valeur de DPi„. Solution. Il est facile de voir qu'une base de Dpn est (X"1 ■ ■ ■ Xp')ai+...+ap=n, donc DP:„ = Card{(ai,... , ap) 6 W, oi + ■ ■ ■ + op = n}, Ceci nous invite à considérer le produit de Cauchy f(z) = (1 + z + z2 + ■ ■ ■ + z" + • ■ ■ y = £ a„ zn. L'expression des coefficients d'un produit de Cauchy permet, de remarquer que a„ est le nombre de façons de combiner les puissances de z dans chacun des p termes du produit pour que leur somme soit n, c'est-à-dire an = DP,n- Donc °" / 1 V £>p,„z" =/(*)=( — n=(l ^ ' Cette série entière a pour rayon de convergence 1. Il reste à déterminer DPi„. Comme f(z) = 1/(1 — zf est la dérivée (p — l)-ème de la fonction (p-iy.i-z (p-i)!^ ' _ (n+l) ■■■(» + p-1) _ p_! p'n~ (p-1)! -°»+p-i- Remarque. De manière générale, si ai,... ,ap 6 N*, le nombre de p-uplets (al5... , ap) G W tels que aia1 + ■ ■ ■ + apap = n est le coefficient de zn dans la série entière on a ™-(rh)~{rh:)- Ce type de résultat rentre dans le cadre plus général de la théorie des fonctions génératrices, qui s'avère être un outil très puissant pour estimer la valeur des paramètres de beaucoup de structures combinatoires. 5. Problèmes Problème 1 (Transformée de Fourier discrète d'un polynôme). On se fixe un entier n > 1 et on note u> = e2'*/". a) Pour tout polynôme P € C[A"], on définit, les polynômes Jv,(P) = £p(«*)x* et 7(l{P) = YjP{u-k)xkeC{X]. * = (> kzzl) Si P £ C[X] et deg(P) < n - 1, montrer que Ta [f„(P)] = nP. b) Conséquence. Soit P G Z[X] vérifiant (t) Vj £Z,\P(tJj)\ < I (n) 3/t€{0,l,...,n-l}tdqueP(w*) = 0. Montrer que (Xn — i) divise P.
5. Problèmes 83 Solution, a) Écrivons P = <io + aiX + ■ ■ ■ + a„_iX" . SiO<ib<n—1,1e coefficient de X* dans [^(P)](W-*) = J2 P(J)^k = J^ ; = (! ;=(! L«' = (l £^ -;* »<«,;'<n-l «=0 Et-1-')' ; = 0 (*) Si i / k, alors w' / 1 donc 0. Si « = iir, alors w* * = 1 donc Finalement, (*) s'écrit [^(PJKw-*) = na*. Donc ^[^(^)] = £fo(P)](«-*)** = £ „atX* = nP *=u *=o b) Commençons par effectuer la division euclidienne de P par X" — 1 : P = (Xn — l)Q + R, deg(-R) < n — 1 et (Q, .R) 6 Z[X] (le quotient et le reste sont, à coefficients entiers car X" — 1 est unitaire, voir la remarque 3 de la partie 1.3 — page 55). Pour tout entier j, on a P(w;) = R(u)i) dont R vérifie également, (i) et, (ii). Or deg(iî) < n — 1, donc d'après a), R = ~Td[Ta{R)] = J2 fo(*)](«-') X}. (**) Or Fd(R)(u-i) = £^,,1 *(«')«"'', donc \^(R)(u-i)\ < £^,,1 \R(u% et R vérifiant (i) et (ii), cette dernière inégalité entraîne MR)("-j) h-1 , < < 1. (***) D'après (**), comme R est, a coefficients entiers, on a ———— 6 Z, donc, d'après (***), n d^ '^°—'- = 0, et, ceci pour tout j, 0 < j < n - 1. De (**) on en déduit R = 0 et, donc X" - 1 n divise P. Problème 2. 1/ Soit P G C[X] tel que Vn G N, P(n) G Z. a) Montrer que P G Q[X]. b) Plus précisément, si d = deg(P), montrer que d\P G Z[X], 2/ Soit F G C(X) une fraction rationnelle telle que pour tout entier n G N qui n'est pas un pôle de F, F(n) G Q. Montrer que P G Q(X). 3/ Soit P G C(X) une fraction rationnelle vérifiant : pour tout entier n G N qui n'est pas un pôle de F, F(n) G Z. Montrer que F est un polynôme de Q[X].
84 II. Corps, Polynômes et Fractions Rationnelles Solution. 1/ a) Si P est constant, le résultat est évident. Sinon d = deg(P) > 1. Considérons les polynômes d'interpolation de Lagrange -^=11( "T r ) Pour 0 < k < d, de sorte que si j € N, 0 < j < d, Lk{j) = 0 si j / « et Lk{k) = 1. Le polynôme Q = J2Î=o P(k)Lk prend les mêmes valeurs que P aux d+ 1 points 0,1,... , d. Autrement dit, P — Q s'annule en d+ 1 points. Or deg(P - Q) < d, donc P - Q = 0, et donc P = Q = £jj=0 P(/k)i* € Q[X] car P(fc) € Z et Lk€®[X]. b) Remarquons que d\Lk = (—l)d~k ' TT (X — «), et comme ,. ' . = Cj est un k.(d — k). 0<i^d k.(d—k). entier, d\Lk € Z[X]. Donc <Z!P = £f=0 P(k) ■ (d\Lk) € Z[X]. Remarque : On ne peut pas faire mieux. Par exemple, P = X(X — 1) ■ ■ ■ (X — d+ l)/d\ est de degré d et vérifie VngN, P(n) € Z. 2/ Nous allons en fait montrer le résultat, plus fort suivant. Si F 6 C(X) vérifie (3N > 0,Vrc € N, n > N, si n n'est pas un pôle de F, F(n) € Q) alors F Ç Q(X) (*). Si F = P/Q où P et Q 6 C[X] sont premiers entre eux, nous allons prouver (*) par récurrence sur r = deg(P) + deg(Q) (si F = 0, il n'y a rien à montrer). - r = 0. Alors P et Q sont constants et le résultat est évident. - Supposons le résultat vrai jusqu'au rang r — 1 et, montrons le au rang r. Quitte à considérer 1/jF, on peut supposer deg(P) > deg(Q). Soit a 6 N un entier suffisamment grand. Par hypothèse, P(a)/Q(a) est rationnel et si G = l X -a F(X)-?& Q(«) "Q °U PW" Q(a)(X-a) ' alors P* € C[X] et deg(P*) < deg(P). De plus Vrc, n > a, G(n) € Q. On peut donc appliquer l'hypothèse de récurrence qui entraîne G € Q(X). Donc F = (X - a)G + P(a)/Q(a) € Q(X). 3/ D'après 2/, F € <Q(X). Écrivons F = E + P/Q, où E, P et Q sont des polynômes de <Q[X] avec deg(P) < deg(Q). Quitte à multiplier F par un entier, on peut supposer E 6 Z[X]. Comme deg(P) < deg(Q) on a lim„_+OCJ P(n)/Q(n) = 0 et donc il existe N > 0 tel que pour tout n> N, \P(n)/Q(n)\ < 1. Or E € Z[X], donc pour tout n €N,n> N, P(n)/Q(n) = F(n) - E(n) € Z. Donc pour tout n € N, n > N, P(n) = 0. Donc P = 0 et donc F = E € Q[X] (à ce stade, il faut diviser E par la constante par laquelle on l'avait multiplié au départ, c'est pour cela que Ee®[x]y Problème 3. Soit P = Xn + ajX"-1 + • • • + an_1X + a„ e C[X]. On note p > 0 le plus grand des modules des racines de P, et on suppose que les a, ne sont pas tous nuls, de sorte que p ^ 0. 1/ a) Montrer que p < sup{l,^"=1 K|}. b) Montrer que p < 1 + sup1<j<n \at\. 2/ a) On pose f(x) = xn- (M r"'1 + ■■■ + |«„_!| x + K|) . Montrer que / admet une racine strictement positive a, que si 0 < x < a alors f(x) < 0, et que si x > a alors f(x) > 0. Prouver ensuite (21/" — l)a < p < a. b) Si R = supx<t<„ K|1/<:, montrer R/n < p < 2R. Solution. 1/a) Si p < 1, c'est terminé. Sinon, considérons « Ç C une racine de P telle que |a| = f>. On a -^j-Pfa) = 0 = « + m + — + • ■ ■ + -^ + -—ï a 1 a a i a" l
5. Problèmes 85 donc ce qui entraîne a2 a„_i a„ a = —ai - , = w<|ai|+H + ...+ M. w p p" x Comme p > 1, on en déduit p < \ax\ + \a2\+ 1- \an\. b) Si p < 1, c'est terminé. Sinon, en posant a = sup1<t-<n |a,|, l'inégalité (*) entraîne a a ( v^ 1 \ a «<aH 1 1 -<a|> — 1= — P~ + p^ V"1" \f?0P) l-l/p et donc p — 1 < a d'où p < 1 + a. 2/a) La fonction g(x) = f(x)/x" est une fonction croissante (somme de fonctions croissantes) strictement sur ]0, +oo[. De plus, elle vérifie lim g(x) = —oo et lim q(x) = 1. 1—0+ ' 1—+^ yV > Ceci montre qu'il existe a > 0 et b > 0 tels que g(a) < 0 et g(b) > 0. D'après le théorème des valeurs intermédiaires, il existe donc a > 0 (compris entre a et 6) tel que g{a) = 0. Comme g est strictement croissante, on a g(x) < 0 pour 0 < i < a et g(x) > 0 pour x > a. Comme f(x) = xng(x), on en déduit f(a) = 0, f(x) < 0 pour 0 < x < a, f(x) > 0 pour x > a. (**) Ceci étant, l'inégalité (*) entraîne f(p) < 0, d'où on tire p < a d'après (**). Il reste à prouver l'inégalité (21/" — l)a < p. L'expression des coefficients d'un polynôme en fonction de ses racines montre que Wk,l<k<n, M<C*/, donc n n v* > o, Y, M*"~* < Ec"pkxn~k = (p + XT - *"> *=1 k=l ce qui entraîne Vz>0, f(x)>xn-((p + x)n-xn) ='2xn - (p + x)n. Le terme 2x" — (p + x)" s'annule lorsque 21f"x = p + x, c'est-à-dire lorsque x = t . . Ainsi, / I ~y^j j > 0 et on en déduit grâce à (**) t|iie —^ > a, ce qui entraîne p > (21/" — 1) a. b) Pour montrer p < 2R il suffit de montrer a <2R d'après la question précédente. En vertu du principe (**), on se ramène donc à prouver que /(2.R) > 0. Par définition de R, on a |a^| < Rk pour tout k, 1 < k < n. Si r = 2R, on a donc \ak\ r"-k < r"/2*, d'où |a1|r"-1 + ... + |«„_1|r+ \an\ < r"(l2 + ■ ■ ■ + ±) < r", d'où /(r) = f(2R) > 0. - Montrons maintenant R/n < p. On a vu plus haut que |«t| < C*/>* pour tout iir, l < k < n. Oi C* = n ■ ■ ■ (n — k + l)/kl < nk, donc. \ak\ < nkpk, donc si 1 < k < n, -—' < p, d'où le résultat.
86 IL Corps, Polynômes et Fractions Rationnelles Problème 4 (Théorème fondamental de l'algèbre). Le but du problème est de prouver que tout polynôme de C[X] de degré > 1 admet au moins une racine dans C, c'est-à-dire que le corps C est algébriquement clos. 1 / Première méthode. Soit P G C[X], unitaire, deg(P) > 1. a) Montrer qu'il existe z0 e C tel que |-P(z0)| = inf*gc |-P(^)|- b) Montrer que P(z{,) = 0. 2/ Seconde méthode. Soit P G R[X] unitaire, d = deg(P) = 2"q avec q impair et d > 1. On veut montrer par récurrence sur n G N que P admet au moins une racine dans C. a) a) Montrer le résultat pour n = 0. f3) Supposons le résultat vrai jusqu'au rang n — 1. On sait (voir le théorème 5 de la partie 2.6, page 62) qu'il existe une extension de corps K de C et xi,... , xd G K tels que P = Ylf=i(X —Xi). Pour tout c G IR et pour 1 < i < j < d, on pose Vij(c) = Xi + Xj -\-cXiXj. Montrer que pour tout c G M, il existe (ia,jr) tels que 2/,c>jc(c) G C. 7) Montrer qu'il existe c G K tel que xic + yic et. xicyic G C. Conclure. b) En déduire le théorème fondamental de l'algèbre. Solution. 1/ a) Écrivons P = X" + aiX"-1 + ■■■ + <iniX + «„. Pour tout, z G C, on a P{z) = z"(l +^+ 1- f*-), donc lirri|z|_+KJ \P(z)\ = +00, et donc il existe M > 0 tel que pour tout. complexe z, \z\ > M, \P(z)\ > |P(0)|. Ceci entraîne inf|P(z)|= inf■ \P(z)\. Or K = {z G C, \z\ < M), fermé borné de C, est compact, et l'application z i-+ |P(z)| étant continue, il existe z() G K tel que |-P(zo)| = infzgx |-P(Z)|- On a donc |-P(zo)| = infzgc l-P(z)l- b) Raisonnons par l'absurde. Si |-P(zo)l / 0, posons «■^■^- Ici, tu = Q(0) = 1 et 6„ / 0, donc k = inf{« G N, 1 < i < n | 6,- / 0} existe bien. On peut d'ailleurs écrire Q(z) = l+bkzk[l + <p(z)] avec lim^(z) = 0. z—»0 Soit r > 0 tel que pour tout z G C, \z\ < r, \<p(z)\ < 1/2. Écrivons bk = \bk\eie, 0 G M.. Soit p G ]0, r[ et z = pe-,'('+,r)/i. On a Q{z) =l-\bk\pk[l + v(z)] d'où \Q(')\ < Il - N/l + \hpkv(z)\ < Il - |6*|p*| + \\bk\Pk. Quitte à diminuer p > 0, on peut supposer 1 — \bk\pk > 0 et donc IQ(*)l<i~N/<i. Ceci prouve que \P(z + Z(i)|/|P(z(i)| < 1, donc que \P(z + z„)\ < |P(z(|)|, ce qui est absurde car \P(z0)\ = infzeC \P(z)\. Donc \P(z„)\ = 0, d'où le résultat, 2/ a) a) Si n = 0, alors deg(P) = q est. impair. Le polynôme P étant à coefficient réels et unitaire, on peut écrire P{*) ~+~ x» et. P(x) ~.no a:» donc g étant, impair, lim P(x) = +00 et lim P(x) = —00. On en déduit qu'il existe a G K+ tel que P{a) > 0 et P(—a) < 0. Le fonction polynôme P étant continue sur E, d'après le théorème des valeurs intermédiaires il existe c ç] — <i,a[ tel que P(c) = 0. D'où a).
5. Problèmes 87 /?) Fixons c G E. Soit Q = rii<,<;<fi(-^ — J/«,;'(c))- Les coefficients de Q sont des polynômes symétriques à coefficients réels en les x,-, et donc (voir le théorème 1 de la partie 4.2, page 78) ce sont des polynômes à coefficients réels en les fonctions symétriques élémentaires des r.i, qui sont eux mêmes les coefficients de P donc réels; ainsi, les coefficients de Q sont réels, c'est-à-dire Q G E[X]. On a deg(Q) = Card{(»\ j), 1 < »' < j < d} = £;d=i(j - 1) = d(d - 1)/2 = 2"-lq(d- 1), où q{d — 1) est impair (car q est impair et d est pair). On peut, donc appliquer à Q l'hypothèse de récurrence, ce qui entraîne l'existence de («C je) tel que Vic,jc(c) G C. 7) Notons T = {(1, j) G N2,1 < i < j < d). D 'après la question /?), on peut construire une application E —♦ T ci-* (ir.,jc) telle que pour tout c€l, !/•',. ,;'c(c) € C Comme E est infini et T fini, cette application n'est pas injective donc 3c G E, 3c' G E, c / c', tels que (ic, jc) = («'c<, jc')- Posons (r, s) = (iCl jc). Du fait que (xr + x,) + c(xrxs)£C et (i^i.l + c'fy^C avec c / c', on tire S = xr + xa çC et P = xrr, € C. Les éléments xr et s, sont donc les racines de X2 — SX + P Ç C[X], ce qui permet facilement de conclure que xr 6 C et x, 6 C. Le polynôme P a donc au moins une racine complexe (on en a même trouvé deux, xr et xs). h) Le raisonnement par récurrence de a) prouve que tout polynôme à coefficients réels a au moins une racine dans C. On veut maintenant prouver le résultat clans C[X]. Soit F = J2i=u a>X' € <C{X]. On pose F = £,■_,, 7îîX%, et on voit que P = FF 6 E[X]. Le polynôme P admet donc au moins une racine complexe «, donc ^(0:)^(^) = 0, et donc. F(n) = 0 ou F(a) = 0. Si F(a) = 0, c'est terminé, sinon F(a) = 0 donc F(â) = 0, d'où le résultat. Remarque. La deuxième méthode, plus longue, présente l'avantage de n'utiliser qu'une simple conséquence de la topologie : tout polynôme de R[X] de degré impair admet une racine réelle, résultat connu au dix-huitième siècle. Problème 5 (Existence de nombres transcendants, nombres de Liouville). On rappelle qu'un nombre complexe a est algébrique sur Q s'il existe un polynôme P G l\X\ non nul, tel que P(a) = 0. Dans le cas contraire, a est dit transcendant. On se propose de prouver par deux méthodes différentes l'existence de nombres transcendants. 1/ Méthode non constmetiviste. Montrer que l'ensemble des nombres réels algébriques sur Q est dénombrable. Conclure. 2/ Méthode constructiviste. a) Soit « G E algébrique sur Q, racine de P G l\X], deg(P) = n > 0. Si a ¢ Q, montrer que 3a >0, %f)6ZxN', (Indication. On pourra remarquer que q"P(p/q) G Z.) b) (Nombres de Liouville). Soit a G E, a ¢ Q, tel que Mk G N*, 3(p, q) G Z X N*, q > 2 tel que a > —. P a 1 < (a est appelé nombre de Liouville). Montrer que a est transcendant, c) Montrer que a = J2t=» 10~*! est un nombre de Liouville. Solution. 1/ Pour tout n G N*, notons Zn[X] = {P G Z[X], deg(P) < n). L'application Z"+1 -» Z„[X] (a(i,... , a„) i-+ «0 + ■ ■ ■ + <inXn est bijective. Ainsi, Z"+1 étant dénombrable, Z„[X] est
88 IL Corps, Polynômes et Fractions Rationnelles dénombrable, et, donc Z[X] = U„6nZ„[X] est, dénombrable (réunion dénombrable d'ensembles dénombrables). Pour tout, P 6 Z[X], deg(P) > 1, l'ensemble noté R(P) des racines de P est fini. Si A désigne l'ensemble des nombres réels algébriques sur Q, on a donc AC U R(P) P€Z|X1 d.»<p)>l et, donc A est dénombrable (réunion dénombrable d'ensembles finis). L'ensemble des nombres réels n'étant pas dénombrable, on en déduit qu'il existe dans E des nombres transcendants. 2/ a) On a P(a) = 0 et, P n'a qu'un nombre fini de racines, donc (3r/ > 0), V* € [a - i/, « + ij], x / a, P(x) / 0. — Si p/q 6 [a -1/,(1 + ?/], alors p/q / a (car a £ Q par hypothèse), donc P(p/q) / 0. Or q"P(p/q) € Z, et ce terme étant, non nul, \q"P(p/q)\ > 1- D'après l'inégalité des accroissements finis, si M = supIgja_^ „+))] |/"(x)|, on a '(ï)I-Kï)-«-: <M donc >±- ~ M ■(ï) > Mg" - Si p/g ¢ [a - r/, a + rj\, alors |p/g - a| > ij > ij/q". On conclue de tout, ceci que a = inf {1/M, r/} convient, b) Supposons a algébrique. D'après la question précédente, 3n € N*, 3a > 0, V(p, q) € Z x N*, > 9" Fixons iir € N*, iir > i», tel que 2"~* < a. Par hypothèse, il existe (p, g) € Z x N", g > 2, tel que |a — p/g| < 1/g*. On a donc a/g" < |a — p/g| < 1/g*, donc a < q"~k < '2"~k < a, ce qui est absurde. Le nombre réel a est, donc transcendant. c) Le développement décimal de a n'est pas périodique, donc a ¢ Q. Soit n € N*. Le nombre p = 10"!(££=(l ÎO-*') est, un entier > 2, et avec g = 10"'-, on a g" = 10""! Y, 10~*! = Y, 10""!~*!- V*=n+1 / jfc=n+l Or, pour iir > n + 1, on a nn! — k\ = n\[n — (n + 1) ■ ■ ■ k] < n — k, donc +<*> +°" « i « S 2^ io 1-1/10 9 ' *=n+l *=n+l et donc g" < 1, c'est-à-dire et ceci est possible pour tout, n € N*. Finalement, le réel a un nombre de Liouville, donc transcendant. Remarque. Le résultat 2/ date de 1844 et est, historiquement la première preuve d'existence de nombres transcendants. Il n'admet pas de réciproque. Par exemple, ir est transcendant, et on sait que \ir -p/q\ < l/</14fi5 n'a qu'un nombre fini de solutions (Chudnovsky, 1984). 7T n'est donc pas un nombre de Liouville. - Le preuve 1/ est plus récente. Les notions d'équipotence introduites par Cantor datent en effet de la fin du XlX-ème siècle.
5. Problèmes 89 - S'il est relativement simple, avec 2/, de construire des nombres transcendants, il est beaucoup plus difficile de dire si un nombre donné est transcendant ou non. Le sujet d'étude 2 montre que e et ît sont transcendants. Problème 6 (Nombres algébriques). Soient K et L deux corps commutatifs, K étant un sous corps de L. On dit que a G L est algébrique sur K s'il existe P G Kpf], P ^ 0, tel que P(a) = 0. 1/ Pour tout a G L, on pose K[a] = {P(a), P G K[Jt]} et /„ = {P G K[Jt], P(a) = 0}. a) Soit a G L algébrique sur K. Montrer que K[a] est un corps, de dimension finie en tant que K-espace vectoriel. b) Montrer que si K[a] est de dimension finie en tant que K-espace vectoriel, a est algébrique sur K. 2/ Si Ki C K2 sont deux corps commutatifs, on note [K2 : BQ] G N* U {+00} la dimension de K2 considéré comme un BQ -espace vectoriel. a) Soient I, C K2 C 1¾ trois corps commutatifs. Montrer l'équivalence ([K2 : K,] < +00 et [K3 : K2] < +00) <*=> ([K3 : K,] < +00). On rappelle la notation de la partie 2.6. Si «!,..., a„ G L, on note K(ai,... , a„) le plus petit sous corps de L contenant K et al5... ,«„. Montrer que al5... ,a„ sont algébriques sur K si et seulement si [K^,... , «„) : K] < +00. c) Montrer que A, l'ensemble des nombres algébriques sur K, est un corps. 3/ Si L est algébriquement clos, montrer que A est algébriquement clos. Solution. 1/ a) L'ensemble /„ est un idéal de l'anneau principal K[X], donc il existe un unique polynôme P G K[X] unitaire tel que /„ = (P). Le polynôme P est irréductible dans K[X]. En effet, si P = QR avec deg(Q) < deg(P) et deg(iî) < deg(P), alors 0 = P(a) = R(a)Q(a) et donc. Q(a) = 0 ou R(a) = 0, donc Q ou R appartient à /„ = (P) ce qui est absurde car les degrés de Q et R sont < deg(P). (P s'appelle le polynôme minimal de a, deg(P) le degré de a). Soit l'application <p : K[X] -»L F >-+ F(<t). C'est un morphisme d'anneaux. Or Kei<p = Ia = (P), donc Im^> = K[a] est isomorphe à K[X]/(P). Le polynôme P étant irréductible, c'est donc un corps (voir proposition 4 de la partie 2.5, page 62) de dimension deg(P) en tant que K-espace vectoriel. b) Soit n la dimension du K-espace vectoriel K[a]. La famille (1, a,... , a") constitue un système de n + 1 vecteurs de K[a], ces vecteurs sont donc liés. Autrement dit, il existe *o» ■ ■ ■ ,1:n € K tels que x{) + Xia + - ■ +x„a" = 0, avec les (ï:;)(><«<ii non tous nuls. Donc si P — £2"_0 r-iX', P(a) = 0 et P / 0. Donc a est algébrique sur K. 2/ a) Condition nécessaire. [K2 : Ki] < +00 donc K2 est isomorphe comme Ki -espace vectoriel à Kj 2' . De même K3 est isomorphe comme K2-espace vectoriel à 1¾ 3' , a fortiori isomorphe comme Ki -espace vectoriel à 11¾ 3' (comme ^ C K2, tout isomorphisme de K2-espace vectoriel est un isomorphisme de K-espace vectoriel), donc isomorphe comme Ki espace vectoriel à (K[K2:K1]j(K3:K2]i donc a jjlK^Kd-tKaïK.] Don(. ^ . ^ _ ^ . ^ ^ . ^ < +oQ Condition suffisante. K2 C K3 donc [K2 : Ki] < [K3 : Ki] < +00. Montrons maintenant [K3 : K2] < +00, Comme [K3 : K^ < +00, il existe une base finie ei,... , e„ du K-espace vectoriel K3. On remarque alors que r.lt... , e„ est une famille génératrice finie de K3 vu comme un K2 espace vectoriel. Donc [K3 : K2] < +00. b) Condition nécessaire. Procédons par récurrence sur n G N*. Pour n = 1, c'est une conséquence de 1/. Supposons le résultat vrai au rang n, montrons le au rang n + 1. D'après l'hypothèse de
90 IL Corps, Polynômes et Fractions Rationnelles récurrence, [K(a,,.. . , a„) : KJ < +00. (*) a„+1 est algébrique sur K, a fortiori sur K(ai,... , a„). Le résultat 1/ reste évidemment vrai si on remplace K par K(ai,,.. , a„) C L, donc [K(fi!,... , a„)(a„+1) : K(ai,.., , »„)] < +00. Or K(ai,... , «n)(«n+i) = K(«i, ■ ■ ■ , «n+i), donc cette dernière assertion s'écrit [K(ai,... , a„+i) : K(ai,... , a„)] < +00. (**) De (*) et (**), on tire d'après 2/ a) [K(ai,... , a„+1) : K] < +00, d'où la condition nécessaire. Condition suffisante. Pour tout i, K[a,] C K(a;) C IK(ai,... , a„), donc K[a,] est un K-espace vectoriel de dimension finie, et donc a,- est algébrique sur K d'après 1/b). c) Soient (t.,y) 6 A2. On a K(r. — y) C K(x,y) donc comme \K(x,y) : K] < +00, on a [K(a; — y) : K] < +00, et donc x — y Ç A d'après 2/b). De même si y / 0, comme K^y-1 ) C K(:k, y), on tire xy~l € A. Finalement, A est un corps, 3/ Soit P = a,, + (txX + ■ ■ ■ a„Xn 6 A[X], P / 0. Le corps L étant, algébriquement clos,, il existe a 6 L tel que P(") = 0, et donc, d'après 1/a) appliqué au corps K(a(i,... , a„), K(fio,... ,an)[a] est un corps (donc égal à K(a(i,... , a„)(a) = K(a(i,... ,an,a)) de dimension fini commeK(ao, • • • , an)- espace vectoriel. Autrement dit, [K(rt(i,... ,a„,a) : K(au,... , a„)] < +00. Or [K(a0,... ,a„) : K] < +00 d'après 2/b), donc d'après 2/a), [K(a(i,... , a„, a) : K] < +00, et donc a 6 A d'après 2/b), d'où le résultat. Remarqtie. En particulier, l'ensemble A des nombres complexes algébriques sur Q est un corps algébriquement clos. On l'appelle la clôture algébrique de Q (c'est la plus petite extension de Q algébriquement close). Problème 7 (Théorème de Kronecker). Soit P e Z[X] un polynôme unitaire de degré n > 1 et irréductible dans Q[X]. On suppose que toutes les racines de P sont de module < 1. Montrer qu'alors P = X ou bien il existe k e N* tel que P \ (Xk — 1). (Indication. On pourra utiliser le résultat suivant, conséquence d'un exercice du tome d'Analyse : Si oGMxQ, alors (Ve > 0,3n e N*), \e2i*"a - 1| < e.) Solution. Soient ai,. .. , a„ les racines de P. Notons a € Z le terme constant de P. Le polynôme P étant unitaire, on a ai ■ ■ a„ = (—l)"a. S'il existe 1 tel que |a<| < 1, par exemple |<*i| < 1, alors \a\ = |ai| -1<*2 ■ ■ '«ni < |<*i| < 1, et comme a 6 Z, a = 0. Donc X divise P, et P étant irréductible et unitaire, P = X. Dans le cas contraire, on a |«;| = 1 pour tout «'. Considérons pour tout, entier iir > 1, le nombre xt = (af-l)(a*-l)...(«*-l). Pour tout iir, 71-* s'écrit comme un polynôme à coefficients entiers symétrique en les ai, et donc 7rfc 6 Z d'après la remarque 3 de la partie 4.2 (page 79). Nous allons montrer qu'il existe k tel que 71¾ = 0. Raisonnons par l'absurde et supposons que irk / 0 pour tout entier iir > 1. Comme 71¾ est entier, ceci entraîne Itt*| > 1 pour tout, k > 1. Comme pour tout i, |a* — 1| < |a,|* + 1 = 2, on a pour tout k 6 N* H-'l-M-if-U-H^- M De plus lo^l = 1 donc il existe 6 Ç M. tel que cti = e2**6. D'après l'indication et d'après (*), on a 6 6 Q, Donc il existe iir 6 N* tel que a\ = e2'"** = 1, donc 71¾ = 0, ce qui est contradictoire. Il existe donc k € N* tel que ît^ = 0, ce qui entraîne l'existence de 1 tel que a\ = 1, par exemple a\ = 1. Soit Xk — 1 = Pi ■ ■ ■ PT la décomposition de Xk — 1 en polynômes irréductibles unitaires de Q[^]. Comme «1 est racine de Xk — 1, il existe i tel que Pi(a\) = 0, par exemple Pi(ai) = 0. Ainsi, Pi et P ont o^ comme racine commune et ne sont donc pas premiers entre eux dans Q[X]
5. Problèmes 91 (l'égalité de Bezout UP\ + VP = 1 appliquée à ai mène à une contradiction). Ces polynômes, étant de plus irréductibles et unitaires, sont donc égaux. En définitive P = Pi divise Xk — 1. Remarque. Dans le second cas, P est un polynôme irréductible dans <Q>[X] divisant Xk — 1. C'est donc un polynôme cyclotomique (voir le problème 9). Problème 8 (Théorème de l'élément primitif). 1/ Soit K un corps commutatif de caractéristique nulle (donc K est infini) et L un surcorps commutatif de K. Le corps L est un K-espace vectoriel. S'il est de dimension finie, on veut montrer qu'il existe x G L tel que L = K[x] = {P(x), P G Kpf]}. a) Pour tout igL, montrer qu'il existe un unique polynôme unitaire de degré minimal Mx G K[A"] tel que Mx(x) = 0 (Mx s'appelle le polynôme minimal de x). Montrer que M, est irréductible dans K[A"]. b) Conformément à la notation de la partie 2.6, pour «!,..., am G L, on note K^,... , am ) le plus petit sous corps de L contenant K et «i,... ,«m. Soient x,y G L. On veut montrer qu'il existe z € L tel que K(x,y) = K(z). On sait (voir le théorème 5 de la partie 2.6, page 62) qu'il existe un surcorps M de L, commutatif, sur lequel MxMy soit scindé. Autrement dit, dans MfA-], on peut écrire p * Mx = ]J(X - xt), My = Y[(X - y,) (avec x = xuy = yx). .=1 ; = 1 a) Montrer qu'il existe t G K* tel que les nombres x,- + ty;- (1 < i < p, 1 < j < q) soient deux à deux distincts. /?) On pose alors z = x + ty. Montrer le pgcd de My(X) et Mx(z - tX) dans K(z)[A"] est X-y. j) Montrer que K(z) = M(x,y). c) Montrer qu'il existe x G L tel que L = E[x]. 2/ Montrer que ce résultat reste vrai si K est fini. Solution. 1/ a) Si n désigne la dimension du K-espace vectoriel L, les n + 1 vecteurs 1, x,... ,xn de L sont linéairement dépendants sur K. Donc il existe P G K[X], P / 0, tel que P(x) = 0, Donc Ix = {P G Kpf], P(x) = 0} est différent de {0}, L'ensemble Ix étant un idéal de l'anneau principal M[X], on voit qu'il existe Mx G M[X], unitaire, tel que Ix = (Mx), Tout polynôme P unitaire s'annulant en x est donc un multiple de Mx, Ceci suffit pour affirmer que Mx est l'unique polynôme unitaire de plus bas degré s'annulant en x, Supposons Mx = PQ avec P,Q € K[X], On a P(r)Q(x) = Mx(x) = 0 donc P(x) = 0 ou Q(x) = 0, donc deg(P) > deg^*) ou deg(Q) > deg(Mi), et donc Mx est irréductible dans M[X]. b) a) Les x,- sont distincts. En effet, Mx étant irréductible, Mx et M'x sont premiers entre eux dans K[X] (car deg(M^) < deg(Mi;) et M'x / 0, K étant de caractéristique non nulle). Donc il existe U, V G M[X] tels que UMX + VM'X = 1, égalité qui vaut aussi dans M[X]. Les polynômes Mx et M'x sont donc premiers entre eux dans WI[X] et n'ont donc, aucune racine commune dans M. On en déduit que Mx n'a que des racines simples et les X{ sont, donc, distincts. De même, les y;- sont distincts. Soit T = \ J* ~ *'', 1 < i, «' <p,l<j£j'<q\. L'ensemble V est fini et, K est infini, donc il L %' ~ %'' J existe t G K*, t £ T. Ainsi choisi, i convient, (l'égalité x,- + tyj = x,-. + <y;-. entraîne en effet t G T si j / j' et i = i' si j = j'). 0) Plaçons nous pour commencer dans Mpf]. Soit rj G M une racine commune de My(X) et Mx(z — tX). Il existe j tel que a = yj et, il existe i tel que z — la — x,-, et donc z = x,- + tyj donc d'après a), comme z = xi + it/i = x + ty, onai; = j et i/j = y, donc a = y. Par conséquent, dans
92 II. Corps, Polynômes et Fractions Rationnelles M, y est la seule racine commune à My(X) et Mx(z — tX). Ces polynômes étant scindés sur M à racines toutes simples, on en déduit que le pgcd de ces polynômes dans M[X] est X —y (*). Ceci étant, soit D(X) le pgcd de My(X) et Mx(z-tX) dans K(z)[X], On peut écrire My(X) = Pi(X)D(X) et Mx(z-tX) = P2(X)D(X) avec PïtP2€ K(z)[X] premiers entre eux dans W(z)[X]. Donc il existe U, V 6 K(z)[X] tels que UP\ + VP2 = 1, égalité qui vaut aussi dans Mpf], donc P\ et P2 sont premiers entre eux dans Mpf]. Le pgcd de My(X) et Mx{z — tX) dans M[X] est donc D(X), d'où le résultat demandé d'après (*), 7) D'après /?), y Ç K(z). La relation x = z — ty montre que x Ç K(z). Donc K(x, y) C K(z). Or z = x + ty donc K(z) C K(x, y). Finalement, on a prouvé que K(z) = K(ï, y). c) L'utilisation du résultat 1/)3)7) permet de montrer par récurrence sur m que si m,... , am 6 L, alors il existe z 6 L tel que K(ai,... , am) = K(z). Ceci étant, soit ai,... ,a„ une base du K-espace vectoriel L. On a L = K(ai,,.. , o„), et donc il existe z € L tel que L = K(ai,,.. , a„) = K(ï). Il reste à montrer que K(x) = K[a;]. Considérons le morphisme d'anneau <p : M[X] —* M[x] P 1-* P(x). Avec les notations de 1/a), on voit que Ker^> = {P, P(x) = 0} = Ix = (Mx). Comme <p est surjective, M[x] est isomorphe à M{X]/Kei <p — H^[X]/(MX) qui est un corps car Mx est irréductible (voir la proposition 4 de la partie 2.5, page 62). L'anneau K[a;] est donc un corps, et donc K(x) C K[a;], L'inclusion réciproque étant évidente, on a montré M[x] = K(x) = L. 2/ Si K est fini, L est. fini (c'est un K-espace vectoriel de dimension finie). On sait (voir la remarque de l'exercice 9 de la partie 2,5 du chapitre I, page 9) que (L*, •) est un groupe cyclique. Soit x l'engendrant, On voit facilement, que L = K[a;], Remarque. Cet exercice utilise le résultat suivant, qu'il est utile de garder en mémoire. Si P,Q G K[A"] et si L est un surcorps de K alors les pgcd de P et Q dans K[A"] et dans TL[X] coïncident. Problème 9 (Polynômes cyclotomiques). Pour tout entier naturel non nul n, on pose Un = {e2ik*/n, k € Z} C C. On dit qu'un élément x € Un est une racine primitive 71-ième de l'unité si x engendre le groupe multiplicatif U„. On note II„ l'ensemble des racines primitives n-ième de l'unité, et on pose ¢-= II(*-0 fen„ (polynôme cyclotomique d'indice n). On suppose connus les résultats de l'exercice 4 de la partie 1.4 (page 58) ainsi que ceux concernant (p, l'indicateur d'Euler. 1/ a) Calculer $p lorsque p est un nombre premier. b) Montrer que X" - 1 = Hd\n *<*• En déduire que pour tout n € N*, $„ € Z[X]. 2/ On veut prouver que les $„ sont irréductibles dans Q[AT]. a) Montrer que l'on peut écrire $„ = FiF2-Fr avec les F, G Z[X], unitaires et irréductibles dans Q[X]. b) Soit £ une racine de F\ dans C. Soit p premier, p \ n. Montrer qu'il existe i G N, 1 < i < r tel que F^?) = 0. _ c) Pour tout F = J2?={)akXk e Z[X], on pose F = ££=0"***_§ Z/pZ[X]Jx désignant la classe dans Z/pZ de x e Z). Montrer que pour tout F e Z[X], F(XP) = [F(X)]P. d) Montrer que dans Z/pZ[X], $„ n'est divisible par le carré d'aucun polynôme non constant. e) Montrer que i = 1, c'est-à-dire que -Fi(£'') = 0. f) Montrer que pour tout entier k premier avec n, Fi(Çk) = 0. Conclure.
5. Problèmes 93 Solution. 1/ Posons w = e2"/", de sorte que U„ =< w >. D'après la proposition 5 de la partie 2.2 du chapitre I (page 19), on a II„ = {uk, l < k <p— l,k An = 1}, et donc deg($„) = <p(n) où <p désigne l'indicateur d'Euler. a) Le nombre p étant premier, on a ici IIp = {uk, 1 < iir < p — 1} (où w = e2i*/p), et donc b) Soit w = e2*'/". Soit k, 0 < /k < n - 1. Soit tZ l'ordre de uk dans f/„. On a d \ n. Par ailleurs (uk)d = 1, donc w* 6 Ud, et uk étant d'ordre d, on a même uk € IIrf. On en tire (X — u/k) | $j, donc (X — uk) | ridU ^«*- Les w*, 0 < iir < n — 1 étant distincts, on en déduit que X" — 1 = n*=o(-^ ~u,k) \ Yid\n ®d- ^es polynômes étant de plus unitaires et de même degré (car Ed|„ deg($d) = J2d\n <p(d) = «). ils sont éga»x- Montrons maintenant par récurrence sur n 6 N* que $„ 6 7L\X\. Pour n = 1, c'est vrai car $i = X — 1. Supposons le résultat vrai jusqu'au rang ?i — 1 et montrons le au rang n. D'après l'hypothèse de récurrence, le polynôme P = Y[ «I» $d € Z[X]. Par ailleurs, on a X" — 1 = $„P (*). P étant unitaire, on peut effectuer la division euclidienne de X" — 1 par P dans Z[X] (voir la remarque 3 de la partie 1.3, page 55) : (3 Q, R € Z[X]), X" -1 = PQ + R avec deg(iî) < deg(P). Il y a unicité du couple (Q, R) dans C[X] dans dans 1\X], et donc d'après (*), R = 0 et $„ = Q. Donc $„ € 7l\X\% ce qui achève le raisonnement par récurrence. 2/ a) Soit $„ = G\ ■ ■ ■ Gr la décomposition de $„ en facteurs irréductibles unitaires de Q[^]. Pour tout i, il existe a,- 6 N* tel que a.Gj 6 7L\X\. On a ai ■ ■ ■ ar$„ = (<*iGi) • • • (arGr). En utilisant le lemme de Gauss (voir l'exercice 4 de la partie 2.4, page 58, dont on utilise les notations), on a r otx ■ ■ ■ ar = c(an ■ nr$„) = JJ c(aiGi). «=i Or pour tout i, le polynôme Fi = a,-G,7c(ajG,-) 6 ^[X] et on a $„ = Fi ■ ■ ■ Fr. Pour tout «', Fi 6 'Z\X\ est irréductible dans Q[X] et est unitaire puisque $„ est unitaire. b) L'élément £ est racine de F\ donc de $„, donc £ 6 II„. Or p est premier et p \ n, donc pAn = 1, et donc £p 6 II„, d'où £p est racine de $„. Il existe donc i tel que Fi(Çp) = 0. c) On montre cette relation par récurrence sur m 6 N, où m = deg(F). Pour m = 0, c'est évident. Supposons le résultat vrai jusqu'au rang m—1 et montrons au rang m. Ecrivons F = YlT=o a*-^ = G + amXm. D'après l'hypothèse de récurrence, on a G(X)P = G(XP). Or p_1 _i F = (G + «^TXm)p = V +ù^Xm" + J2cÏG^"~kX{p~k)m, k = l et comme pour 1 < ib < p — 1, p | G* et à^1 = Ti^T, on en déduit F(XY = G(X)P +«^Xmp = G(XP) +â^(XP)m = F(Xp). d) Supposons 4T = Q2P dans Z/pZ[X]. Si R = U *i» $<i € Z[X], on a X" — 1 = $ni2 d'après 1/b), et donc X" - ï = $„iî = Q25 (avec S = PR), d'où par dérivation nX"-1 = 2QC?S + Q2S' donc Q \ nX"'1. Donc Q | ni". Or Q \ (ni" — n) donc Q divise la différence, c'est-à-dire Q \ n. Oi p \ n donc n/ 0, et donc Q est constant. e) Comme F;(£p) = 0, F^X) et F,(Xp) ne sont pas premier entre eux dans Q[X] (l'égalité de Bezout U(X)Fi(X) + V(X)Fi(XP) = 1 avec U, V € Q[X] appliquée àX=( mène à une contradiction). De plus Fi est irréductible dans <Q[X] donc Fi(X) \ Fi(Xp) dans Q[X]. Comme
94 II. Corps, Polynômes et Fractions Rationnelles Fi est unitaire, Fi(X) divise Fi(Xp) dans Z[X] (voir la remarque 3 de la partie 1.3, page 55). On en déduit que FÏ(X) \ Ti(Xr) =_Ti(X)p. Ceci_étant, soit P G Z/pZ[X] un facteur irréductible de Fi dans Z/pZ[X]. On a P \ Fi(X)p donc P \ F{(X). Par conséquent, si i / 1, on voit que P | $„ = Fi • • • Fr, ce qui est impossible d'après la question précédente. On a donc i = 1. f) Soit k premier avec n. Ecrivons k = pxp2 ■ ■ -p,, les p,- étant des nombres premiers. Nous allons prouver par récurrence sur s que Fx(£k) = 0. Pour s = 1, c'est le résultat de la question précédente. Supposons la résultat vrai au rang s — 1 et montrons le au rang s. Comme Jb A n = 1, on a Pi ■ ■ -Ps-i A n = 1, donc d'après l'hypothèse de récurrence F\(Çpi"'p—1) = 0. Or p, A n = 1 donc Fi[(ÇPl"'p—1)p'] = Fi(Çk) = 0, ce qui achève le raisonnement par récurrence. Pour tout nombre premier iir premier avec n, on a donc F\(Çk) = 0. Or £ G II„ donc II„ = {£*, k An = 1}. Tous les éléments de II„ sont donc des racines de Fi, ce qui prouve que $„ = Fi, donc $„ est irréductible dans Q[X]. Remarque. Avec 1/a) et 2/, on retrouve le résultat 3/b) de l'exercice 4 de la partie 1.4 (page 58). Une jolie application des polynômes cyclotomiques est donnée à l'exercice suivant. Problème 10 (Théorème de Wedderburn : tout corps fini est commutatif). Pour faire ce problème, il est nécessaire de connaître la partie 1/ de l'exercice précédent ainsi que l'équation aux classes (voir chapitre I, partie 2.4). Soit K un corps fini. On veut montrer que K est commutatif. Pour cela, on procède par récurrence sur Card(K). Si Card(K) = 2, le résultat est évident. On suppose maintenant que pour tout corps L tel que Card(L) < Card(K), L est commutatif (*). Nous allons montrer que K est lui aussi commutatif. Nous raisonnerons par l'absurde en supposant K non commutatif. a) Soit Z le centre de K, c'est-à-dire Z = {x G K | Vy G K, xy = yx}. Montrer que Z est un sous corps de K puis si q = Card(2), prouver qu'il existe n G N, n > 2, tel que Card(K) = q". b) Pour tout x G K, on pose E* = {y G K | yx = xy}. Prouver qu'il existe un entier d divisant n tel que Card(K,;) = qd. c) Montrer que l'on peut écrire d|i> " où les Xd sont des entiers. d) En observant que le polynôme cyclotomique $„ divise (X" — 1 )/(Xd — 1 ) si d | n, d ^ n, montrer que K est commutatif. Solution, a) Nous aurons besoin du lemme suivant. LEMME. Soient Li C L2 deux corps finis, avec L.\ commutatif. Alors il existe keW tel que Card(L2) = (Card(L,))*. En effet, Li étant un sous corps commutatif de L2, L2 est un Li-espace vectoriel, de dimension finie k car L2 est fini. Le corps L2 est donc isomorphe comme Li-espace vectoriel à L*, et on en déduit que Card(L2) = Card(L^) = (Cardai))*. Ceci étant, on vérifie facilement que Z est un sous corps commutatif de K. D'après le lemme, il existe donc n G N* tel que Card(K) = (Card(Z))". Or K / Z (car K n'est pas commutatif alors que Z l'est), donc n > 1, d'où le résultat. b) On remarque ici aussi que pour tout x, K^ est un sous corps de K. Si Kx = K, alors on a Card(Kj;) = Card(K) = q". Sinon, IQ. est strictement inclus dans K et donc d'après (*), Kr est commutatif. On peut donc appliquer le lemme qui entraîne l'existence de iir G N* tel que
5. Problèmes 95 Card(K) = (Card(Kj;))*: (**). Par ailleurs, Z est aussi un sous corps commutatif de K^, donc, d'après le lemme il existe d 6 N* tel que Card(Kj;) = (Card2)d = qd. Avec (**), on trouve donc q" = Card(K) = (Card(Kr))*: = (qd)k = qdk. Donc n = dk, ce qui entraîne que d \ n, d'où le résultat. c) C'est l'équation aux classes appliquée au groupe multiplicatif (K*, ■). En effet, le centre de ce groupe est Z*. Avec, les notations de la partie 2.4 du chapitre I, on a CardCllC ) c"^) = ^- + EgS où Sx désigne le stabilisateur de x, c'est-à-dire St = {y € K* \ xy = yr.) = K£. D'après la question précédente, il existe donc d € N* divisant n tel que Card(Si) = qd — 1, et d / n (car x Ç 0' et 0' n Z* = 0). Si maintenant pour tout d \ n, Aj désigne le nombre de x Ç 0' tel que Card(5i;) = qd — 1, on peut réécrire l'équation aux classes sous la forme 1 = Card(K* ) = (, - 1) + £ A„ (£-1) . (***) d) Si rf | n, d / n, on a «I» J] $e | = $„ ■ (Xd - 1) donc $„ divise {Xn — l)/(X'' — 1) dans 1\X\. Ceci étant vrai pour tout diviseur d de n distinct vn i de n, $„ divise Yj ^<i*w T dans Z[X]. Comme de plus $„ divise X" — 1 dans 1\X\, il divise r (X" - _ <f|n d*n -"-ç^:! d*n dans Z[X]. Donc $„(g) divise ï"-l (*"-D-E*-ï7rï <f|n , et ce dernier égale q — 1 d'après (***). Donc |$„(?)| < g - 1. Or n > 2 donc |$„(g)| = n?en„ \l ~ £l > nr=i |5 — 1| > |? — l|i ce qui est absurde. Le corps fini K est donc commutatif. Le raisonnement par récurrence est ainsi achevé et montre que tout corps fini est commutatif. Remarque. Si on veut trouver un corps non commutatif, il faut donc que celui ci soit infini. Historiquement, le premier corps non commutatif découvert fut le corps des quaternions, par Hamilton en 1843. (Le corps H des quaternions est un surcorps de C. Ses éléments sont des quadruplets « + bi + cj + dk, munis de la loi d'addition usuelle et d'une loi de multiplication associative et distributive par rapport à l'addition, vérifiant ij = —ji = k, jk = —kj = i, ki = —ik = j et ï2 = j'2 = k2 = —1. Le lecteur motivé pourra bien sûr vérifier que l'on a bien affaire à un corps). Problème 11 (Polynômes de Tchébycheff et applications). Soit / = [-1,1]. On muni C(I, C) (espace vectoriel des fonctions continues de / dans C) de la norme ||. ||oo définie pour tout / e C(I, C) par H/H™ = supre/ \f(x)\. De même, si / : R -> C est 2n périodique, on note 11/11«, = supieK \f(x)\. Pour tout n G N*, on note T„ : I —* M x >-* cos[narccos(x)] et U„ = T„+l/(n + 1). On suppose connus les résultats sur les polynômes d'interpolation de Lagrange (voir la partie 2.4). 1/ Montrer que T„ et U„ sont des fonctions polynômes de degré n. Après avoir expliciter Un, calculer ||T„||«, et \\Un\\«,.
96 II. Corps, Polynômes et Fractions Rationnelles 2/ Soit n G N*. Pour 1 < i < n, on pose X; = cos I — ]. Montrer que tout polynôme V 2n } P G C[A"] de degré n — 1 peut se mettre sous la forme Tn(X) p(x)=±j:(-iy->y/r^p(Xi)±^i 3/ a) Soit P G C(I,C) une fonction polynôme de degré n - 1 telle que pour tout x G I, |Vl - x2P(x)\ < 1. Montrer que WPW^ < n. b) Soit S : M -> C Sh ££=1 //* sin(fc0) avec les fik G C. Si ||5||co = 1, montrer que V0 G IR \ 7rZ, 5(0) sin0 < n. 4/ Théorème de Bernstein. Soit </ : M -> C 0 >-* EL-« •W**, où les Xk G C. Montrer que Hff'lloo < n||fflU- 5/ Théorème de Markov. Soit P G C[A"], deg(P) = n G N*. On regarde P comme un élément de C(I,C). Montrer que \\F\U < «2||P|U- Solution. 1/ Soit x Ç I. Posons 6 — arccos(a;). On a [n/2] Tn(x) = & [(cos0 + «sin 0)"] = ^ (-1)*C** cos""2* 0sin2* 0 [n/2] [„/2] = £(-1)^ cos""2* 0(1 - cos2 0)* = YiClkxn-2\x2-\)k. *=(> jfc=0 Ainsi, T„ est, une fonction polynôme de degré n (son terme dominant, est 5Zo<2fc<n ^n* / 0). Donc ^ = Tn+i/(" + l) également,. n + 1 Si * 6 ] — 1,1[, on a ?^+i(z) = , • (—sin[(n + 1) arccos(a;)]), et donc V1 — x2 Un(x)=SÏn[^ + ^aXCtCZ{X)]. (*) sin[arccos(a;)J Sur /, comme Tn(x) = cos[narccos(a:)], on a \T„(x)\ < 1. Or T„(l) = 1, donc ||T„||oo = 1. Ceci étant, on montre facilement, par récurrence sur n que V0 G ffi, | sin(n0)| < n\ sin(0)|. D'après (*), on a donc, Vz G /, \Un(x)\ < n + 1. Or linu-i Un(x) = n + 1. Donc ||î/„||oo = n + 1. 2/ Si 1 < « < n, on a T„(xi) = c.os[narccos(;Ej)] = cos[(2t — l)7r] = 0. Les n valeurs distinctes (*i)i<t<n sont, donc des racines de T„. Or deg(T„) = «, donc il existe A / 0 tel que Tn(X) = \(X -Xl)...(X-xn). La théorie des polynômes d'interpolation de Lagrange permet, d'affirmer (voir 2.4) qu'il existe un unique polynôme de degré < n — 1 valant, P(r-i) en r.{. Ce polynôme est donc P et on a (voir la remarque de la partie 2.4) : ™-r-w£<3n3fe>- Or T^(xi) = nU„-i(xi) = (-îy^n/y/l - xf d'après (*), d'où le résultat. 3/ a) L'égalité précédente montre que V*€/n{«, *„}, \P(t.)\<-J2 n «=l X — Xl
6. Sujets d'étude 97 Si s € ]xi, 1], on a pour tout, i l'égalité Tn{x) Xi Tn(x) car T„(x) > 0 et x — Xi > 0, donc n 'r-' x — x. «=l On montrerait de même que sur [—1, *„[, |.P(x)| < n. Si maintenant x Ç [x„, x{\, alors » \2n/ i 2n n (l'inégalité sin# > ^8 sur [0,7r/2] se montre facilement, par exemple en utilisant la concavité du sinus sur [0, t/2]), donc |-P(:n)| < l/\/l — *2 < «, d'où le résultat. b) L'expression (*) donnant U„ s'écrit aussi V0 € R \ îtZ, Un-i(cos0) = sin(n0)/sin(0). Si P désigne le polynôme £2£=1 HkUk-i, P est degré < n — 1 et vérifie P(c.os0) = S(6)/smd pour 0 £ 7rZ. OrJISjjno = 1, donc pour tout 6, |P(cos0)| • | sin0| < 1, ce qui entraîne que pour tout x Ç I, \P(x)\y/l — x2 < 1. Donc d'après la question précédente, on a ||.P||oo < n, ce qui entraîne que pour tout 6 ¢ izZ, |S(0)/sin0| < n. 4/ Fixons do € R. Quitte à diviser g par HffHou, on peut supposer \\g\\cu = 1 (si g = 0, le résultat est évident). Soit 5 l'application définie sur R par S(0) = \[g{9o +6)-g(60 -6)]. Comme i[ci('0+')- ct'(»0-»)] = i(sin e)e*'*", on voit que 5 a la forme de 3/b), et donc si 6 ¢ irZ, |S(0)/sin0| < n. On en déduit \g'{6o)\ = limM = limM <„. Ceci est vrai pour tout do € R, d'où le résultat. 5/ Là encore, quitte à diviser P par ||P||oo, on peut supposer H-PII™ = 1 (le cas P = 0 est évident). Posons g(8) = P(c.os8) = P[(e'e + e~'*)/2]. Cette application a la forme de l'application g de 4/, et donc, on a V0 6R, \g'(0)\ = |sin0||P'(cos0)l <n. Cette inégalité entraîne que sur [—1,1], on a yl —**|/"(*)| < n, donc d'après 3/a), |.P'(x)| < n2 sur /. D'où le résultat. Remarque. Les polynômes T„ (resp. Un) s'appelle les polynômes de Tchébycheff de première espèce (resp. de deuxième espèce). - La lecteur pourra facilement vérifier que : - Pour 4/, (Hff'IU = nllfl-l^) <=» (37 € C, g{9) = 7 sin n9). - Pour 5/, (||P'|U = n2||P|U) «=> (37 € C, P = 7r„). 6. Sujets d'étude Sujet D'ÉTUDE 1. Soit p un nombre premier. Pour alléger les notations, on pose Fp = Z/pZ. 1/ Soit K un corps commutatif contenant Fp. Montrer que pour tout R € FP[A"] et pour tout î; € K, on a pour tout n € N la relation R(x''") = (R(x))p . 2/ a) Soit Q € FP[A"] irréductible dans FP[A"] de degré d. Soit n € N*. Montrer que Q | (Xp" — X) si et seulement si d \ n.
98 II. Corps, Polynômes et Fractions Rationnelles b) Pour tout n € N*, on note A'p l'ensemble des polynômes unitaires irréductibles de FP[A"], de degré n. Montrer que *p"-*=n(neV 3/ Pour tout n € N*, on note I£ = Card(A'p ). a) Montrer que p" = £d|„ dld. b) Montrer que pour tout n € N*, l£ ^ 0. 4/ Une application aux corps finis (on rappelle que tout corps fini est commutatif, voir le problème précédent). a) Soit K un corps fini. Montrer qu'il existe un nombre premier p et un entier n € N* tels que Card(K) = p". Réciproquement, si p est un nombre premier et si n € N*, montrer qu'il existe un corps fini K de cardinal p". b) Soit K un surcorps de Fp tel que Card(K) = p" avec n € N*. Soit P € K£. Montrer qu'il existe x € K tel que P{x) = 0. c) En déduire que deux corps finis de même cardinal sont isomorphes. Solution. 1/ Le corps K contenant Fp, il est de caractéristique p. Ceci étant, pour tout x,y € K, on a />-1 (x + y)P = *" + »»•+£ Ckpxkyn-k = xp+tf *=i car si 1 < k < p — 1, p | Cp et K est de caractéristique p. Par récurrence sur n 6 N*, on en déduit que pour tout entier n 6 N, (x + y)p = xp +yP , puis par récurrence sur k, on montre que pour tout (xi x/c) € K*, pour tout n 6 N, (*i + • ■ ■ + Xk)p" =xf + ■■■+ xpk". Par ailleurs, pour tout « Ç Fp, ap = a donc, (par récurrence), pour tout n Ç N, ap = a. Ceci étant, soit R = a0 + a^X H 1- a,iXd € Fp [X]. Pour tout x € K„ on a \l'=0 / 1=0 1=0 2/ a) Le polynôme Q étant irréductible dans F,,[X], K = WP[X]/(Q) est un corps ; K est d'ailleurs un Fp-espace vectoriel de dimension d, donc isomorphe (comme Fp-espace vectoriel) à F|J, d'où Card(K) = Card(ff^') = pd. Le groupe multiplicatif K* est donc d'ordre pd — 1, et donc pour tout d . . d 3/€lC*,î/p~1 = l,ce qui entraîne que pour tout y Ç K, t/1 = y, et par récurrence sur iir : Vy € K, V* € N, y"" = y. (*) Ceci étant, montrons l'équivalence demandée. Condition suffisante. Supposons cl | n. En notant X la classe de X dans le corps WP[X]/(Q) = K, on a d'après (*), X = X pour tout k 6 N. Comme cl \ n, on en déduit X = X, c'est-à-dire Q | (Xp" -X). _ Condition né.ctssaiu;. Supposons Q \ (Xp* — X), c'est-à-dire X = X. Soit y 6 K. Il existe R € ¥P[X] tel que y = R{X), donc ;/" = R(xy" = R(XP'') = R(X) = y (**). Effectuons maintenant la division euclidienne de n par cl : n = qcl + r, 0 < r < cl — 1. La relation (**) s'écrit (j/P* yr = y, et d'après (*), on a y?' = y. On a donc if'~l = 1 pour tout y 6 K*. Or K*, sous groupe multiplicatif fini d'un corps commutatif, est cyclique (voir la remarque de l'exercice 9 de la partie 2.5 du chapitre I, page 26). Il existe donc y 6 K* d'ordre pd — 1. Or on a vu que y^-1 = 1. comme 0 < r < d, ceci entraîne r = 0, c'est-à-dire cl | n.
6. Sujets d'étude 99 b) Commençons par montrer que Xp* - X est sans facteur carré non constant dans FP[X]. Supposons X?" = Q2P, avec P, Q € Fp [X]. Par dérivation, on a p"**"-1 - 1 = 2QQ'P + Q2P' donc Q | (pnXP"-1 - 1) = (-1) (pn = 0 dans Fp), et donc Q est constant. Le résultat précédent entraîne que dans la décomposition de Xp — X en facteurs irréductibles de FP[X] : Xp — X = ]fl«=i Qf'i on a ttj = 1 pour tout z. Or d'après la question précédente, pour tout i on a Qt € Kj| avec <Z | n. On en tire (X?" - X) \ \\dSn (jlqeKÎ Q)- Pour tout entier d, d \ n, et pour tout Q Ç K^, on a Q | (Xp — X). Ces facteurs Q étant irréductibles, ils sont premiers entre eux deux à deux, et donc fldin (rToçK* Q) I (Xp* ~ %)• ®n conclue à l'égalité en remar(|uant que ces polynômes sont unitaires. 3/ a) Cette relation se déduit de 2/b) en passant aux degrés. b) 3/a) entraîne que pour tout n € N*, ni" < ^2*n dlp = p". Si on fixe maintenant n 6 N*, on en déduit nIP = p"- £dIp>p"-Ep^p"-X>d = p"- ™T > °- d\n d\n 4-1 P d*n d*n 4/ a) Soit p la caractéristique de K. On a p / 0 car K est fini, et p est premier (voir la partie 1.1 proposition 1, page 54). Notons e l'élément unité de K. L'application <p : 7L —* K n *-* ne est un morphisme d'anneaux et Ker <p = pZ. Si "K =Im <p C K, K* est isomorphe à Z/Ker ^ = Z/pZ = Fp et c'est donc un sous corps de K isomorphe à Fp (K* s'appelle le sous corps premier de K, voir la partie 1.1, définition 4, page 54). Le corps K apparaît alors comme étant un "K espace vectoriel, de dimension finie n car K est fini. Le corps K est donc isomorphe (comme K*-espace vectoriel) à S", donc Card(K) = Card(K'") = (Card(K'))" = (Card(Fp))" = p". Réciproquement, soit p un nombre premier et n 6 N*. D'après 3/6), K" / 0. Soit P Ç K£. K = Fp [X]/(P) est un corps (car P est irréductible), de cardinal p" car K est un Fp espace vectoriel de dimension n. b) Le groupe multiplicatif K* étant de cardinal p" — 1, pour tout iÇK*, xpn~l — 1, donc pour tout i€K, xp" = x. Autrement dit, les éléments de K sont tous racine du polynôme Xp —X. Le degré de ce polynôme étant p" = Card(K), on en déduit que les racines de Xp. — X sont exactement les éléments de K. Or d'après 2/b), P \ (Xp° - X), donc il existe s € K tel que P(x) - 0. c) Soit P0 6 K?, soit K Un corps de cardinal p". La caractéristique de K est p (en effet, c'est un nombre premier qui de plus divise p" car (K, +) est un groupe d'ordre p"), et on a vu au 4/a) que Fp est isomorphe à un sous corps de K. Autrement dit, à un isomorphisme près, K est un surcorps de Fp, et donc d'après 4/b), il existe xQ Ç K tel que Pu(x0) = 0. Soit $ le morphisme WP[X] -> K Q >— Q(x0). On a Ker $ = {Q € ¥p[X], Q(x(t) = 0}. C'est un idéal de Fp [X] donc principal. Soit P unitaire tel que Ker $ = (P). On a Pa € Ker $ = (P) et Pq est irréductible, donc P = P0, et donc Ker $ = (Pa). Donc Im $ est isomorphe à Fp[X]/Ker$ = Wp[X]/(Pa). Ce dernier est un Fp-espace vectoriel de dimension n, donc, de cardinal p", et donc Im $ est de cardinal p". Or Card(K) = p", donc Im$ = K En résumé, K est isomorphe au corps WP[X]/(P0), et ceci pour tout corps K àp" éléments. Deux corps de même cardinal sont donc, isomorphes. Sujet d'étude 2 (Transcendance de e. et de tt). 1/ Si F € C[A"], (deg(F) = n), on définit (avec F^ = F par convention) : +00 n V(F) = £ l*** = £ l*** = F + F' + ■■■ + f<nK
100 IL Corps, Polynômes et Fractions Rationnelles a) Si F € C[A"] et a € C, montrer que eaV(F)(0) = a f e"*-1'*)F(at) dt + V(F)(a). Jo b) Soit Q e Z[X] et p € N, p > 2. Si F(X) = Q(X)Xp-l/(p - 1)!, montrer que V(F)(0) est un entier vérifiant V(F)(0) = Q(0) (mod p). 2/ (Transcendance de e). On rappelle qu'un nombre transcendant est un nombre non algébrique sur Q. Supposons e algébrique. Alors il existe Q € Z[A"], Q ^ 0, tel que Q(e) = 0. Soit n = deg(Q). Pour tout nombre premier p, on note FP(X) = j^i[(X-l)---(X-n)r. a) Si k € N, 1 < k < n, montrer que V(F)(k) est un entier divisible par p. b) Si k € N, 1 < k < n, montrer que lim / e^-^FJkt) dt = 0. P — + CXJ J„ c) Conclure. 3/ (Transcendance de ir). Supposons ir algébrique sur Q. a) Montrer qu'alors in est algébrique. H existe donc Q = dX" + d^"-1 + ■ ■■+dn_lX + dn € Z[X], d ^ 0, tel que Q(iir) = 0. Soient o^,... ,w„ les racines de Q, de sorte que Q = d(X — o^) • • -(X — w„). b) Si $ € Z[A"i,... ,Xn] est symétrique, montrer que $(dwx,... ,dw„) est un entier. Comme il existe k tel que uk = iV, on a n*=i(l + e"") = 0, ce qui en développant s'écrit aussi 2"-l 1 + Y, e"' = 0. ;=i «!,... ,a2n_! étant les nombres de la forme ^,g/W,-, / étant une partie non vide de {1,... ,n}. Supposons que C de ces 2" — 1 nombres soient nuls. Si m = 2" — 1 — C, on peut, quitte à renuméroter, supposer que les a; non nuls sont o^,... ,am. c) Montrer que si un polynôme $ € Z[A\,... , Xm] est symétrique dans TL\XX,... , A"m], alors $(</<*!,... , dam) est entier. Pour tout nombre premier p, on pose ,/mp+p-l Vp-1 ^(*>= (yi)! p-".)-(^-Mr- d) Montrer que £2™=1 P(-Fp )(<**) est un entier divisible par p. e) En procédant comme au 2/, conclure. Solution. 1/ a) On pose /(<) = e-aiV(F)(at). Comme V(F)' = D(F) - F, on a pour tout < € [0,1] : /'(<) = -ae-atV(F)(at) + ae-°tî)(F)/(a<) = -ae-atF(at), et donc par intégration /(1) - /(0) = —«/o e_a<F(a<)f/<, d'où le résultat, compte tenu de la valeur de /. b) Ecrivons Q = Ylk=a akXk, de sorte que F — 2_^ a*- r^. Alors 2>(F)(o) = fi «* (^!7V1)! = «o+£ «t(*+P - 1) • • -P, donc V(F)(0) est, un entier qui vérifie 2>(F)(0) = a„ = Q(0) (mod p).
6. Sujets d'étude 101 2/ a) Fixons k 6 N, 1 < iir < n. Si G(X) = FP(X + k), on voit facilement que G a la forme yp-i G(X) = _ [X ■ H(X)] avec H € Z[X], donc d'après 1/b), N = 2>(G)(0) = V(Fp)(k) est un entier vérifiant N = 0 (mod p). b) Si * € [0,1], ek(-l-V\Fp(kt)\ < ekkP-l[nn]P/(p- 1)!, donc / ek(-l-^Fp(ki)dt Jo Or limp_.+00[fcnn]p-7(p- 1)! = 0, d'où 2/b). c) Ecrivons Q = a0 + a\X H 1- anX", avec Q(e) — 0 et Q / 0. Quitte à diviser Q par X, on peut supposer a0 / 0. Pour tout nombre premier p, on pose 5p =Yjakk j ek(-l-*ÏFp(kt)dt et. Tp = £a*D(Fp)(fc). D'après 1/a), on a ELo«*e*]^(^.)(0) = $p + TP. Or ££=0ate* = Q(e) = °> donc 5p +tp = 0 (*). D'après 2/a), pour k € N, 1 < k < n, on a 2>(Fp)(fc) = 0 (mod p) donc d'après 1/b) : n Tp = £a*2>(Fp)(fc) = oo2>(Fp)(0) = a0(-lf"(n\f (mod p). *=o Or a0 / 0, et donc pour tout nombre premier p supérieur à max{|a0|, n}, on a Tp ^É 0 (mod p). Tp est donc un entier non nul, et vérifie donc \TP\ > 1. Or d'après 2/b), limp.,,» Sp = 0, ce qui est absurde d'après (*). Le nombre réel e est donc transcendant. 3/a) Avec le résultat du problème 5, c'est immédiat. En effet, l'ensemble des nombres algébriques étant un corps, si ir est algébrique, comme i est algébrique (racine de X2 + 1), iir est algébrique. Nous allons cependant montrer ce résultat sans utiliser ce "bulldozer". Le nombre ir étant algébrique, il existe n 6 N* et af a„ 6 Z, a„ /0, tels que aa+a.\iz-\ \-anizn = 0. Si 6 = iir, on a (a(l - a262 + •••)- «'(«10 - «303 + •••) = 0, et si Q = (a0 - a2X2 + ■ • )2 +(a,X - a3X3 + • • )2 Ç Z[X], on a donc Q(B) = Q(iir) = 0 et Q / 0. D'où le résultat. b) Les nombres complexes (lui,... , r/w„ sont les racines du polynôme dn~lQ(X/d) = X" + t^X"-1 + dd2X"~2 + • • • + dn~2dn_2X + fi"_1rf„ = R(X). Ce polynôme est unitaire à coefficients entiers, donc tout polynôme symétrique en les racines de R(X) à coefficients entiers, est entier (voir la remarque 3 de la partie 4.2, page 79), d'où le résultat. c) Le polynôme $ étant symétrique dans 7L\X\ Xm], il existe P 6 "%*[X\,.,. , Xm] tel que $ = P(£i,... ,Em), les £j désignant les fonctions symétriques élémentaires de 7L\X\ Xm]. Si maintenant on note £(■ les fonctions symétriques élémentaires de T\X\,... , X2n_l]t on vérifie facilement que si 1 < i < m, ffi - Y,i(dati,... ,dam) = E(.(rf«i,... ,r/«m,0,... ,0) = Z'i(dan,... ,rfa2"-i). Si pour tout / C {1 n), I / 0, on note M/ = 52ig/ -X,', on voit que le polynôme Qi(Xi Xn) = £; [(M/) ,C(. ..i ] € Z[X, Xn] (l'ordre des variables M/ n'a ici pas d'importance puisque £(■ est symétrique) est symétrique dans 7L\X\,... ,X„]. Les dan étant les Mi(du\,.,, ,dun), on voit que ffi = E^fto, r/<*2»-l) = Qi(dwi, ... , du„) et donc ffi 6 Z d'après 3/b) puisque Q,- est symétrique dans Z[Xi,... ,.Xn]. Finalement, on voit que $(^,, ■ • ■ , <h*m) = ^(<Ti, ■ . . , ffm) n „i < n e : (*"") n\p-l (p-1)!
102 II. Corps, Polynômes et Fractions Rationnelles est un entier. d) On peut aussi écrire FP(X) sous la forme Fp(X) = , l ,^(dX)"~l KdX ~ <M • ~(dX ~ dam)T ■ (**) (p- 1)! Un peu d'attention montre alors que le polynôme G(X) = (p — ljl^jlj FP(X + at) a pour coefficients des polynômes symétriques à coefficients entiers en les (atk)i<k<m, et donc d'après 3/c), G(X) e Z[X\. Or pour tout k, 1 < k < m, X? \ FP(X + ak), donc X? \G(X), et donc il existe H € Z[X] tel que G{X) = XPH{X). Finalement, on amontré que F(X) = ^y ££_, Fp(X+ak) a la forme F(X) = ^yH(X), et donc d'après 1/b), m WW = SWX"*) = ° (mod p)- e) La relation de la question 3/b) s'écrit ((7+1)+ Y^ï e"' = ° avec C e N et d'aPres Va)> en posant m -i m Sp=5>*/ e-'O-OFpM*. ^ = (^ + ^(^-)(0), ^ = ^^(^)(^)- on a 5P + Tp + î/p = 0 (***). Or pour tout iir, pour tout p, pour tout < 6 [0,1], I iimp+p-l Jufp-l RP~l lFp{akt)l - (p-iy. [(2M)T = Mr(2M)m(^ij! où M = sup1<jfc<„ |«t| et K = \d\m+l M(2M)" sont des constantes. On en déduit que £• e°rt-*)Fp(akt)dt <eM\d\m('2My K? ■ ï (P-I)î' et donc limp_+OCJ /(| e"k(l~*îFp(akt) dt = 0, et ceci pour tout k, donc. lim Sv — 0. (****) p — +no D'après (**), on peut écrire Xp-> /^ (p-l)! où pour tout /, ai est un polynôme à coefficients entiers symétriques en «i,... ,am, donc d'après 3/c) les at sont entiers. Par ailleurs, on vérifie facilement que <io = (—l)mpdp~l(dai ■■■dam)p — df'1!? où L = (—l)m(f/«1 ■ • -dam) est une constante, entière d'après 3/c). D'après 1/b), on voit donc que î>(Fp)(0) est un entier vérifiant î>(Fp)(0) = rio (modp). Finalement, on obtient Tp = (C + l)a(l = (C + l)dp-lLp (mod p). Comme de plus Up = 0 (mod p) d'après 3/d), on voit que Tp + Up = (C + l)dP~l Lp (mod p). Donc si p > sup{(7 + 1, d, L) est un nombre premier, Tp + Up est un entier non nul, donc \TP + Up\ > 1. De (***), on tire alors |5p| > 1, ce qui est absurde d'après (****), Le nombre ir est donc transcendant. Remarque. On peut montrer par des méthodes analogues que si les a, et /¾ sont algébriques, alors J2atefii ¥" 0 (résultat dû à Lindemann en 1882). - Il serait indécent de parler de nombres transcendants sans citer le célèbre théorème de Gelfond-Schneider (1934). 5*i a et P sont algébriques, a ¢ {0, l}, fi ¢ Q, alors a? est transcendant.
7. Le nombre iz 103 - Actuellement, on connaît peu de classes de nombres transcendants. On sait que e, tt, log2, log3/log2, e", T(l/4) sont transcendants, mais on ne sait même pas si 2e, 2", ize, e + 7r ou 7 (constante d'Euler) sont irrationnels. - A propos de nombres irrationnels, on peut démontrer assez facilement que tt2 (donc tt) est irrationnel (voir le chapitre intégration du tome analyse). Si ce résultat est une conséquence immédiate de la transcendance de ir, il n'en reste pas moins que la démonstration de la transcendance de tt est assez douloureuse. - En démontrant la transcendance de tt, Lindemann résolvait le célèbre problème de la quadrature du cercle : Pendant longtemps, on a essayé, à partie d'un cercle, de tracer à l'aide d'une règle et d'un compas un carré ayant même aire que celle du cercle. Le transcendance de tt montre que ce problème est insoluble (on montre en effet que tout points construit avec une règle et un compas à partir du cercle unité a des coordonnées algébriques). Ce problème n'est qu'un exemple parmi d'autres qui illustre la fascination qu'exerce le nombre tt sur les mathématiciens. Profitons de cet instant pour présenter les grandes lignes de l'histoire du nombre tt et de son calcul. 7. Le nombre -k 7.1. Une petite histoire de tt Très tôt, l'homme a essayé d'estimer le périmètre d'un cercle à partir de son rayon. Un papyrus égyptien datant de 2000 ans avant notre ère donne pour tt l'approximation (16/9)2 = 3.1604 D'autres estimations furent également données, comme 3, 3 + 1/8, 3 + 1/7, notamment par les babyloniens. Enfin, de manière implicite dans la bible, on trouve l'approximation ir ~ 3. Des considérations plus mathématiques sont ensuite apportées par les grecs. Archimède (287-212 avant JC), à partir de polygones inscrits et exinscrits à 96 côtés autour d'un cercle, donne l'estimation 3 + 10/71 < n < 3 + 1/7. Plusieurs variantes de la méthode d'Archimède furent par la suite utilisées; Ludolph van Ceulen (1540-1610) calcula ainsi correctement 34 décimales de ir. François Viète (1540-1603) donna lui l'expansion 2 /T /ï 1 fî 1 1 /ï 1 fî ^ = V2-V2 + 2V2-^2 + 2V2+2V2--- qu'il put obtenir en considérant l'aire de polygones inscrits à 2" côtés (voir la partie sur les suites du tome d'analyse). John Wallis découvrit, en 1655 la formule (voir tome Analyse, chapitre intégration) 2-4--- (2-/t) — = lim 2 n-+oo 2n + 1 3-5--(2n-l) Cependant, ces suites ont une convergence relativement lente. Une nouvelle ère arrive avec le mathématicien écossais James Gregory( 1638-1675) qui en 1671 montra arctanx tx dt x3 x- x' ce qui, en remplaçant x par 1, donne
104 II. Corps, Polynômes et Fractions Rationnelles formule découverte indépendamment par Leibnitz en 1674. Avec x = 1/V% la formule (I) donne 7T _ J_ / 1_ _1 1_ \ 6 ~ v'â V _3~3 + 32-5~ 33-7 + '"J' série utilisée au début du dix-septième siècle par Abraham Sharp sous la direction de l'astronome et mathématicien E. Halley (oui, celui de la comète!) pour calculer 71 décimales de 7T. John Machin (1680-1752) établit la formule 7T 1 1 - = 4 arctan(-) - arctan(—). (II) Grâce à (I), la formule (II) donne une formule très efficace pour calculer n. Machin calcula ainsi 100 décimales en 1706. La même année, William Jones dans A new introduction to the mathematics utilisa la lettre ir pour désigner le rapport de la circonférence au diamètre du cercle. Ce fut cependant Léonard Euler (1707-1783) qui rendit le symbole populaire. Euler détermina de nombreuses relations impliquant ir, parmi lesquelles 6 ~ 2-j n2 ' 90 _ 2-j n4 " (Voir aussi le tome analyse sur les séries de Fourier). Au milieu du XlX-ième siècle, on calculait toujours ir avec des formules du type de (II). En 1844, Johann Dase, calculateur prodige, utilisa la formule 7T 1 1. 1. — = arctan(-) + arctan(-) + arctan(-) 4 2 5 8 pour calculer 205 décimales de tt. Le record du calcul de tt sans l'aide de machines fut atteint par William Shanks (1812-1882) qui publia 607 décimales de n; mais seulement les 527 premières étaient correctes. Plus tard, en 1853, Shanks publia 707 chiffres; comme précédemment, seules les 527 premières décimales étaient correctes. L'erreur de Shanks fut découverte en 1947 quand D. F. Ferguson calcula 530 décimales puis 808, utilisant une calculette de bureau et la formule 7T 1 1 1 - = 3arctan(-) + arctan( —) + arctan(^g). Arrive alors l'ordinateur et avec lui, des records de plus en plus extraordinaires. En juin 1949, PENIAC permet de calculer 2037 chiffres de ir grâce à la formule de Machin (II). Toujours avec la même formule, Genuys calcula 10.000 décimales en 1958 en 100 minutes. En 1961, D. Shanks et Wrench, utilisant l'identité — = 6 arctan(-) + 2 arctan(— ) + arctan(—-) (III) 4 8 57 239 calculèrent 100.000 décimales en moins de 9 heures. La calcul fut vérifié avec la relation — = 12 arctan(—) + 8 arctan(—) — 5 arctan(——). (TV) En 1973, J. Guilloud et Bouyer, à partir de (IV), calculèrent un million de décimales de n en un peu moins de 24 heures. La vérification fut effectuée grâce à (III). Dans les années 80, une nouvelle étape est encore franchie. Alors que l'on pensait que les records ultérieurs seraient essentiellement battus grâce à l'augmentation des performances des ordinateurs, c'est plus les méthodes qui permirent d'avancer considérablement : - On considéra d'autres suites, convergeant plus rapidement, issues de la théorie des intégrales elliptiques et des formes modulaires, donc certaines furent découvertes par le génial Ramanujan.
7- Le nombre ir 105 - On utilisa une multiplication rapide sur des grands nombres. Celle ci ne commence néanmoins à être efficace que lorsque les nombres considérés ont plus d'un million de chiffres. En 1983, Kanada, Tamura Yoshino et Ushiro calculèrent 10 millions de décimales grâce à l'algorithme de Salamin : . / a0 = 1 f a„+1 = (a„ + 6„)/2 , 2a2n+l si < , . yjj , < T v /—tt , alors ir„ = —-—^H-~ j^z tend vers n. \ b0 = 1/-/2 { bn+l = Va„bn 1 - ELo2 («I - bï) L'avantage de cet algorithme est que le nombre de décimales exactes double à chaque itération. Les 10 millions premières décimales de 7r25, par exemple, coïncident avec celles de 7r. Fin 1985, W. Gosper calcula 17.500.000 décimales grâce à la série 1 _ 2^/5 fv (4n)! ("M+ 263M"A m n \J?0 44"(n!)4 994"+2 )' K ' Cette série est due à Ramanujan et converge très rapidement (à peu près 8 décimales par terme). En janvier 1986, D. H. Bayley atteignit 29.360.000 décimales grâce à la suite y» = -n=» a<> = ô> y»+i i .. _ i - </Tzry^ ,4 yT " 2' ^+*-i+A/rr^' «n+I = (1 + 2/n+l)4«n ~ 4"+12/„+1(l + &.+, + j£+1). La suite (a„)„gN tend vers ir~l. La convergence est très efficace puisqu'à chaque étape, le nombre de décimales exactes est quadruplé. D'autres records se succédèrent ensuite (134.000.000 décimales en 1987, 201.000.000 en 1988). Un pas fut encore franchi fin 1989 lorsque les frères Chudnovsky découvrirent une nouvelle série du type de (V) : 426.880yl0.005 £g (6n)!(545.140.134n+ 13.591.409) "" _i> (n!)3(3n)!(-640.320)3" Cette série ajoute 14 décimales à chaque terme. Les Chudnovsky l'utilisèrent pour calculer 1 milliard de décimales en 1989, puis plus de 2 milliards en août 1991 sur une machine parallèle. Sachez par exemple que la milliardième décimale de ir après la virgule est un 9. Tant que nous sommes dans le sujet, citons un fait amusant dans une valeur numérique faisant intervenir tt. Lorsque l'on calcule e'^^ avec 12 chiffres après la virgule, on trouve e1'vm = 262 537 412 640 768 743, 999 999 999 999... On a envie de penser que cette série de 9 continue indéfiniment et donc que e'^^ est entier. En fait, il n'en est rien; la 13-ème décimale de e**ïï& après la virgule est un 2. 7.2. Amusez vous à calculer ît Un excellent exercice de programmation informatique est le calcul de n avec un grand nombre de décimales; celui ci demande de se construire une bibliothèque de calcul sur grands nombres ("informatiquement" un grand entier est représenté par un tableau contenant ses chiffres, regroupés par blocs de même taille). La méthode la plus simple et la plus efficace est certainement la formule de Machin (II), en utilisant le développement (I) de l'arctangente. Pour confirmer vos calculs, voici présentés les 2000 premières décimales de 7r : 3. 14159 58209 82148 48111 44288 26535 74944 08651 74502 10975 89793 59230 32823 84102 66593 23846 78164 06647 70193 34461 26433 06286 09384 85211 28475 83279 20899 46095 05559 64823 50288 86280 50582 64462 37867 41971 34825 23172 29489 83165 69399 34211 53594 54930 27120 37510 70679 08128 38196 19091 50 100 150 200 250
106 IL Corps, Polynômes et Fractions Rationnelles 45648 72458 78925 33057 07446 98336 60943 00056 14684 42019 51870 50244 71010 59825 18577 38095 03530 55748 81754 85836 94482 93313 25338 67823 55706 32116 63698 81647 16136 45477 56887 82796 73929 06744 46776 56692 70066 90360 27036 23799 73362 70277 81271 40901 95611 72113 59455 00313 34904 80532 25720 18529 57242 63746 16035 55379 67702 24300 54781 74983 53449 07426 06001 11573 62416 67179 79766 84896 27862 46575 34603 06315 01133 57595 62749 44065 05392 45263 22495 21290 49999 34690 78387 28755 17122 10654 68995 45415 49393 63707 77472 89891 35587 63600 85054 87202 54252 61452 52552 86251 04946 81454 08412 20391 73962 48610 58817 05305 91953 56735 66430 17176 56082 34301 21960 99837 83026 52886 46873 68066 85863 77362 06959 19255 66010 68471 52104 64024 93417 94588 75596 78625 49192 13347 89835 01653 10095 84886 94945 41389 45432 48815 48820 09218 18857 86021 29317 77857 46549 86403 29780 42522 58753 11595 13001 27886 25994 50829 06040 47101 04047 75216 74964 21641 58692 02364 51818 17321 57418 69485 46680 38837 26945 04712 08658 66482 20920 46652 61173 52724 39494 67523 71342 58537 44181 49951 30825 32083 62863 92787 59361 13891 53311 09277 81942 53464 20569 73263 21992 69956 80665 41757 72147 49468 56209 49886 86360 60424 37137 32645 13393 96282 13841 81932 89122 63952 84674 75778 10507 59813 05973 33446 81420 88235 66111 53381 24972 68617 01671 95559 62080 66024 91419 45863 90927 49911 46728 72350 43852 92192 27232 95068 19652 86960 99581 60726 92540 46951 61179 79381 24737 81846 96091 92279 62977 17328 85035 61717 37875 95909 82796 17752 27855 13900 61989 46684 05803 92726 15030 21079 98818 90977 14144 33239 22184 79178 00642 85022 95636 33904 02491 91715 94151 31051 83011 19070 76694 73637 68925 47713 16096 26193 76691 93751 21642 82303 83479 88907 98488 46767 25906 81501 04269 28618 75093 34797 77279 19735 07394 27255 60857 25125 21066 43719 78027 41273 36436 16094 18548 94912 21798 05132 17872 89235 09960 31859 11881 47303 95778 01989 01952 13151 50983 24012 83744 94912 93511 92279 29745 02955 75356 38000 68548 14333 02542 84383 20511 11863 17287 59009 Pour ceux qui iraient plus loin, voici d'autres décimales, entre le rang 5001 et 5050 : 56951 62396 58645 73021 63159 81931 95167 35381 29741 67729 : 5050 entre le rang 10001 et 10050 : 56672 27966 19885 78279 48488 55834 39751 87445 45512 96563 10050 entre le rang 50001 et 50050 : 30093 69188 92558 65784 66846 12156 79554 25660 54160 05071 50050 entre le rang 100001 et 100050 : 41260 02437 96845 43777 33902 64725 12819 41632 00768 48736 : 100050 Bon courage
CHAPITRE III Algèbre linéaire : généralités HISTORIQUEMENT, l'algèbre linéaire naît de l'étude des systèmes linéaires. Abordés dès 1678 par Leibnitz, Mac Laurin en 1748 donne les formules de résolution à deux ou trois inconnues, complétées dans le cas général par Cramer en 1754. À partir de là, Vandermonde puis Laplace ont l'idée de définir un déterminant d'ordre n par récurrence sur n, en le développant par rapport une ligne ou une colonne. D'autre part, dans les Recherches Arithmétiques, Gauss avait, adopté, pour désigner une transformation linéaire, une notation sous forme de tableau : la notation matricielle. Il y définit, même le produit de deux matrices. Ce passage devait suggérer à Cauchy la règle du produit, de deux déterminants, publiée en 1815 dans un mémoire. Jusqu'alors, les concepts de déterminant et. de matrice sont encore très liés. En 1826, Cauchy, cherchant à déterminer les axes principaux d'une surface du second degré, introduit le polynôme caractéristique d'une matrice. Avec Cayley et Sylvester, au milieu du dix-neuvième siècle, la théorie des matrices se développe. On en est encore au plan et à l'espace. La familiarisation des mathématiciens aux déterminants et aux matrices s'accroissant, elle suggère à ceux ci la conception d'un espace à n dimensions. Mais il fallait oser ! Vers 1843-1845, Cayley et Grass- mann franchissent le pas et parlent d'espaces à n dimensions. Cayley se fonde sur la généralisation de la géométrie analytique des coordonnées et introduit les n-uplets (xlt... , x„). Grassmann a quant à lui l'idée de développer une "analyse géométrique", capable de calculer sur des grandeurs orientées de façon intrinsèque (c'est-à-dire indépendante du choix des coordonnées). Il donne la définition de l'indépendance linéaire d'un système de vecteurs et celle de la dimension d'un sous espace vectoriel. Enfin c'est Péano qui, en 1888, axiomatise l'algèbre linéaire. Jusqu'en 1930, c'est le point de vue des matrices et des coordonnées qui prédominera, par rapport à un point de vue plus intrinsèque des espaces vectoriels. Remarques préliminaires. On abrégera souvent "espace vectoriel" par "e.v", "sous espace vectoriel" par "s.e.v". Dans toute la suite, K désigne un corps commutatif. 1. Espaces vectoriels 1.1. Généralités DÉFINITION 1. On appelle K-esjm.cc vectoriel (ou e.v sur K) un ensemble E muni d'une loi interne (notée +) et d'une loi externe (notée •) admettant K comme ensemble d'opérateurs et vérifiant : (i) (E,+) est un groupe abélien. (ii) Pour tout (x, y) £ E2 et (A,/i) G
108 III. Algèbre linéaire : généralités a) A • (x + y) = A • x + X ■ y. b) (A + //) • x = A • x + (M ■ x. c) X-(fi-x) = (Xfi)-x. d) 1 • x = x. Remarque 1. — Une conséquence de cette définition est que A • x = 0 si et seulement si A = 0 ou x = 0. - S'il existe de plus une loi interne, notée o, vérifiant (i) (E, + , o) est un anneau, (ii) V(z, y) € E2, VA € K, A • (x o y) = (A • x) o y = x o (A • y), on dit que E est une K-algèbre. Exemple 1. Les ensembles suivant sont des K-espaces vectoriels. K, K" (muni des lois (*,,... ,*„) + (y,,... ,î/„) = (xx + î/i,... ,xn + y„) et X-(xx,... ,xn) = (A*,,... ,Xxn)), toute extension de corps L de K, l'ensemble des fonctions d'un ensemble il dans K, K[X], K[XX,... , X„]. DÉFINITION 2. Les éléments d'un K-e.v s'appellent des vert!eurs,ceux de K des scalaires. DÉFINITION 3. Soit (E, +, •) un K-e.v et F C E. On dit que F est un sous espace vectoriel de E si (F, +, •) est un K-e.v. Exemple 2. Les ensembles {0} et E sont des s.e.v de E; K„[X] = {P € K[X],deg(P) < n} est un s.e.v de K[X]; C(E,E) (ensemble des fonctions continues de E dans E) est un s.e.v du E-e.v des fonctions de E dans E. PROPOSITION 1. Soit (E,+,-) un K-e.v et F C E. Alors (F, +,•) est un s.e.v de E si et seulement si (i) F^0 (ii) V(z,2/)<EF2,V(A,M)<EK2, Xx + fiy e F. Remarque 2. On montre rarement directement qu'un ensemble est un e.v, mais souvent que c'est un s.e.v d'un e.v connu (à l'aide de la proposition précédente). PROPOSITION 2. Soit E un K-e.v et (£,),^/ une famille de s.e.v de E. Alors n,-e/.E; est un s.e.v de E. Remarque 3. Attention, ce théorème est faux pour la réunion (voir l'exercice 1). Somme de sous espaces vectoriels. DÉFINITION 4. Soit E un K-e.v, (Ei)iei une famille de s.e.v de E. On note £ie/ Ei = Œie/ x^, les x,i G Ei étant tous nuls sauf un nombre fini}. L'ensemble Yliei &i est un s-e-v de E appelé somme, des s.e.v (i?,'),'6/. DÉFINITION 5. Soient Elf... ,E„ n sous espaces vectoriels d'un K-e.v E. On dit que E est somme directe de E\,. ■ ■ ,E„ si tout vecteur x £ E s'écrit de manière unique sous la forme x = x, + h x„ où Vi, x-i e E{. On note alors E = Ex®---®En = (B"=lEi. Remarque 4. Si E = Ex @ ■ ■ ■ @ E„, on a bien sûr E = £"_, Et = Ex + Y En. PROPOSITION 3. Soient Ex et E2 deux s.e.v d'un K-e.v E. Alors E = Ex $ E2 si et seulement si E = Ex + E2 et EXC\E2 = {0}. Remarque 5. — Cette proposition est fausse s'il y a plus de deux s.e.v. — On dit que n s.e.v Ex,... ,E„ sont en somme directe si £]"_, Et = (B"=1£.-. On a le résultat pratique suivant : Les (£î)i<«'<» sont en somme directe si et seulement si l'égalité xx + h xn = 0 avec Vi, xt e Et, entraîne Vi, xt = 0.
1. Espaces vectoriels 109 Familles génératrices, familles libres. DÉFINITION 6. Soit (xi)ieI une famille de vecteurs d'un K-e.v E. On appelle combinaison linéaire des (xi),e/ toute somme ]£,-6/A^a:,- où pour tout i, A, G K et où les A,' sont tous nuls sauf un nombre fini. - L'ensemble F des combinaisons linéaires des (x,)je/ est un s.e.v de E noté Vect(:r;),'e/. C'est le plus petit s.e.v de E contenant tous les x^. DÉFINITION 7. Soit E un K-e.v et A C E. On note Vect A = Vact(a)„eA. On dit que A est une partie génératrice de E (ou (a)„eA une famille génératrice de E) si Vect A = E. DÉFINITION 8. Soit (xi)ier une famille d'un K-e.v E. Alors (i) et (ii) sont équivalents : (i) Toute combinaison linéaire vérifiant £2,e/ A,:r; = 0 vérifie Vi, A,' = 0. (ii) Aucun vecteur de la famille n'est combinaison linéaire des autres. Une famille de vecteurs vérifiant (i) ou (ii) s'appelle une famille libre (on dit aussi que les vecteurs x,-, i G /, sont linéairement indépendants). Dans le cas contraire, la famille est dite liée. Citons enfin le théorème qui est à la base de la théorie sur la dimension des espaces vectoriels. THÉORÈME 1. Dans un e.v E engendré par un nombre fini n de vecteurs (i. e. 3(xj)1<,<„ tel que E = Vect(a;,')1<,<„), toute, famille, libre a au plus n éléments. 1.2. Bases et dimension d'un espace vectoriel Base d'un espace vectoriel. DÉFINITION 9. Une famille libre et génératrice d'un e.v E est appelée une base de E. PROPOSITION 4. Soit E un K-e.v admettant une base (e,),e/. Alors tout vecteur x de E s'écrit de manière, unique comme, combinaison linéaire des (e,),e/ .' x = 5T,-e/Aj:rj. Les (^i)iei s'appellent les coordonnées de. x dans la base (ei)ie/. Exemple 3. Les (e«)i<»<f» (où e.{ = (0,... , 0,1,0,... , 0), le 1 se trouvant à la i-ème place), forment une base de K" appelée base, canonique de K". - (A"")„eN est une base de K[X] appelée base, canonique de K[A"]. DÉFINITION 10. On dit qu'un K-e.v E est de dime.nsion finie s'il existe une famille génératrice finie de E. Si tel n'est pas le cas, on dit que E est de dimension infinie. L'existence de base en dimension finie est assurée par le théorème suivant. ThÉorÈME 2. Soit E un K-e.v de. dimension finie, Q un système fini de. générateurs de. E, C C Q un système, libi-e. Alors il existe une base B de E telle que C C B c G- Conséquences en dime.nsion finie. — Tout K-e.v de dimension finie admet une base. — De toute famille génératrice de E on peut extraire une base de E. — Toute partie libre peut être complétée en une base (résultat connu sous le nom de théorème de la base incomplète). Remarque 6. Le théorème 2 reste vrai en dimension infinie, mais sa démonstration fait appel à l'axiome du choix.
110 III. Algèbre iinéa/re : généralités Théorie de la dimension. THÉORÈME 3. Soit E un K-e.v de dimension finie. Toutes les bases de E ont même cardinal n. L'entier n s'appelle dimension de E, et est noté dimif.E' (avec par convention dimK E = 0 si E = {0}). PROPOSITION 5. Soit E un K-e.v de. dimension finie n G N*. Alors — Tout système libre de n vecteurs de E est une base de E. — Tout système générateur de n vecteurs de E est une base de E. PROPOSITION 6. Soit E un K-e.v de dimension finie n G N*. Soient E\,... ,Ek k s.e.v de E. Alors E = Ei@-- • ® Ek si et seulement si E = Ex -\ \- Ek et n = £*=1 dim Et. PROPOSITION 7. Soit E un K-e.v et Ex, E2 deux s.e.v de E de dimension finie. Alors Ex + E2 est un s.e.v de dimension finie et dim(£'1 + E2) = dim Ex + dim E2 — dim(.E\ D E2). Corollaire 1. Soit E un K-e.v de dimension finie, E^ et E2 deux s.e.v de E. Alors (i), (ii) et (iii) sont équivalents : (i) E = Ei © E2. (ii) dim E = dim Ex + dim E2 et EiHE-2 = {0}. (iii) dim E = dim £, + dim E2 et E = El + E2. Si (i), (ii) ou (iii) est tyérifié, on dit (pie E2 est un supplémentaire de Ex dans E. Remarque 7. Si F est un s.e.v de E, il y a en général une infinité de supplémentaires de F dans E. 1.3. Exercices EXERCICE 1. Soit K un corps commutatif et E un K-e.v. a) Soient F et G deux s.e.v de E. Si F U G est un s.e.v de E, montrer que F C G ou G CF. b) Soit k > 2 et (V;)i<,-<jfc une famille finie de k s.e.v stricts de E (i. e. pour tout i, Vi ^ {0} et Vi ^ E). Si E = Vl U • • • U Vk, montrer que K est fini et que k > Card(K) + 1 (*). L'inégalité (*) peut-elle être une égalité? Solution, a) Raisonnons par l'absurde et. supposons que F <f. G et. G <$. F, de sorte qu'il existe x 6 F, x £ G, et il existe y 6 G, y ¢ F. Le vecteur r + y est dans le s.e.v F U G, donc x + y Ç F ou x + y 6 G. Supposons par exemple r + y 6 F. Comme F est un s.e.v et que i £ F, on a (x + y) — x € F, c'est-à-dire y € F, ce qui est absurde. D'où le résultat. b) C'est plus délicat. Quitte à retirer V\, on peut supposer V\ ¢. (V2D- • -U14). Il existe donc x 6 V\ tel que x ¢ V2 U • • • U Vk. Or (V2 U • • • U 14) ¢ V, (sinon Vx = E), donc il existe y € V2 U • • • U Vk tel que y $.V\. Si A 6 K, alors y + Xr 6 E. Or y + Xx £ V\ (sinon y 6 V\ car x 6 V\), donc pour tout A 6 K, il existe i\ Ç {2,... , k) tel que y + Xr Ç Vix. L'application K —» {2,... , ib} A i-+ i\ est injective (en effet, si ix = i)t, alors y + Xr et y + fix Ç Vix donc (A — fi)x € Vix, et comme r. £ V{x, on doit avoir A = /i). De cette injectivité, on déduit que Card(K) < Card{2,... , jb} = ib — i, d'où (*). (*) peut être une égalité. Par exemple, si K = Z/2Z et E = K2, si Vx = {(6,6),(0, i)}, V2 = {(6,0), (i, 6)} et V3 = {(6,6), (î, l)}, alors Vi, V-i et V3 sont, des s.e.v stricts de E et V1UV2W3 = E. Exercice 2. Montrer que dans le E-e.v des fonctions continues de E dans M, les familles de fonctions suivantes sont, des familles libres : a) (/a)aêR où /a : E -» E x .- eXx.
1. Espaces vectoriels 111 b) (/a)aêR+ où fx : E -» E ï w cos(Aa:). c) (/a)a6« où /A : E -» E z »-► \x - A|. Solution, a) Supposons cette famille liée, de sorte qu'il existe (Aj)i<f<„ 6 E" et (^,-) 6 E" tels que Y17=i wfxi = ^ avec Ie8 ^«' non t°us nuls. Quitte à retirer des termes, on peut supposer ^,- ^ 0 pour tout ». Quitte à réordonner des termes, on peut même supposer Ai > A2 > • • • > A„. On a lim e-Al1 ( Y(neXi*) = lim V/«e<A'-A0* =/i,, \« = 1 / «=1 car pour i > 2, A,- — A! < 0. Or £^ ^«'/aj = 0, et cette limite est donc nulle, donc /^ = 0, ce qui est contradictoire. b) Montrons par récurrence sur n 6 N* que si 5T"=1 /i./a, = 0 (avec les A; distincts dans E+), alors pour tout «', m = 0. Pour n = 1 c'est évident. Supposons maintenant le résultat vrai jusqu'au rang n — 1 et montrons le au rang n. Si 5T"=1^«/aj = 0 (*), les (Ai) distincts dans E+, par double dérivation, on obtient Yl?=i ^«'(—^?/aj) = 0 (**). En multipliant l'égalité (*) par A£ et en l'ajoutant à (**), on obtient ^17=1 wfif ~ ^n)/A; = 0, donc d'après l'hypothèse de récurrence, pour tout 1 < i < n — 1, /i,(A| — A^) = 0. Les Aj étant positifs et distincts, on en déduit ^,- = 0 pour 1 < i < n — 1. Donc d'après (*), (inf\„ = 0, et donc pour tout », 1 < » < n, A; = 0. c) Supposons la famille (/a)aêK liée. Alors il existe A0 € E tel que /a„ soit combinaison linéaires des (/a)a#a0. autrement dit : n 3A, A„ €E\{A0}, 3/1,,... ,^€», /a„ = ^2mfxr >=i Or pour tout »' > 1, Aj ^ A0 donc f\t est dérivable au point Ao (l'application x' >-* \x — A| est dérivable partout sauf en A), d'où on tire que Y17=i ^«'/a* est dérivable en Ao, ce qui est absurde car ceci égale /a„. D'où le résultat. Remarque. On aurait pu résoudre le a) comme on l'a fait pour b). L'avantage de cette dernière méthode est qu'elle aurait permit de conclure même si l'intervalle de définition des (fx) n'était pas E tout entier. Exercice 3. Soit E un K-espace vectoriel de dimension finie, et A et B deux s.e.v de E de même dimension r. Montrer que A et B admettent un supplémentaire commun (i. e. il existe un s.e.v S de E tel que A(BS = B®S = E). Solution. Nous allons effectuer une récurrence descendante sur r < dim E. Si r = dim E, c'est évident car {0} est, un supplémentaire commun à A et à B. Supposons le résultat vérifié au rang r + 1 < dim E et démontrons le au rang r. On a A U B ^ E. En effet, supposons A\JB = E. Comme A ¢. B (sinon E = Al)B = B), il existe x 6 A tel que r £ B. De même, il existe ;/ Ç B, y £ A. Or r + y 6 E = A U B, donc x + y Ç A ou x + y Ç B, par exemple x + y 6 A- Alors y = (x + y) — r 6 A, ce qui est absurde. On a donc bien AU B ^ E. Donc il existe x Ç. E, x <£ AVJB. Soit A' = A + Vect(x), B' = B + Vect(z), On a dim4' = dimB' = r + 1, donc d'après l'hypothèse de récurrence, il existe un s,e,v 5' de E tel que A' © S' = B' © 5' = E. Si S = S' + Vec.t(x), on a donc E = A' © 5' = A © Vect(z) © S' = A © S et E = B' © 5' = B © Vect(z) © S' = B © 5, d'où le résultat.
112 III. Algèbre linéaire : généralités 2. Applications linéaires 2.1. Généralités DÉFINITION 1. Soient E et F deux K-e.v et f : E -* F une application. On dit que / est linéaire si V(x,y)eE2, V(A,M)GK2, f(Xx + fiy) = Xf(x) + fif(y). L'ensemble des applications linéaires de E dans F est un K-e.v noté C(E, F). Exemple 1. - L'application (p : C([0,1],K) -» M / "-> /„' f(t) dt est linéaire. — Si A G K, l'application ip : E —* E x •-► Xx est linéaire. Remarque 1. — Une application linéaire de E dans K est appelée forme linéaire. — Une application linéaire de E dans i? est appelée endomorphisme. — Si / est linéaire, alors /(0) = 0. — La composée de deux applications linéaires est linéaire. — Si / : E —♦ F est linéaire et bijective, on dit que / est un isomorphisme de K-e.v. L'application f~l : F —♦ E est aussi linéaire. — Si / G C(E, F), la linéarité de / entraîne que pour connaître (resp. pour définir) /, il suffit de la connaître (resp. définir) sur une base de E. PROPOSITION 1. L'image (ou l'image réciprwjue) d'un s.e.v par une application linéaire est un s.e.v. DÉFINITION 2. Soient E et F des K-e.v et / G C(E, F). On appelle noyau de / l'ensemble noté Ker/ = f~l({0}) = {x e E \ /(z) = 0}. On appelle image de / l'ensemble noté Im/ = f(E). Les ensembles Ker/ et Im/ sont des s.e.v. Par ailleurs, / est injective si et seulement si Ker/ = {0}. DÉFINITION 3. Soient E et F des K-e.v et / G £(E,F). On dit que / est de rang fini si Im/ est de dimension finie. Dans ce cas, l'entier dim(Im/) est appelé rang de / et noté rg/- 2.2. Espaces vectoriels quotients DÉFINITION 4. Soit E un K-e.v et F un s.e.v de E. La relation 11 définie par (x TZy ■<=» x — y G F) est une relation d'équivalence sur E. L'espace quotient est noté E/F, et c'est un K-e.v muni des lois x + y = x -f y, Xx = Xx. DÉFINITION 5. Soit E un K-e.v, F un s.e.v de E. Si E/F est de dimension finie, on dit que F est de codimension finie dans E. On appelle alors codimension de F dans E l'entier codim£j F = dim(E/F). Si codim^ F = 1, on dit que F est un liyperplan de E. PROPOSITION 2. Soit E un K-e.v. Un s.e.v F de E est de codimension finie dans E si et seulement si F admet un supplémentaire S dans E de dimension finie. On a alors àimS = codim£j F. Démonstration. Condition ru'ccssairr.. Supposons E/F de dimension finie. Pour tout x Ç E, on note x sa classe dans E/F. Soit, (e"i,... , en) une base de E/F. Soit, S = Vect,(ej)i<,-<„. Alors — F ("1 S = {0} car si x = J21=i ^«'e« é ^ H S, alors x = 0 = £2"=i A,e,- et, donc pour tout «', A,- = 0. — F + S = E. En effet, soit, x e E. Il existe Ai,... , A„ e K tels que x = £"=1 A,-e,-. Si y = YH=i A«e«", on a donc z — x — y G F (car i = x — y = 0) et, x = z + y, y Ç S. Donc F®S~E,et dimS = n = dim(E/F) = codinriB F. Condition suffisante. Supposons F © S = E, où 5 est de dimension finie n. Soit, (ei,... , e„) une base de S. Nous montrons que (e'i,... , e'n) est, une base de E/F.
2. Applications linéaires 113 - (e'i e'„) est, une famille génératrice de E/F. En effet, si x 6 E, il existe y Ç F et z Ç S tel que x = y + z et donc i = j/ + i = iç Vect(e'i,... , e„). - (e\ e„) est une famille libre. En effet, si Yl?=i ^«'e« = 0, alors £2"=1 A,e,- 6 F donc est nul car F D S = {0}. Donc pour tout «", A,- = 0. Finalement, on a donc codim^ F = dim(E/F) = n = dim 5, □ Corollaire 1. Si E est un K-e.v de dimension finie, si F est un s.e.v de E, alors F est de codimension finie dans E et codime F = dim E — dim F. Factorisation d'une application linéaire. THÉORÈME 1. Soient E et F deux K-e.v et f £ C(E,F). Alors Im/ est isomorphe à E/Keif. THÉORÈME 2. Soit E un K-e.v de dimension finie., F un K-e..v et f e C(E,F). Alors f est de rang fini et AimE = dim(Ker/) + diin(Im/) = dim(Ker/) + rg/. Corollaire 2. Soit f e C(E,F) où E et F sont deux K-e.v de même dimension finie. Alors : (/ est bijectivé) ■$=$■ (/ est injective) •<=?• (/ est surjective). Remarque 2. Ce dernier résultat est très important. Il est faux en dimension infinie; par exemple, / : R[X] —» R[X] P i-> P' est linéaire surjective mais pas bijectivé. 2.3. Algèbre des endomorphismes Les endomorphismes sont des applications linéaires très importantes. Ils vérifient de nombreuses propriétés et c'est pour cela qu'on les étudie plus particulièrement. Dans toute la suite de cette section, E désigne un K-e.v. On note C(E) = £(E, E). Muni de la loi o de composition, C(E) est une K-algèbre unitaire. On note Q£(E) l'ensemble des endomorphismes bijectifs (ou encore automorphismes) de E. Muni de la loi o de composition, Çt-(E) est un groupe appelé groupe linéaire de E. DÉFINITION 6. On dit que / e C{E) est une homothétie de rapport A G K si / = AIdB (où Idfj désigne l'application identité de E). Remarque 3. L'ensemble des homothéties de rapport non nul forme un sous groupe de Gt(E). On montre à l'exercice 6 que c'est le centre du groupe Çf-(E). PROPOSITION 3. Soit f G £(E). Alors f est une homothétie si et seulement pour tout x £ E, la famille (x,f(x)) est liée- Démonstration. Condition nécessaire. C'est immédiat. Condition suffisante. Par hypothèse, pour tout, x Ç E, il existe A^ Ç K tel que f(x) = Xx -x. Fixons xQ Ç E, xo ^ 0. Nous allons montrer que pour tout x € E, Xx = Xx„. - Si x 6 Kx0, alors il existe /i 6 K tel que x = fixa. Donc. f(x) = fif(xo) = /i\Xuxa = Ai„(^a:o) = A,,,*, et, donc A* = AI(I. — Sinon x et x0 forment une famille libre, et on a alors AI+I„(a; + zo) = f(x + x0) = f(x) + f(x0) = Xxr + Xx„x0, donc comme (x, Xo) est, libre, Xx„+X = XXu = Xx, d'où le résultat. D
114 III. Algèbre linéaire : généralités Projecteurs et symétries. DÉFINITION 7. Soient E\ et E2 deux s.e.v de E tels que E\ (B E2 = E, de sorte que Vz G E, 3\(xi, x2) G Ei X E2 tel que x = xx + x2. L'application p: E -* E x t-> x,i est linéaire et s'appelle projection sur 2¾ parallèlement à -E2- 0n a Ker p = E2, Imp = E\ et p o p = p. DÉFINITION 8. Un endomorphisme p G C{E) est appelé projecteur si pop = p. PROPOSITION 4. 5W)! p G C(E). Alors p est un projecteur si et seulement si p est la projection sur liap parallèlement à Kerp. On a alors E = Kerp® Imp. Remarque 4. Si p est un projecteur, alors y G Imp si et seulement si y = p(y). DÉFINITION 9. Soient E\ et E2 deux s.e.v de E tels que E = E\@ E2, de sorte que Vz G E, 3l(xu x2) G Ex X E2 tel que x = xx + x2. L'application s : E —* E x »-•• zj — x2 s'appelle symétrie par rapport à E\ parallèlement à E2. On a s G C(E) et si p est la projection sur E\ parallèlement à E2, s = 2p — Id^. PROPOSITION 5. Supposons que la caractéristique du corps K soit différente de 2. Alors s G C{E) est une symétrie si et seulement si s o s = Id^. Si p = ^(s + Id^), p est un projecteur et s est la symétrie par rapport à Imp parallèlement à Kerp. Remarque 5. Si K est de caractéristique 2, on peut avoir s2 = Id^ sans que s soit une symétrie (prendre par exemple s telle que [s] = ( j G M2(Z/2Z)). 2.4. Exercices EXERCICE 1. Soit E un K-e.v de dimension finie et F un K-e.v. a) Soient /, </ G £(E, F). Montrer les inégalités I rg/ - rgffl < rg(/ + a) < rg/ + rgff- b) Soient /, g G C(E) telles que fg = 0 et / + g est inversible. Montrer que rg / + rg g = dimtf. Solution, a) Im(/ + jr) = (/ + g){E) C f(E) + g(E), donc rg(/ + g) = dim(Im(/ + g)) < dim[f(E) + g(E)] < dim f(E) + dim g{E) = rg / + rg jr. Comme / = (/ + g) + (—g) et que rg g = rg(-jr), on a aussi rg / < rg(/ + g) + rg jr. De même, rg jr < rg(/ + g) + rg /. On en déduit finalement, que | rg / — rg g\ < rg(/ + g). b) Comme f + g est, inversible, rg(/ + g) = dim E, donc d'après a), rg/ + rg.</>rg(/ + jr) = dim£'. (*) Comme fg = 0, on a lmg C Ker/, donc. rg</ < dim(Ker/) = dim2? — rg/, c'est-à-dire rg / + rg <7 < dim E. Avec (*), on en déduit, le. résultat.
2. Applications linéaires 115 Exercice 2. Soit E un K-e.v (où K est de caractéristique différente de 2), et p, q G C(E) deux projecteurs. a) Montrer que p + q est un projecteur si et seulement si p o q = qop = 0. b) Montrer que si p + q est un projecteur, Im(p + q) = Imp® lmq et Ker(p + q) = Kerp D Ker q. Solution, a) Condition nécessaire. Commep+g est un projecteur, on a(p+g)2 = p+q, c'est-à-dire p2 + p o q + q o p + q2 = p + q. Or p2 = p et g2 = g, donc pog + gop=0 (*). En composant (*) par p à droite, on obtient pogop + gop2 = 0 = pogop + gop. En composant (*) par p à gauche, on obtient p2og-fpogop=0 = pog-fpogop. On en déduit poq = qop, et d'après (*), K étant de caractéristique différente de 2, p o q = q o p = 0. Condition suffisante. C'est, immédiat, car (p + g)2 = p2 + pq + qp + q2 = p2 + g2 = p + g. b) Montrons que Im(p + q) = Imp© Im g. - On a déjà Imp n Imq = {0}. En effet. Soit, y 6 Imp n lmq. Il existe a; et, x' & E tels que y = p(x) = g(z'). Donc p(y) = p2(x) = p o q(x) = 0 d'après la question précédente. Or p2(x) = p(x) = y, donc y = 0. - Reste àmontrer que Im(p+g) = Imp+Img. L'inclusion Im(p+g) C Imp+Img est immédiate. Montrons l'inclusion réciproque. Soit y Ç Imp+ lmq, de sorte qu'il existe x et x' € E tels que y = p(x) + q(x'). On a alors (p+ q)(y) = p2(x) + qp(x) + q2(x') + pq(x') = p(x) + q(x') = y, donc y — (p+ q)(y) 6 Im(p+ q), d'où le résultat. Montrons maintenant, que Kei(p+q) = KerpflKerg. L'inclusion KerpflKerg C Ker(p+g) est immédiate. Montrons l'inclusion réciproque. Soit, x Ç Ker(p + q). Comme p(x) + q(x) = 0, on a, en composant, par p à droite p2(x) + q o p(x) = 0 d'où p(x) = 0. De même, en composant par q à droite, on obtient p o q(x) + q2(x) = 0 = q(x). Donc x € Kerp ("1 Ker q. Remarque. Ce résultat sera généralisé en dimension finie à l'exercice 7 de la partie 3.8 (page 125). Exercice 3. Soit E un K-e.v de dimension finie, soit / G C(E). Montrer l'équivalence (£ = Im/©Ker/) <=ï (Im/ = Im/2). Cette équivalence reste-t-elle vraie en dimension infinie ? Solution. Condition nécessaire. On a f(E) C E donc. f2(E) = f[f(E)] C f(E), c'est-à-dire Im f2 C Im /. Reste à montrer Im / C Im f2. Soit, ;/ = f(x) 6 Im /. Il existe (xx, x2) 6 Im / x Ker / tel que x = x\ + x2, donc y = f(x) = f(x\) 6 lin f2. Condition suffisante. Soit, x 6 E. On a /(x) 6 Im / = Im /2 donc, il existe x' Ç E tel que f(x) = f2(x'). Donc f[x- f(x')] = 0, d'où y = x-f(x') € Ker/. Si z = f(x') €lm/, on a donc x = y + z avec y 6 Ker / et z 6 Im /. Autrement, dit, on vient, de montrer E = Im / + Ker /. Comme de plus dim(Im /) + dim(Ker /) = dim E, on en déduit, E = Im / © Ker / (voir 1.2 corollaire 1). En dimension infinie, ce résultat, est faux. Par exemple, si / 6 £(E[A"]) est définie par f(P) = P', on a Im f2 = R[X] = Im / et, pourtant, Im / et, Ker / ne sont pas en somme directe (Im / = R[X] etKer/^{0}). Exercice 4. Soit E un K-e.v (de dimension quelconque), et soient F et G deux s.e.v de E tels que (i) G C F et (ii) F et G sont de même codimension finie dans E. Montrer que F=G.
116 III. Algèbre linéaire : généralités Solution. Pour tout x Ç E, on note x" sa classe dans E/G, x sa classe dans E/F. Si x = y, alors x = y (car x — y = 0 donc i-jgG donc x — y Ç F, c'est-à-dire x = y). Considérons l'application / : E/G —* E/F x t—► x. Elle est linéaire et surjective donc bijective car E/G et E/F sont des K-e.v de même dimension finie (voir le corollaire 2). L'application / est donc injective, de sorte que si x 6 F, x = 0 donc x = 0, «'. e. x 6 G. En d'autres termes, F C G. Comme G C F par hypothèse, on a F = G. EXERCICE 5 (Suites EXACTES), a) Soient E0, Ex,... ,E„ des K-e.v, de dimensions finies respectivement égales à a0, a!,... ,a„. On suppose qu'il existe n applications linéaires /oj/ii • • • ,/n-i telles que pour tout k, fk G C(Ek, Ek+l) et vérifiant (i) /0 est injective, (ii) VA;, 1 < k < n — 1, Im/t-i = Ker/t, (iii) /„_! est injective. (On dit que (/0,... ,/„_i) constitue une suite exacte.) Montrer que ]£î=o(—l)kak = 0. b) (Application). Soit E un K-e.v, F et G deux s.e.v de E de codimension finie dans E. Montrer que F + G et F (~\G sont de codimension finie dans E et que codim£j(F + G) = codim^ F + codim^ G — codim^F fl G). Solution, a) L'assertion (ii) entraîne dim(Ker/t) = rg/t_i pour l < le < n— l, donc Vfc, l<k <n-l, otk = dim(Ke,ifk) + Tgfk=Tgfk.i+igfk. Or «o = rg/o car /<> est injective, et an = rg/„_! car /„_i est surjective. On en déduit n £(-!)*«* = «o - m + «2 + (-I)"-1"»-! + (-!)"«« = (rg/o)- (rg/o +rg/1)+-+(-l)"-1(rg/„_2 + rg/„_1) + (-l)"rg/„_1=0. b) Pour tout x e E, on note x sa classe dans E/(F D G), x dans E/F, x dans E/G et £ dans E/(F + G). Définissons / : E/(F n G) -» £/F x £/G x ^ (x, î) et </: E/FxE/G->E/(F + G) (J£,y)~{x^y). Nous allons montrer que (/, jr) constitue une suite exacte. — / est déjà une application, car si x = y, alors x — y Ç F (~\G donc x" = y (car x — y Ç F) et x = y (car a; — y Ç G). — g est aussi une application, car si (x", y) = (x',^), on a i - i' € F et y — y1 Ç G, donc (z — x') — (y — j/) = (x — y) — (x' — %/) 6 F + G, c'est-à-dire x — y = x' — y1. — Il est clair que / et g sont linéaires. — / est injective, car si (x, x) = (0,0), x 6 F et x 6 G donc x 6 Fn G, c'est-à-dire x = Ô. Comme E/F x E/G est de dimension finie (car E/F et E/G le sont), l'injectivité de / permet d'affirmer que F n G est de codimension finie (en effet, si E/(F n G) était de dimension infinie, on pourrait trouver dans E/(F Ci G) une famille libre contenant plus d'éléments que la dimension de E/F x E/G, absurde car l'image de cette famille libre par / injective est aussi une famille libre). — g est surjective car si £ e E/(F + G), z = jr(z,Ô). Donc E/F x E/G étant de dimension finie, E/(F + G) = g(E/F x E/G) est de dimension finie.
3. Matrices 117 - Im/ = Kerjr. En effet, on a déjà Im/ C Kerjr car g(f(x)) = g(x, x) = x — x = 0. On a également Kerg C Im/ car si (x,y) € Kerjr, x — y £ F + G donc il existe xi 6 F et i/i 6 G tels que x — y = xi — yi. Donc x — x\ = y — y\ = u, d'où x = u et y = û, donc (*,!/) = /(«) €lm/. On est donc dans les conditions d'application de a), ce qui nous donne dim(£7(F n G)) - dim(E/F x E/G) + dim(E/(F + G)) = 0, d'où le résultat car dim(E/F x E/G) = dim(E/F) + dim(E/G). Exercice 6 (Centre du groupe linéaire). Soit E un K-e.v de dimension finie. Quel est le centre du groupe linéaire Qf-(E) (i. e. l'ensemble des / G Gf-(E) tels que V</ G Gf(E), fg = gf)"! Solution. Nous allons montrer le résultat suivant. Si / G £(E) commute avec tous les éléments de Gf(E), alors / est une homothétie. En particulier, le centre de Çf.(E) est {Ald^, AeK*}. Soit / G £(2?) tel que Vjr G Gf(E), gf = fg. Supposons que / ne soit pas une homothétie. D'après 2.3 proposition 3, il existe «ç£,k/0, tel que la famille (m, /(m)) forme une famille libre. Complétons là en une base (u, /(m), e3,... , e„) de E. Définissons g G £(E) sur cette base comme suit g(u) = u, g[f(u)] = u, Vi > 3, jr(e.) = e,-. On a g G Gf(E) car g transforme une base de E en une base de E. Or g°f(u) = u et f°g(u) = /(m), donc / o g ^ g o / car u -fi f(u) (ces deux vecteurs forment une famille libre). Finalement, / est une homothétie. Exercice 7. Soit E un K-e.v de dimension finie n. Soit / G C(E). On suppose qu'il existe x0 G E tel que B = (/(x0),f2(x0),... ,f"(xu)) forme une base de E. a) Montrer que / est bijective. b) Montrer qu'il existe (a0,..., a„_i) G K" tel que /" + a„_i/"_1 + h axf + a0 IdB = 0 (sans utiliser, bien sûr, le théorème de Cayley-Hamilton). Solution, a) Soit y G E. Comme (f(x0),... , f"(x0)) est une base de E, il existe (Aj)i<,<„ G K" tels que y = Ai/(x0) + - • +A„/"(x0), donc y = /[A1x,i + A2/(3:o) + - • +A„/"_1(a:o)] G Im/, et ceci pour tout y Ç E. L'application / est donc surjective, donc bijective car c'est un endomorphisme en dimension finie. b) Comme B forme une base de E, il existe Ai,... , A„ 6l tels que f"+1(x0) = \nf"(x0)j 1- Ai/(*„). Posons g = /"+1 - A„/" Ai/. On a «/(*,,) = 0. Or Vi, 1 < i < n, g[f(x0)] = f+*'+1(z„) - A„/"+'>o) \if+1(*o) = /*'fo(*o)] = 0, autrement dit g s'annule sur la base B, donc, g = 0. En composant g à gauche par /-1, on obtient r-A„r_1 Ai=0. 3. Matrices 3.1. Généralités DÉFINITION 1. Soient p et q G N*. On appelle matrice de type (p,q) ou matrice à p lignes et q colonnes à coefficients dans K, toute famille (a,i;)i<.s, avec pour tout i,j a,-j G K.
118 III. Algèbre linéaire : généralités On note cette matrice de la manière suivante q colonnes p lignes < «1,1 «2,1 flp.l ai,2 • 02,2 • flp,2 • • °l,f \ - «2.» • «P,» ' DÉFINITION 2. On note MPi1(K) l'ensemble des matrices de type (p, q) à coefficients dans K. — (Cas q = 1). Un élément de Afp,i(K) s'appelle une matrice colonne. — (Cas p = 1). Un élément de Milf(K) s'appelle une matrice ligne. — (Cas p = q). Les éléments de MP,P(K) s'appellent des matrices carrées. On note alors MP(K) = Af P|P(K), appelé ensemble des matrices carrées d'ordre (ou de taillé) P- DÉFINITION 3. Soit A = («,-,;)isiir G MPl1(K). On appelle matrice transposée de ,4 et on note M la matrice B = (&,,;• ) ><■<« G M îlP(K) avec 6,-j = a;-)t. Remarque 1. — La représentation sous forme de tableau de la matrice transposée de A est le symétrique de la matrice A par rapport à la diagonale constituée des points a,,,-- — Pour toute matrice A, '(M) = A. DÉFINITION 4 (DÉFINITIONS RELATIVES AUX MATRICES CARRÉES). Soit n G N* et A = (aitj)iSi<n G Mn(K). — Les (a;,;)i<«<n s'appellent les éléments diagonaux de A. — La diagonale princijmle de A est l'ensemble de ses éléments diagonaux. — Si a,j = 0 pour i > j, A est dite triangulaire (ou trigonale) supérieure — Si a.-j = 0 pour i < j, A est dite triangulaire (ou trigonale) inférieure 0 o — Si a,j = 0 pour i ^ j, A est dite diagonale. — S'il existe A G K tel que pour tout i, «,-,• = A et pour tout i ^ j, a,-;- = 0, on dit que A est une matrice scalaire. — Si pour tout (i,j), «,-j = a,-,,- (de manière équivalente si *A = A), A est dite symeiriçue. — Si pour tout (i,j), «.-.y = -a;,,- (de manière équivalente si *A = —A), A est dite antisymétrique. En particulier, si K est de caractéristique différente de 2, les éléments diagonaux de A sont nuls. 3.2. Matrices et applications linéaires Soient E et F deux K-e.v de dimension finie, dimE = q G N*, dimF = p G N*. Soit B = (ex,... ,eq) une base de E, B' = (e\,... ,ép) une base de F. Soit / G C(E,F). Pour tout j, 1 < j < q, on peut écrire /(«;•) = J2i=i w«,;ei ou ^es a«\; G K. La matrice ^4 = (a,i;)is.<f est appelée matrice de / da.ns les bases B et B' et notée [/]f . H revient au même de dire que les vecteurs colonnes de la matrice [/]f sont les coordonnées dans la base B' des images par / des vecteurs composant la base B. On munit MPt1(K) des opérations suivantes : — Si A = (a,;)i<j<, et B = (b{j)i<iir, A -f B = (a,-,- -\-b{j) i<i<r.
3. Matrices 119 — Si A = (ai ;)i<i<, et A G K, XA = (A«,-,)i<,<,. Muni de ces opérations, AfPiî(K) est un K-e.v. Si pour tout i,j, 1 < i < p, 1 < j < q, Eij désigne la matrice dont tous les éléments sont nuls sauf celui d'indice (i,j) qui vaut 1, les Eij (1 < !i < p, 1 < j < q) forment une base de MPi1(K) appelée base canonique de AiPl1(K). Ceci entraîne en particulier le résultat suivant. Proposition 1. Le K-e.v MPt1(K) est de dimension finie pq. Fixons deux bases B de E et B' de F. L'application $: C(E,F)^MP,„(K) f ~ [f]*' est un isomorphisme de K-e.v. En particulier, Aim(C(E, F)) = dim(AfPiî(K)) = pq = (dim£)-(dimF). Multiplication de matrices. DÉFINITION 5. Soient p,q,r G N* et A = (aii;)i<,s, G M p »(K), B = (&,-,) i<;<, £ Afî>r(K). On définit la matrice C = (cij)i<><, 6 Afp,r(K) par qj = Z!'=i a<,*^*,i- La matrice C est appelée produit des matrices A et B et on note C = AB. Remarque 2. — Attention, le produit de A par B ne peut se faire que si le nombre de lignes de B est égal au nombre de colonnes de A. — Le produit de matrices est associatif (mais pas commutatif ) et distributif par rapport à l'addition. — Soit / e C(E, F), B une base de E, B' une base de F. Soit x G E et y = f(x). On note X la matrice colonne dont les éléments sont les coordonnées de x dans la base B, Y la matrice colonne dont les éléments sont les coordonnées de y = /(x) dans la base B'. On a alors Y = [f]g X, au sens du produit de matrices défini plus haut. Proposition 2. Soient E, F et G des K-e.v de dimensions finies. Soit B une base de E, B' une base de F et B" une base de G. Si f e C(F,G) et g e C(E,F), on a [/</]|" = [f\î>[g]î'- Remarque 3. (Produit par blocs). Si M G MPi1(K) et M' G Mq,r(K), -=(TT). "-(zz)i lignes -r lignes alors MM, _ ( AA + BC AB' + BD' \ MM ~ \CA'-r DC CB' + DD' )• Tout se passe comme si on multipliait deux matrices 2 X 2, en prenant garde à l'ordre dans les produits (il n'y a pas commutativité).
120 III. Algèbre i/néaire : généralités 3.3. Matrices carrées Soit n G N*. Le K-e.v Mn(K) = Mni„(K), muni de la loi produit sur les matrices, est un anneau (c'est même une K- algèbre) unitaire (l'élément unité est la matrice identité, notée J„, qui est une matrice scalaire dont les coefficients diagonaux sont égaux à 1). Cet anneau est non commutatif et non intègre dès que n :> 2. L'ensemble des éléments inversibles de l'anneau Af„(K) est un groupe appelé groupe linéaire d'indice n et noté Çt.„(K). Soit E un K-e.v de dimension finie n G N*, B une base de E. Si f e C(E), on note [f]B = [/]! et on l'appelle matrice de / dans la base B. L'application $ : C(E) —► M„(K) f i-t- [f]B est un isomorphisme d'algèbre. Ceci entraîne que A G Mn(K) est inversible si et seulement s'il existe / G C(E), inversible, tel que [f]B = A. D'où le corollaire suivant : (A G M„(K) est inversible) <=> (35 G Mn(K), AB = J„) (35 G Mn(K), BA = /„) et B = A~\ 3.4. Changement de base Soit E un K-e.v de dimension finie n G N*, B = (el5... ,e„) et B' = (e[,... ,e'n) deux bases de E. Pour tout j, 1 < j < n, on peut écrire e'j = J2"=i P«,;e« avec ^es Pîj £ K. La matrice P = (p,-;)i<.<» (dont les colonnes sont les coordonnées des vecteurs de B' dans la base B) s'appelle matrice de passage, de B à B'. La matrice P est inversible. Si x G E, si X (resp. X') désigne le vecteur colonne dont les éléments sont les coordonnées de x dans la base B (resp. dans la base B'), alors on a X = PX'. Remarque 4. Attention, on aurait tendance à écrire, machinalement, X' = PX ... PROPOSITION 3. Soient E et F deux K-e.v de dimensions finies respectivement égales à p et q. Soient Bf) et B'ft deux bases de. E, P la matrice de passage de BQ à B'0, B\ et B[ deux bases de. F, Q la matrice, de passage, de B^ à B[. Soit f G C(E,F). Si A = [/]|^, A' = [/]*!, ona A' = Q~lAP. DÉFINITION 6. Soient A, B G AfPiî(K). On dit que A et B sont équivalentes s'il existe P G Gf-<(K) et Q G (^p(K) telles que B = QAP. La relation "est équivalente à" est une relation d'équivalence. Remarque 5. On a vu un peu plus haut que les matrices d'une même application / G £(E, F) dans des bases différentes sont équivalentes. PROPOSITION 4. Soit E un K-e.v de dimension finie n G N*, B et B' deux bases de E, P la matrice de jmssage de. B à B'. Soit f G C(E). Si A = [f]B et A' = [/]b', alors A' = P~XAP. DÉFINITION 7. Deux matrices A et B G Af„(K) sont dites semblables s'il existe P G (7/?„(K) tel que B = P~1AP. La relation de similitude est une relation d'équivalence.
3. Matrices 121 3.5. Propriétés des transposées Proposition 5. - Si A, B G MPt1(K), *(A + B) = *A + *B. -SiAe AfPiî(K) et A G K, *(A/1)' = AVI. - Si A G Afp|f(JQ ei 5 G Aff,r(K), '(Afi) = '5V1. - Soit A € Af„(K). On a A e £4(K) « ei seulement si XA G (#„(1K) ei «/ans ce cas, CA)-> = '(A->). Remarque 6. La transposition inverse l'ordre dans les produits de matrices. Cette remarque peut parfois être utile dans les exercices. 3.6. Rang d'une matrice DÉFINITION 8. Soit A G AfPiî(K). On appelle rang de A le rang de ses vecteurs colonnes dans W, et on le note rg A. Si A est la matrice d'une application linéaire /, on a rg A = rg /. Remarque 7. — Si A G AfPiî(K), alors igA < inf{p,q}. — Si A G Af„(K), alors A est inversible si et seulement si rg.4 = n. Théorème 1. Soit A e MP1(K). Si r = rgA > 1, A est équivalente à la matrice Jr = (il)- Corollaire 1. Deux matrices A et B £ AfPiî(K) sont équivalentes si et seulement si igA = ig B. DÉFINITION 9. Soit A = (a,,)i<i<, G M„ „(K), et soient deux sous ensembles non vides I C {1, • •. ,p} et J C {1, •. • ,</}. La matrice B = (a,,;).-«/ s'appelle matrice extraite de A, A s'appelle une matrice bordante de B. THÉORÈME 2. Soit A G MPt1(K). Le rang de A est le plus grand des ordres des matrices carrées inversibles extraites de A. Corollaire 2. Le rang de toute matrice est égal au rang de sa transposée. Remarque 8. En d'autres termes, le corollaire précédent dit que le rang des vecteurs colonnes d'une matrice est égal au rang de ses vecteurs ligne. - Dans la pratique, pour trouver le rang d'une matrice, on utilise le résultat suivant : on ne change pas le rang d'une matrice en multipliant une colonne par un scalaire non nul, ou en ajoutant a une colonne une combinaison linéaire des autres colonnes (même chose sur les lignes). Par exemple, en opérant sur les lignes, /2 13 -3 \ /213 -3 \ rg -1 2 1 4 j = rg 0 3 3 3 \ 1 12-1/ \ 1 1 2 -1 / /2 1 3 -3 \ = rg 0 1 1 1 \ 2 2 4 -2 / = rg = 2.
122 III. Algèbre linéaire : généralités 3.7. Trace d'un endomorphisme DÉFINITION 10. Soit A = (a,-,;)i<,-,;<„ G Mn(K). On appelle trace de A le scalaire tiA = Yl?=i ai,i- L'application A »-•• ti A est une forme linéaire. Proposition 6. - Si A et B g Mn(K), ti(AB) = ti(BA). - Si Ae Mn(K), tiA = ti(*A). — Si A et B G Mn(K) sont semblables, alors ti A = tr B. La dernière assertion de la proposition précédente permet la définition suivante. DÉFINITION 11. Soit E un K-e.v de dimension finie, B une base de E et / G C(E). Alors la trace de la matrice [f]B ne dépend pas de la base B choisie. Cette valeur s'appelle la trace de / et est notée tr /. Proposition 7. Soit E imK-e.» de dimension finie, p G £(E) un projecteur. Alorsigp = trp. Démonstration, p étant un projecteur, Imp© Kerp = E. Soit r = rgp, (ei,... ,er) une base de Imp et (er+i,... , e„) une base de Kerp. Alors B = (ex,... , e„) est une base de E1 et on a [/]b = f 0r 0 J, donc trp = rgp. □ 3.8. Exercices Exercice 1 (Matrices diagonalement dominantes). On considère une matrice A = (a«j)i<«-,j<« e Mn(C) vérifiant Vi, 1 < i < n, J2 \aitj\ < |a,-,,|. Montrer que A est inversible. Solution. Il s'agit de montrer que rg A = n, c'est-à-dire que les n vecteurs colonnes de A forment une famille libre. Pour cela, raisonnons par l'absurde en supposant ces n vecteurs liés, ce qui s'écrit n 3*!,... , A„ € C tels que V« G {1, ... , n), ^ A;rt,j = 0, les A,- étant non tous nuls. Soit iir tel que |A*| = sup1<t<„ |A,-| > 0. Alors J2xiak,j=Q donc ak,k = - J2 Y(lk-h d'OÙ la*.*l - H |ï|la*J'l- 5Z l"*J'l' 3** ce qui est contraire aux hypothèses. Exercice 2. Soit n G N* et soit la matrice /11 1 • 0 C\ C\ ■ M= : ••• Cl ■ 1 \ Cl G Mn+l \ « « ci) Montrer que M est inversible et calculer M~l.
3. Matrices 123 Solution. On note Rn[X] = {P € R[X] | deg(P) < n}. Soit l'endomorphisme / : Rn[X] -* Rn[X] P(X) -> P(X + 1). La famille B = (1, X,... ,Xn) est une base de M„[X], et on voit facilement que M est la matrice de / dans la base B. Or / est inversible, son inverse étant g : P(X) i-* P(X - 1). Donc M est inversible, et M"1 = [f~l]B = [g]B = /1-1 1 0 Cl -C\ \0 (-1)" \ (-1)-»C> (_ir-2C2 C" Exercice 3. Soient A et B e Mn(K) telles que AB = A + B. Montrer que A et B commutent (i. e. montrer que AB = BA). Solution. Comme AB = A+ B, on a /„ - A— B + AB = /„ donc (/„ — A)(In — B) = In. Donc I„ — A est inversible, son inverse est (/„ — B), donc (/„ — B)(I„ — A) = /„, ce qui en développant donne BA = B + A = A+ B. Exercice 4. a) On considère la matrice M = /o l o mh-2 ■ 0 0 ) eMn Montrer (sans utiliser le théorème de Cayley-Hamilton) que M est nilpotente. /3 1 0\ b) Soit M = 0 3 2 \ e Af3(R). Pour tout entier p > 1, calculer Mp. \ 0 0 3 / Solution. Soit (ei,... , e„) la base canoni<|ue de E" (ej est le vecteur colonne dont tous les éléments sont nuls sauf le «-ème qui vaut 1). La forme de la matrice M montre que «-1 Me-i = 0 et V« > 2, Me{ = ^mktiek € Vect(e!,... ,ej_i). *=i Ceci étant, montrons par récurrence sur p 6 {1,... , n} que pour tout «', 1 < i < p, Mpe,- = 0. Pour p = 1 c'est vrai car Me\ = 0. Supposons le résultat vrai au rang p— 1, montrons le au rang p. Si 1 < i < p — 1, l'égalité Mp~lr.t = 0 entraîne Mpe,- = 0, et si i = p : /p-i \ p-i M"ep = MV-\Mep) = M"-1 £m*.Pe* =^2mktP(M"-lek) = (i. \k=l I * = 1 - En particulier, le résultat est vrai pour p = n ce qui entraîne que M" s'annule sur tous les vecteurs de la base canonique de E", donc. est. nul.
124 III. Algèbre linéaire : généralités /0 1 0\ b) On écrit M = 3/3 + N où N = I 0 0 2 I . D'après la question précédente, N3 = 0. Comme \o 0 0/ /3 et N commutent, on peut écrire Vp e N*, Mp = Y^C$Nk{$h)n-k = 3/3 + p3T-lN + P(P~ 1)3P-2^2 / 0 1 0 \ / 0 0 2 \ / 9 3p p(p - 1) \ Comme ^= 0 0 2 ) et W2 = 0 0 0 1, ceci donne Mp = 3P-2 0 9 6p \ 0 0 0 / \ 0 0 0 / \0 0 9/ Remarque. Au a), une étude plus poussée aurait permis de montrer que Vp, l<p<n-l, on a Mp = I « V 0 X 0 0 / EXERCICE 5. Quelles sont les matrices A e Af„(K) telles que A2 = 0? Solution. Soit / l'endomorphisme de K" dont A est la matrice dans la base canonique de K". On a /2 = 0, donc Im/ C Ker/. Soit r = rg/. Si r = 0, / = 0 et c'est évident. Sinon r > 1. Soit (ei,... ,er) une base de Im/. Comme Im/ C Ker/, on peut compléter cette base en une base (ei,... , e„_r) de Ker / (au passage, on remarque que r < n — r donc r < n/2). Pour 1 < 1 < r, e,- 6 Im/ donc il existe u,- 6 K" tel que /(m,) = e,-. Montrons que B = (e\,... , e„_r, «i,... , Mr) est une base de K". Il suffit de montrer que c'est une famille libre (il y a n éléments). Supposons (Aiei -\ 1- A„_re„_r) + {n\U\ -\ 1- ftrer) = 0 où les Xi,ftj € K. En composant par /, on trouve /<iei + 1- ftrer = 0, donc Vi, m = 0. Donc X\e\ + 1- A„_re„_r = 0, et donc Vi, A,- = 0. B est donc bien une base de K". Dans cette base, / a pour matrice Mr = ( n ]> avec r ^ n/^> e* -^ es* donc semblable à M. Réciproquement, si A = 0 ou si A est semblable à Mr avec r < n/2, alors A2 = 0. Les matrices recherchées sont donc celles semblables à Mr avec r < n/2 et la matrice nulle. Exercice 6. Soit M G M„(K) une matrice de trace nulle. a) Montrer que M est semblable à une matrice n'ayant que des 0 sur la diagonale principale. b) Montrer qu'il existe X et Y e M„(R) tels que M = XY - YX. Solution, a) On va montrer ce résultat par récurrence sur n € N*. Pour n = 1 c'est évident car M = tr M = 0. Supposons le résultat vérifié au rang n — 1 et montrons le au rang n. Soit / l'endomorphisme de E" dont M est la matrice dans la base canonique de E". Si Va: € 1", la famille (a:, f(x)) est liée, alors / est une homothétie (voir la proposition 3 de la partie 2.3), c'est-à-dire qu'il existe A 6 E tel que / = A Me- Or nX = tr / = tr M = 0 donc. A = 0 et donc / = 0, ce qui entraîne que la matrice M est nulle.
3. Matrices 125 Sinon, il existe x Ç M." tel que la famille (x,/(x)) soit libre. Complétons cette famille en une base B = (x, /(x), e3,... , e„) de E". Dans cette base, on a = Mb = ( ° 1 0 V : x N' x \ / Or 0 = tr/ = trTV = trTV' donc d'après l'hypothèse de récurrence, il existe Q 6 Gfn-ifâ) telle que Q lN'Q n'ait que des zéros sur la diagonale principale. Si P = a donc /1 0 \o 0 ••• 0 \ Q € G4(K), on P~ÏNP = ( 1 0 \o 0 -o \ Q"1 TV /1 0 \o 0---0 \ Q ) ( i 0 u 0-0 \ Q-lN'Q ) ( ° x l x X 0 X X \ X o ) La matrice M, semblable à TV, est donc semblable à cette dernière matrice, d'où le résultat. b) D'après a), il existe P 6 G/„(IR) telle que M = P~lNP où TV est une matrice n'ayant que des zéros sur la diagonale principale. Notons 6,-j- les coefficients de la matrice TV. Fixons ( (xx 0 • • • 0 \ 0 a2 '• X = V « 0 0 o„ / 6 jM„(IR), avec o,- / oy si i / j. Si y = (a«,j')i<«',j<n € jM„(IR), un calcul rapide montre que XY — YX = (o,-a,-j — aja«,j)i<«',j'<n- En prenant pour tout i a,-|t- = 0 et pour tout i / j «,-y = 6,-j-/(o,- —oy), on voit que X7-7X = TV, donc M = {P-lXP){P-{YP) - (P-lYP)(P-lXP). Exercice 7. Soit E un K-e.v de dimension finie n G N*. Soient p\,... ,Pk £ A-E) des projecteurs. Montrer que p = p\ + h Pk est un projecteur si et seulement si pour tous i^ J,Pi°Pj = 0. Solution. Condition suffisante. Il suffit de remarquer que P2 = p\ + ' ' ' + PÏ + 53 Pi » P; = P\ + ■■ ■ + Pk = Pi + ■■ ■ + Pk = P- Condition nécessaire.. D'après la proposition 7, le rang d'un projecteur égale sa trace, donc k k rgp = trp = 53trP* = HrëP«- «'=1 «'=1 On a aussi Imp = (Pl + • • • + pk){E) C pi(£)+••• + Pk(E) = Imp, + • • • + Imp*. Ces deux dernières assertions permettent de conclure que Imp= Imp! © • • ©Imp*. (*)
126 III. Algèbre linéaire : généralités Ceci étant, fixons «', 1 < «' < k. D'après (*), si x G E, Pi(x) G Imp donc Pi(x) = p(pi(x)) = pio Pi(x) + ■ ■ ■ + pi o Pi(x) + • • • -j- pk o Pi(x), c'est-à-dire Pi(x) = pi o p,(z) H 1- pi(x) H 1- pk o pi(x). On en déduit ^;v,P; °Pi(x) = 0. Or pour tout j, pj op,(z) g Imp; donc d'après (*), l'écriture J2. ,{pj o pi(x) = 0 entraîne Vj / i, p;- o p,(x) = 0. Ceci est vrai pour tout x Ç E, donc si j / «', pj op,• = 0, d'où le résultat. 4. Dualité Dans toute cette partie, E désigne un K-espace vectoriel. 4.1. Généralités DÉFINITION 1. On appelle forme linéaire sur E toute application linéaire de E dans K. L'ensemble C(E,K) des formes linéaires sur E est aussi noté E*. C'est un K-e.v appelé espace dual de E. Notation. Si x G -E et tp G -E*, on note parfois ^(x) =< 93, x >. DÉFINITION 2. On appelle bidual de £ l'espace dual de E*, noté £**. 4.2. Etude du dual en dimension finie Dans cette sous partie, sauf mention contraire, E est de dimension finie n G N*. DÉFINITION 3. Soit B = (e,,... ,«„) une base de E. Pour tout i, 1 < i < n, la forme linéaire e* définie sur B par e*(e;) = 0 si j jt f, e*(e,) = 1, s'appelle forme linéaire coordonnée d'indice t. Remarque 1. Si E est de dimension infinie et (e,),e/ une base de E, on définit de même les formes linéaires coordonnées e* pour i G /. Théorème 1. Soit B = (el5... ,en) une. base, de. E. Alors B* = (e\,... , e*) est une base de E* apjielée base, duale de B, et donc dimE* = dim£. Pour tout ip G E*, on a <P= £"=i¥>(e«)e*- Démonstration. La famille B* est libre, car l'égalité AieJ + ■ ■ ■ + A„e* = 0 appliquée aux vecteurs ei,... , e„ de E donne Ai = • • • = A„ = 0. La famille B* est génératrice. En effet, si <p G E*, alors pour tout, x G E, x = Aiei H 1- A„e„, on a n n i=l «'=1 et ceci étant vrai pour tout x G E, on a ip = 5T"_i y(«i) e? • d Remarque 2. Si £ est de dimension infinie et («,-)*£/ une base de E, (eî)«e/ est une famille libre de E* mais non génératrice.
4. Dualité 127 Bidual en dimension finie. Théorème 2. Si x G E, on note x : E* -* K ip >-* <p(x). On a x G E** et l'application f : E —* E** ïhî est un isomorphisme. Démonstration. On vérifie facilement que x est linéaire («', e. que x 6 E**), ainsi que /. Prouvons que / est injective. Soit x Ç Ker/, Si x / 0, on peut compléter x en une base (x, e2,... , e„) de E. On a alors x*(x) = 1, autrement dit x(x") / 0, donc x / 0. Donc Ker / = {0}. D'après le théorème 1, dim£™* = dim£" = dimE. Ainsi / est bijective, et c'est donc un isomorphisme. □ Remarque 3. — Cet isomorphisme est canonique (i. e, il ne dépend pas du choix d'une base). On convient alors d'identifier E et E** en identifiant x k x pour x £ E. — En dimension infinie, / : x t-> x est injective mais pas surjective. Base antéduale. PROPOSITION 1. Soit (/i,..., /„) une base de E*. Il existe une unique base (e\,..., e„) de E telle que pour tout i, e* = fi. Cette base s'appelle base antéduale de (/i,... , /„). Démonstration. Existence. D'après le théorème 2, pour tout «', il existe e,- 6 E tel que /* = e,-. Donc pour tout j / i, /?(/;-) = 0 = e,(/;) = /;(e;) et fi (fi) = 1 = /,(e,). En résumé, /,(e;) = 0 si j / i et /t(e,-) = 1. On voit donc que pour tout j, /,• = e*. Unicité. Soit (ei,... , e„) une base de E telle que pour tout «', e* = f. Si j / i, e*(e;-) = /i(e;-) = 0 = éj(fi) et pour tout j, e*(e,-) = /i(ej) = 0 = e"i(/,-). En résumé, on a montré que êi(fj) = 0 si j / j, = 1 si j = i. Autrement dit, ej = /,*. D'après le théorème 2, il existe un unique vecteur et de E vérifiant ei = /?; les e,- sont donc uniques, d'où le théorème, □ Remarque 4. Nous venons dans la partie 4.5 des problèmes matriciels des moyens de calcul de la base antéduale. 4.3. Orthogonalité DÉFINITION 4. Des éléments x G E et (p G E* sont dit orthogonaux si <p(x) =< tp, x >= 0. - Si i4 c E, on note i4x = {93 G £* | Vz G ^4, ^(z) = 0}. L'ensemble Ax est un s.e.v de E* appelé orthogonal de A. - Si B c E\ on note B" = {x e E \V<p e B, <p(x) = 0}. L'ensemble 5° est un s.e.v de E appelé orthogonal de 5. Remarque 5. Si y G .E*, alors {ip}° est le noyau de <p. La proposition qui suit se prouve facilement. Proposition 2. - Si Ax c A2 c E, alors A$ c Aj-. - SiBi C B2CE% alors B\ C B\. - SiAcE, alors AL = (Vect A)L. - SiB cE*, alors B° = (Vect 5)°.
128 III. Algèbre linéaire : généralités Orthogonalité en dimension finie. ThÉorÈME 3. Soit E un K-e.v de dimension finie. Alors : (i) Si F est un s.e.v de E, dimF + dimFx = àimE et FXo = F. (ii) Si G est un s.e.v de E*, dimG + dimG0 = dim£ et GoX = G. Démonstration, (i) Soit r = dimFet (ei,., , ,er) une base de F, complétée en une base (ei,,.. ,e„) de E. On a F = Vect(ei,,., ,er) donc d'après la proposition précédente, F1- = {ei e,.}-1-, Soit <p£E\<p = YX=i>*e*i- Alors (p€{ei e,}1) <=*• (Vi€{l,.-.,r}, 0 = *>(*) = M- Ainsi, ip 6 Fx si et seulement si <p Ç Vect(e*+1,., , , e*) d'où la première égalité de (i), Maintenant, toujours d'après la proposition précédente, on a F-*-0 = {e*+1,, .. , e* }°. Donc n (* = '£iaieieFJ-a) <=> (V»€{r+1 n}, 0 = ej(x) = A,), i=i ce qui prouve FXo = Vect(ei,... ,er) = F, (ii) Soit r = dimG, (fi,. . . ,/,.) une base de G, complétée en une base (/i,., , ,/„) de E*. Soit (e\,... ,e„) une base antéduale de cette dernière, de sorte que V«, /,- = e*. On a G = Vect(eJ,., , ,e*) et en procédant comme plus haut, on trouve G" = Vect(er+i,, , . ,e„) et GoX = Vect(eî,,..,e;) = G. D Conséquence. En dimension finie, un sous espace est égal à l'espace tout entier si et seulement si son orthogonal est nul. Remarque 6. L'égalité FXo = F reste vraie en dimension infinie. Par contre l'égalité B = B0± est fausse en dimension infinie. Prenons par exemple E = U[X] et B le s.e.v de E* engendré par les formes linéaires ipn : P t-> P(">(0) (n e N). Si P G B", alors pour tout n G N, P(")(0) = 0 donc d'après la formule de Taylor, P = 0. Autrement dit, B° = {0}, donc B0± = {0}x = £'. On a donc B ^ BoS- = E* (par exemple, ip : P •-► P(l) est dans £* et on vérifie facilement que 93 ¢. B). Cependant l'inclusion B C BoL est vraie en dimension infinie. En traduisant le théorème précédent en termes d'équations, on obtient le corollaire suivant. Corollaire 1 (Équations d'un s.e.v en dimension finie). Soit E un K.e.v de dimension finie n. — Soient p formes linéaires <p\,... ,<pp de E* telles que ïg(<pi,... ,<pp) = r. Le s.e.v F = {x G E | Vi, <fii(x) = 0} est de dimension n — r. — Réciproquement, si F est un s.e.v de E de. dimension q, il existe, n — q formes linéaires linéairement indépendantes ipx,... , ipn-q telles que. F = {x G E \ Vi, 1 < t < n - q, <fi(x) = 0}. PROPOSITION 3. Soit E un K-e.v de dimension finie et Ai et A2 deux s.e.v de E. Alors (i) (Al + A2y = At n A^ (ii) (AlnA2y = At + A$. Soient Bx et B2 deux s.e.v de E*. Alors (ni) (5, + B2y = B\ n B°2 (iv) (5,n52)0 = 5;+52°. La preuve est simple. Pour montrer chaque assertion, on montre une inclusion triviale puis l'égalité des dimensions grâce au théorème 3.
4. Dualité 129 Orthogonalité et hyperplans. PROPOSITION 4. Soit ip G E* une forme linéaire non nulle. Alors Kenp est un hyperplan de E. Réciproquement, tout hyperplan de E est le noyau d'une forme linéaire non nulle. Démonstration, Soit ip G E*, ip / 0. On sait que E/Keiip est isomorphe à Im^> = K, donc de dimension 1, ce qui n'est autre que de dire que Ker^> est un hyperplan de E. Réciproquement, soit H un hyperplan de E. D'après la proposition 2 de la partie 2.2 (page 112), il existe un s.e.v S = KxQ de E de dimension 1 tel que H®S = E. Si maintenant on définit <p Ç E* par <p(x) = 0 si x 6 if et <p(\xa) = A sur 5, on voit que Ker ip = H. □ PROPOSITION 5. Soit H un hyperplan de E. L'ensemble HL des formes linéaires sur E qui s'annulent sur H est une droite de E*. Démonstration. D'après la proposition précédente, il existe tpu G E* tel que Ker^>0 = H. Maintenant, soit <p G E* une forme linéaire qui s'annule sur H. Soit xQ G E tel que H (BKz{) = E. On a <p0(xo) / 0 (sinon ip() s'annule sur H et sur Kxo donc, sur E, ce qui est absurde car Ker^>0 = H). Posons A = ^(:ko)/V(i(ï(i) et ip = <p— \<p0. Comme <p et ipo s'annulent sur H, V> s'annule sur H. Or par construction de A, VK^o) = 0. L'application ip s'annule donc aussi sur Kx0, donc, sur E tout entier, et donc <p = Xtpo G Vect(^(i). Réciproquement, on vérifie facilement cpie si ip G Vect(^0), alors ip s'annule sur H. □ Remarque 7. On peut montrer de manière plus générale que si F est un s.e.v de E de codimension finie, alors FL est un s.e.v de E* de dimension codim^ F. 4.4. Applications transposées DÉFINITION 5. Soient E et F deux K-e.v de dimension quelconque. Soit u G C(E, F). Pour tout /G F*, on a fou G E*. L'application linéaire F* —► E* f >-> fou est appelée application transposée de m et notée *u. PROPOSITION 6. Soient. E et F deux. K-e.v. Si E et F sont de dimension finie, on a (i) r"gu = rg('u) (ii) Im('u) = (Keru)x, et en dimension quelconque (iii) Kerf u) = (Im«)x. Démonstration, (i) sera démontré lors de l'étude des problèmes matriciels (voir partie 4.5). (ii) Soit g g Im(*«). Il existe f Ç F* tel que g = / o u, donc, pour tout x G Keru, g(x) = 0, et donc g G (Ker«)x. On vient donc de montrer que Im(*M) C (Kertj)x. Or dim(Im*M) = rg*« = rgu = dim(Imu) = dimE — dim(Ker«) = diir^Keru)-1-, d'où (ii). (iii) Il suffit de remarquer que ^GKer'tj •<=> ipou = i) •<=> ImnCKer^ •<=> tp G (Imu)1. □ PROPOSITION 7. Soient E,F,G trois K-e.v, u G C(E,F) et v G C(F,G). Alors '(no u) = *u o *v. Démonstration. Il suffit d'écrire que si g G G*, g o (v o u) = (g o v) o u = *u(g o v) =* u o [*«(jr)]. □ PROPOSITION 8. Supjwsons E de dimension finie. Soit u G C(E). Un s.e.v F de E est stable par u si et seulement si FL est stable par *ti.
130 III Algèbre linéaire : généralités Démonstration. Condition nécessaire. On a u(F) C F donc pour tout ip Ç Fx, comme <p(F) = {0} ona^o u(F) — {0}. Autrement dit, si <p e FL on a *u(<p) 6 FL. Finalement, FL est stable par H. Condition suffisante. D'après le corollaire 1, il existe r formes linéaires (pi,... ,<pr telles que F = n[=1 Keripi. En particulier, pour tout »', Ker^>,- C F c'est-à-dire que <pi 6 FL. Maintenant, comme F1 est stable par *u, on a *u(ipi) = ipi o u 6 FL pour tout », donc <pi o u(F) = <pi[u(F)] = {0}. Autrement dit, pour tout », u(F) C Ker^,- et donc u(F) C nj"=1Ker^,- = F, d'où la condition suffisante, O Remarque 8. — Ce résultat reste vrai en dimension infinie mais sa démonstration fait appel à l'axiome du choix. — Cette proposition peut être très utile dans certains raisonnements par récurrence en dimension finie n relatifs aux réductions d'endomorphismes. En effet, si x G E* est un vecteur propre de 'u, alors Kx est stable par *u et donc (Kx)", hyperplan de E, est stable par u (appliquer la proposition à F = (Kx)°). Le tour est joué, on est ramené en dimension n — 1 (on trouve des raisonnements de ce type dans la démonstration du théorème de trigonalisation par exemple). 4.5. Problèmes matriciels Applications transposées. Soient E et F deux K-e.v de dimension finie respectivement égales kp et q. Soit u G C(E, F), B une base de E et B' une base de F. Soit / G F*, (ai,... , aq) = [/]§, sa matrice dans la base B'. Si y = / o u et (/?i,... , /3P) = [</]§, on a (A,...,/Jp)=(a„...,ttf)[«]i' donc en transposant ces matrices, 0x \ / «i ; =fMS' & / De la définition d'une application transposée, on vérifie facilement que ceci équivaut à dire ['ujfl* = *[»]%', où B* et B'* sont les bases duales de B et B'. En d'autres termes, la matrice dans les bases duales de B et B' de *u est la transposée de la matrice de u dans les bases B et B'. On déduit de ce résultat que rg'u = rgM, résultat annoncé dans la proposition 6. Changement de base dans le dual. Soit E un K-e.v de dimension finie n. Soit B = (ei,... , e„) une base de E, B'* = (ej,... , e* ) sa base duale. On se pose le problème suivant : Quelle est dans la base B* les coordonnées de la base duale d'une nouvelle base B' = (£„...,£„) de El Soit C la matrice de passage de la base B à la base B'. Soit / G E*, (al5... ,a„) sa matrice dans la base B*, (/5^,... ,/?„) sa matrice dans la base B'*'. Soit x G E, X sa matrice (colonne) dans la base B, Y sa matrice dans la base B'. On a X = CF, et /(*) =(ai,..., o„)JT = (/?,,..., /J„)y donc (a,,... , a„)CT = (/¾,... ,/?„)K, et ceci pour tout Y donc (/¾,... ,/?„) = (alt... ,a„)C. En d'autres termes, ou encore / ai \ //¾
4. Dualité 131 La matrice de passage de B* à B'* est donc 'C'-1 où C est la matrice de passage de B à B'. 4.6. Exercices EXERCICE 1. Soit E un K-e.v, <px,... ,<pp e E* et <p : E —> W définie par ip = ((pi,... , (pp). Montrer que (p est surjective si et seulement si <pi, ••• ,<PP sont linéairement indépendantes. Solution. Condition nécessaire. Supposons \i<pi + • • • + \<pP = 0 (*) avec les A,- 6 K. Comme ip est surjective, si on fixe », 1 < i < p, il existe x € E tel que ^,-(x) = 1 et pour tout j / i, ipj(x) = 0. Appliqué à (*), ceci entraîne A,- = 0, et ceci pour tout », d'où la condition nécessaire. Condition suffisante. Soit ip G (lm(p)^. Soit (ei,... ,ep) la base canonique de W, (ej,... , e*) sa base duale. Écrivons ip = AiejH t-Ape*. Pour tout x Ç E, il>(<p(x)) = 0 = \\ipi(x)-\ |-Ap^>p(x), donc \i<pi + 1- Ap^p = 0, ce qui entraîne Ai = • • • = Ap = 0, donc tj) = 0. Autrement dit, on a montré (Im^)1 = {0}, donc Im^> = KP, c'est-à-dire que <p est, surjective. Exercice 2. Soit E un E-e.vde dimension 3, (ei,e2,e3) une base de E. Soit #,/2,/3 G E* définis par Ji = 2el + e2 + e3, /2 = —e! + 2e3, /3 = e1 + 3e2. Montrer que (#,/2,/3) est une base de i?' et déterminer la base (/1,/2,/3) de E dont elle est la duale. Solution. Les colonnes de la matrice M = sont les coordonnées des /* dans la base (ej,ej,e3). Pour montrer que (#,/2,/3) est une base de E*, il faut montrer que le rang de la matrice M est égal à 3. Des opérations élémentaires sur les colonnes donnent rg M = rg (on vérifie en effet facilement que cette dernière matrice est inversible), (#,/2,/3) est donc bien une base de E*. On a vu (voir la partie 4.5) que la matrice M de passage de (ej, e\, ej) à (/,*, #, /3) est *(7-1, C étant la matrice de passage de (ei,e2,f.3) à (/1,/2,/3). Donc. M = *C~l, ce qui entraîne C = *M_1 = (*M)_1. On calcule facilement (*M-1) en inversant le système Y = iMX en un système donnant X en fonction de V. On trouve 2 1 1 -1 1 0 3 2 0 Les coordonnées de /1,/2,/3 dans la base (^1,(^2,^3) sont les vecteurs colonnes de C = iM '. Exercice 3 (Formes linéaires de Mn(K)). a) Soit / e Af„(K)* une forme linéaire sur Mn(K). Montrer qu'il existe A G Mn(K) telle que pour tout X e Mn(K), f(X) = ti(AX).
132 III. Algèbre linéaire : généralités b) Déterminer les éléments / G Af„(K)* tels que pour tout X,Y G Mn(K), f(XY) = f(YX). Solution, a) Si A G jM„(K), on note fa la forme linéaire sur jM„(K) définie par fa(X) = tr(AX). Soit ^> ; jM„(K) —► Mn(K)* A >—► fa. C'est une application linéaire, Nous allons montrer que ip est bijective, ce qui prouvera le résultat. Soit A = (oij)i<tj<n G Ket<p. Alors pour tout (i,j), tt(AEij) =; a;-|t- = 0 (Eij désignant la matrice de Mn(K) dont tous les éléments sont nuls sauf celui d'indice («*, j) qui vaut 1), et donc. A = 0. Donc Ker^> = {0}, et <p est donc injective. Comme de plus dim(jM„(K)*) = dim(M„(K)), ip est bijective, d'où le résultat, b) Soit / une telle forme linéaire. D'après la question précédente, il existe A = (««',;')i<«,;<n t Mn(K) telle que / = fa, et on a pour tout X,Y G Mn(K), f(XY) = tt(AXY) = f(YX) - tt(AYX). En particulier, pour tout (i,j,k) avec, i / k on a tt(AEijEjtk) = t^AEj^Eij) (*). Or EijEj^t = Eitk et Ej^Eij = 0 car k / «", donc. (*) s'écrit aussi t^AEi^) — 0, c'est-à-dire ojt.f = 0. Ceci étant vrai dès que î / iir, on en déduit que A est une matrice diagonale. Maintenant pour tout, (i,j) on a.tt(AEijEjti) = t^AEjjEij), c'est-à-dire tt(AEifi) = tt(AEjj), donc a,,,- = ajj et ceci pour tout, (i,j). Ainsi, A est une matrice scalaire, donc il existe A G K tel que / = Atr. Réciproquement toute forme linéaire de cette forme répond au problème posé. EXERCICE 4. On note M„[X] l'espace vectoriel {P G E[X],deg(P) < n}. Soit ip : Rn[X] -f R Ph/ 1 P(t ) dt 1-M2 " a) Soient x0,...,xn n + 1 nombres réels distincts deux à deux. Démontrer qu'il existe A0,... , A„ G K tels que pour tout P G Rn[^-1> <p(P) = Yl"=» A<P(x,-). Donner une méthode pratique de calcul des A,-. b) On suppose n = 2k +1 impair. Démontrer qu'il existe n réels Xi,... ,x„ et Ai,... ,A„ £ E tels que n VPéR„[4 V(P) = ^AiP(3:,)- «=1 Solution, a) L'application ip est, une forme linéaire sur IR„[X]. On a dim(E„[X]*) = dim(E„[X]) = n + 1 ((1, X,... , Xn) est une base de E„[X]). Ceci étant, pour tout, i, 0 < «' < n, on définit la forme linéaire <pt sur IR„[X] par ipi(P) = P(z«)- Nous allons montrer que les (^>,)o<«<n forment une famille libre. Supposons Yl?=o /*W = ® (*)• Pour tout k définissons P* = Yi'^i^i^ ~ xi) e K„[Jï]. On a <pi(Pk) = 0 si k / i, et donc en appliquant la relation (*) à P*, on trouve /j* Yii^.k(xi=~ x<) = 0- Les xi étant distincts, ceci entraîne fik = 0, et, ceci pour tout k. Les (<pi)a<i<„ forment, donc une famille libre de n+l éléments de E„[X]*. Comme E„[X]* est de dimension n+l, on en déduit, que c'est une base de E„[X]*. En particulier, il existe A( A„ G E tels que ip = Yi?=a A«^>«, et donc. n n VP G R„[X], V(P) = £>W(P) = £A,P(*,)- «'=(1 «=(l Donnons maintenant une méthode pratique de calcul de A*, Comme pour tout i / iir, Pj(xt) = 0, on trouve en appliquant, la relation précédente à P* que A*P*(**) = ^(P*), donc At= VW (**)
4. Dualité 133 b) Il s'agit en fait de choisir les (xi)o<i<„ de sorte que le coefficient A() de P(xo) soit nul. D'après (**), ceci sera vérifié si W.""^--''-'- Fixons 0 < ai < • • • < a* des nombres réels (iir est tel que n = '2k + 1), Si 1 < i < k, on pose X2i-i = ai et x^i = —ai, et X2k+i = 0, de sorte que 21+1 il P0(X) =Y[(X- Xi) = X l[(X2 - a\). «=i «=i On s'aperçoit que t t-> Po(t) est une application impaire; il en est donc de même de l'application P (t} f* P (t\ t i-t- -—^—, et donc A0 = / -—^j dt = 0, d'où le résultat, (Remarquons que l'on peut choisir xo i ~i~ * */—i • comme l'on veut pourvu qu'il soit différent des x,- déjà choisis pour 1 < » < n). Exercice 5. Soit E un K-e.v de dimension finie n G N*. 1/ Soit (ex,... ,e„) une famille de vecteurs de E, (y»i,... ,iy3„) une famille de formes linéaires sur E. Soit / : E —► £ x i-> ]C"ai Vi(^)e,- On a / e £(£)• Montrer que rg / + n > rg{eii • • • i en} + TëWi) • • • ) Vn}- Peut-on remplacer n par une constante plus petite? 2/ a) Soit <pi,... ,(pr r formes linéaires sur E indépendantes et ex,... , eT r vecteurs de E indépendants. Soit / G C(E) défini par f(x) = Ylï=x fi(x)ei- Quel est le rang de /? b) Soit u G C(E), rgM = ç > 1 et (e,,....e,) une base de Im«. Montrer qu'il existe q formes linéaires <px,- ■ ■ ,% telles que pour tout x G E, u(x) = Yli=x ^«(z)6»- Que dire de la famille ((px ,... ,(pq)l c) Montrer que tout endomorphisme est la somme de deux automorphismes. Solution. 1/ Soit p = rg{ei e„} et q = rg{^n ip„}. Soit u € £(£,1^) définie par u(x) = (ipx(x) <Pn(*)) et soit v 6 £(K", E) définie par v(xx xn) = Yl?=xXie*> ^e solie que / = v o u. D'après le théorème 3, Ker u = {i £ £ | Vi,tpi(z) = 0} est de dimension n — q, donc rgu = n — dim(Ker u) = g. On a Im v = Vect{ei,... , e„} donc rg v = p. Ceci étant, on a Im(t> o u) = v(lmu). Soit F = Imud Ker « et S un supplémentaire de F dans Imu de sorte que Im« = F© S. Comme S O Ker v = {0}, la restriction de v k S est injective donc t>(Imu) = v(F)+v(S) = «(5) est de dimension dimS. On en déduit rg(t>ou) = dim5. Or F C Ker v donc dimF < dim(Ker v) = n — rgt;, donc dimS' = rg« —dimF > rgn + rg t> — n = p+q— n d'où le résultat. On ne peut pas remplacer n par une constante plus petite (prendre tous les <pi nuls et (ei,... , e„) une base de E). Remarque : On a montré le résultat général suivant : pour tout (u, v), rg(t> o u) > rg u + rg v — n. 2/ a) On a x Ç Ker/ •<==> Yll^x ¥>i(x)ei = 0, et comme les e,- sont indépendants, ceci entraîne Ker/ = {x Ç E \ Vi,tpi(r.) = 0} = (Vect{^n ¥>r})°• Les ipt étant linéairement indépendants, on a donc dim(Ker f) = n — dim(Vect{^n,... , ip,.}) = n — r, d'où rg / = n — dim(Ker /) = r. b) Pour tout i, 1 < i < q, il existe e,- 6 E tel que u(e,-) = e,-. La famille (£,-)1^,-^ est libre car si Si ^«'£«" = 0> alors 0 = »*(]£i A,-e,-) = ^ A,e,- donc, pour tout i, A,- = 0. Soit (£q+x £n) une base de Keru. Si 1 < i < q, £i ¢ Kern, on en déduit que (e! e„) est une base de E. On remarque maintenant que n n f V* = ^ï,£,-, «(*) = ^Xiu(£.) = J^e? (x)e,-. «=i «=i «=i On obtient donc le résultat en prenant <pi = £* pour 1 < i < g. Il est clair que (ipx <pq) forme une famille libre.
134 III. Algèbre linéaire : généralités c) Soit u 6 £(E)- D'après la question précédente, si (ei,... , eq) est une base de Imu, il existe q formes linéaires indépendantes ipi,.. ■ ,<pq telles que u = Yli=i V> ' e>- Complétons (e.\,... , eq) en une base (ei,... , e„) de E, et (<p\,... ,<pq) en une base (<pi,... ,<pn) de E*. On pose Ui = -^(pi ■ e; + ^2 ipi • e,- et U2 = 7y zL P{ ' e'~ S P' " e* " «=1 «=«+1 «=1 «=«+1 D'après 2/a), rg u\ = rgU2 = n. Or u = u\ + u2- On peut donc écrire u comme somme de deux automorphismes. 5. Formes multilinéaires, déterminants Dans toute cette partie, E désigne un K-e.v. 5.1. Formes multilinéaires DÉFINITION 1. Soient des K-e.v Et,... , Ep et F. Une application /: Et X ---x Ep ^F (a:,,...,ïp)^/(ïi,...,a:p) est dite p-linéaire si en tout point les p applications partielles sont linéaires. Si p = 2, / est dite bilinéaire. L'ensemble de ces applications est noté C(Ei,... ,EP,F). C'est un K-e.v. Si Ei = • • •_ = Ep = E et F = K, on parle de forme p-linéaire sur E, et l'ensemble des formes p-linéaires sur E est noté Cp(E,K). Exemple 1. — L'application E* X E -> K (ip,x)>-+ ip(x) =< (p,x > est une forme bilinéaire. — Pour tout <pi,... , ipp G E*, l'application ip: EP^K {xu...,xp)^iPl{xl)---iPp{xp) est une forme p-linéaire sur E. Proposition 1. dim£p(£',K) = (dim£,)p. DÉFINITION 2. Soit / e Cp(E,K). — f est dite alternée si f(xi,... ,xp) = 0 dès que deux vecteurs parmi les Xi sont égaux. — / est dite antisymétrique si l'échange de deux vecteurs dans la suite (x,i,... ,xp) donne à / des valeurs opposées. Remarque 1. On montre facilement que / est antisymétrique si et seulement si pour tout a G Sp (groupe des permutations de {1,... ,p}) et pour tout (xi,... , xp) G Ep, on a /(^(i),--- ,x„(p)) = e((r)f(xi,... ,xp), e((r) étant la signature de a. THÉORÈME 1. Soient K est »m corys commututif de caractéristique différente de 2, E un K-e.v et f £ CP(E,K). Alors f est antisymétiique si et seulement si f est alternée. PROPOSITION 2. Soit E un K-e.v, f e CP(E,K) alternée. Si (ii,... ,xp) est un système lié, alors /(ii,... ,xp) = 0.
5. Formes multHinéaires, déterminants 135 Corollaire 1. Soit f une forme p-linéaire. alternée sur E. On ne change pas la valeur de f(r.i,... ,xp) en ajoutant à un des vecteurs x,i une combinaison linéaire des autres vecteurs. DÉFINITION 3 (ANTISYMÉTRISATION d'une FORME p-LINÉAIRE). Pour toute forme p-linéaire / G CP(E,K), on note /»: E"^K (*„...,*,),- X>H/[*„(i),...,*„(,,)]. <r€St Ainsi construite, f^ est une forme p-linéaire alternée. 5.2. Déterminants Dorénavant, E est de dimension finie n G N*. ThÉorÈME 2. L'ensemble des formes n-linéaires alternées sur un K-e.v E de dimension n est un K-e.v de dimension 1. De plus, il existe, une et une seule forme n-linéaire alternée prenant la valeur 1 sur une base donnée de E. Démonstration. Soit B = (e1,. . . , e„) une base de E. On définit d Ç C„(E,K) par d(xi,... , xn) = eîC^l) • ■•<£(*")• de SOrte <lUe 8' POUr tollt «> X> = Yl"=l Xi,3eh (liXl> ■ ••>*") = *1,1 - • • *n,ni et S(xi,... ,i„) = ]£»€$„ ¢00^(1),1 •••*»(")."• °n a en particulier ^(ei,... ,e„) = 1, donc, d* /0. Soit / 6 C„(E, K) une forme n-linéaire alternée. La n-linéarité de / entraîne que /(*!,...,*„)= ^ a:i1,-1---*„1i./(e,-1I... ,e,-.). »'i «n Or si «t = i| pour k / /, /(ej,,... , e,-,,) = 0, et on a donc /(*!,... ,*„) = ^2 xl,<r(l)- ■ ■ xn,<T(n)f(e<T(l), ■ ■ ■ ,e<r(n)) = /(ei,••• ,e„)d,|(ïi>... , *„). (*) Donc / e Vectfd1"), et, comme S ^ 0, ceci prouve que l'ensemble des formes n-linéaires alternées sur E est de dimension 1. Si f(e\,... ,e„) = 1, (*) prouve que / = tfl, d'où l'existence et l'unicité de la forme n-linéaire alternée valant 1 sur la base B. D DÉFINITION 4. Soit B = (ei,... ,e„) une base de E. Le théorème précédent affirme qu'il existe une et une seule forme n-linéaire alternée sur E prenant la valeur 1 sur la base B. On l'appelle déterminant dans la base B et on la note detB. Si Xi,... , xn G E (z; = Sj=i xi,3ej)i Ie déterminant de (x-i,... , xn) dans la base B est detB (*,,... ,xn)= J2 £(^1,^(1)•••*»,"(«)• Remarque 2. — En utilisant le théorème 2, on montre facilement que pour toute forme n-linéaire alternée /, on a f(xi,... ,xn) = f(e\,... ,e„)detB(î;1,... ,xn). — (Changement de base). En particulier, si B et B' sont deux bases de E, alors detB<(î;1,... ,xn) = detB(z1,... ,xn)detBi B. On en déduit detB B' • detB< B = 1. ThÉorÈME 3. Soient Xi,... , xn G E. Les propositions suivantes sont équivalentes. (i) Les vecteurs X\,... ,xn forment une famille liée. (ii) Pour toute base B de E, detB(:*;1,... ,xn) = 0. (iii) // existe une base B de E telle que detB(a;1,... ,xn) = 0.
136 III. Algèbre linéaire : généralités Déterminant d'un endomorphisme. DÉFINITION 5. Soit un endomorphisme / e C(E) et B = (ei,..., e„) une base de E. Le scalaire detB(/(ei),... , /(e„)) ne dépend pas de la base B choisie. On l'appelle déterminant de / et on le note det /. Proposition 3. (i) Si f,g e C(E), det(/ o g) = det / x det g. (ii) detIdB = 1. (iii) Soit f e C(E). Alors (f <E Çt.(E) <=ï det / £ 0) et on a de^/"1) = (det /)-1. Déterminant d'une matrice carrée. DÉFINITION 6. Soit A = (oij)i<{j<n £ Mn(K). On appelle déterminant de A le déterminant des vecteurs colonnes de A dans la base canonique de K", et on le note det A. On a d'ailleurs det 4 = ^2 e(cr)aa(1)fl •••«„(„),„ = ^ £(CT)ai,<Ki)' ' •«»,»(»)• o£Sn aesn Remarque 3. Si A = (a.-,;)i<i,j<n £ M„(K), on note aussi le déterminant de .4 en l'écrivant sous la forme Propriétés. Soit A e M„(K). Alors : — det A = det(Vl). — det A dépend linéairement des colonnes (resp. des lignes) de A. — Pour tout A G K, det(XA) = A" det A. — On a (det A £ 0 <=> Ae £4(K))- — Si on effectue une permutation a G Sn sur les colonnes (ou les lignes) de A, le déterminant de A est multiplié par e{<r) (signature de a). — Si A est triangulaire, det A est le produit des éléments diagonaux de A. — On ne change pas la valeur d'un déterminant en ajoutant à une colonne une combinaison linéaire des autres colonnes. Même chose sur les lignes. — Si A est la matrice de / G C(E) dans une base de E, alors det / = det A. — Si A, B G Af„(K), Aet(AB) = det A ■ det B. — Deux matrices semblables ont même déterminant. — (Déterminant par blocs). Si m = (-iHir)e M"W avec A G MP(K) et B e M„_P(K), alors det M = det A ■ det B. Mineurs et cofacteurs. DÉFINITION 7. Soit A = (a,-,;-)i<ij<„ G Mn(K). Pour tout (i, j), on appelle mineur de l'élément o,-j le déterminant A,j de la matrice obtenue en supprimant la i-ième ligne et la j-ième colonne de la matrice A. Le scalaire Aij = (-l),+;At|j s'appelle le cofacteur de «,-j. On appelle mineurs principaux de A les déterminants A* = det(a,i;)1<,j<t pour 1 < k < n. Proposition 4 (Développement selon une ligne ou une colonne). Soit une matrice A = (a,-,j)i<,-,;<n é Af„(K), Aij les cofacteurs des éléments de A. Alors : — (Développement par rapport à la j-ième colonne) J2?=i a«",i^«,i = de* &■• — (Développement jtar rapport à la i-icme ligne) YlJ=i a«",i^«",i = (iet A.
5. Formes multilinéaires, déterminants 137 DÉFINITION 8. Soit A G Mn(K). La matrice (.4,-,;)i<;j<„ des cofacteurs des éléments de A, est appelée comotrice de A et on la note com(i4) ou encore A. Proposition 5. Soit A e Mn(K). Alors A*Â = *ÂA = (det A) ■ In. Exemple 2. La proposition précédente entraîne que si une matrice A est inversible, alors A~l = (1/ det A) • * A. En particulier, si A=(ac bd ] G M „(K) avec det A = ab - bc ? 0, alors A~l = J_ (d ~M . Déterminant de Vandermonde. Beaucoup de déterminants sont classiques (voir les exercices). Nous allons étudier ici un déterminant ultra-classique appelé déterminant de Vandermonde. Pour tous ai,... , a„ G K, on note V(ai,-- ,an) = 1 «! a\ 1 a-2 a\ 1 «» al (déterminant de Vandermonde de «i,... ,a„). Nous allons montrer que V(«i,...,a„) = JJ (a,--a,). Démonstration. On procède par récurrence sur n. Pour n = 2, c'est évident. Supposons le résultat vrai pour n — 1 et montrons le pour n. Dans V(«i, • • • > an), on retranche à chaque colonne ai fois la précédente (en commençant, par la dernière colonne). On obtient 1 0 0 0 1 ai — a\ a\ — a\ai ■■■ aj-1—aiaj-2 1 a„-ai a\-axan ••• a£~l - ai(%~3 a2 —ai aij —ai<i2 ••• «J-1 — «i«2~2 «n-«i «2-«i«r. ••• <-1-ai<~2 (après développement par rapport à la première ligne). On factorise ensuite chaque ligne par (a,- — ai), ce qui donne V(ai,... ,a„) = (a-2- ai) •••(«„ -ai) 1 a2 1 a„ II(«.-«i) U=2 ^(12,--- ,«r.) d'où le résultat car d'après l'hypothèse de récurrence, V(«2, • • • , ««) = ri2<«<i<n(a; — a«')- ^ 5.3. Systèmes linéaires On considère le système de p équations à q inconnues suivant «2,1^1 + a-2,JxJ + + aiiqxq = bi + «2,« *q = f>2 (S) , «Pii Xi + aPi2 x2 + •■■ + aPi1 xq = bp
138 III. Algèbre linéaire : généralités Systèmes de Cramer. Supposons que dans le système (S), p = q = n. Posons A = (a.-,i)i<.\;<n £ Af„(K), B la matrice colonne dont les composantes sont les (6,)i<,<„ et X la matrice colonne dont les composantes sont les (it-)i<,-<n- Le système (S) s'écrit aussi AX = B, et on voit donc que (S) admet une unique solution X pour tout B si et seulement si det A ^ 0. Dans ce cas, comme B = x^Ax + h xnAn (les Ai désignant les vecteurs colonnes de la matrice A), on a, B0 désignant la base canonique de K", detBa(Ai,... ,Ai-i,B,Ai+i,... ,An) = x{ detB„ (/1,,... ,An) = a,-det 4. On en déduit que les composantes z,- de X sont données par detBo(/li,... ,.4,--1,.8,.4,-+1,... ,An) Xi det A (formules connues sous le nom de formules de Cramer). Cas général. On note A = («,-,•) i<ar G MPJK). Soit r = rg.4. Il existe un détermi- nant A d'ordre r non nul extrait de A (d'après le théorème 2 de la partie 3.6). Ainsi choisi, A s'appelle le déterminant principal du système (S) (il n'est en général pas unique). — Les équations dont les indices sont ceux des lignes de A s'appellent les équations principales. — Les inconnues dont les indices sont ceux des colonnes de A s'appellent les inconnues principales. On peut écrire A = det(a,-;) ig/. On appelle déterminants caractéristiquesles déterminants d'ordre r + 1 de la forme Ki) g; ("*,;); €J (*.).€/ h avec k ¢3. Les déterminants caractéristiques n'existent que si r < p, et il y en a alors p— r. Avec les notations que nous venons d'introduire, on a le THÉORÈME 4 (RouchÉ - FONTENE). Le système (S) admet des solutions si et seulement sip = r ou lesp—r déterminants caractéristiques sont nuls. Le système est alors équivalent au système des équations principales, les inconnues principales étant déterminées par un système de Cramer à l'aide des inconnues non principales. Exemple 3. Soit le système (S) : Ici on a *1 *l -*1 + + 2s2 X-i A = - - + i x3 + x4 =1 x3 - x4 =1 x3 + 2x4 = m 1 2-1 1 \ 10-1-1). -11 1 2 / m G Un calcul rapide montre que rg A = 2. Nous choisissons le déterminant principal issu de la matrice A en considérant ses deux premières lignes et ses deux premières colonnes. Il n'y a ici qu'un seul déterminant caractéristique, qui est 1 2 1 1 0 1 -1 1 m = -2(m+ 1)
5. Formes multilinéaires, déterminants 139 D'après le théorème de Rouché-Fontené, (S) admet des solutions si et seulement si m et dans ce cas, le système (S) est équivalent au système = -1, Zl + 2*2 = 1 + x3 - x4 Xi = 1 + x3 + x4 Xi = 1 + x3 + x4 x2 = -x4 5.4. Exercices Il existe plusieurs déterminants classiques qu'il faut savoir calculer. Les méthodes de calcul sont parfois astucieuses; faites donc les exercices pour les connaître. Exercice 1. Soit n > 2 un entier. Pour tout k, 1 < k < n — 1, on considère un polynôme Pk = Xk + akiXk~l + h at|t G M[X], Si xt,... , x„ € R, calculer le déterminant A = 1 Pi (*i) 1 Pi(x2) P»-i(*i) P»-i(a:2) 1 P,(a:„) ••• P„-,(ï„) Solution. Après avoir retranché 01,1 fois la première colonne à la deuxième, on obtient A = 1 XI P2(*l) ••• Pn-l(Xl) 1 X2 P2{X2) ... P„_,(ï2) 1 *„ ft(l») "• Pn-l(x„) On retranche ensuite à la troisième colonne rt2,2 fois la première et 02,1 fois la deuxième, et on remarque que la troisième colonne n'est plus composée que de x?. On recommence ainsi jusqu'à parvenir à la dernière colonne, et on obtient finalement A = 1 X\ 1 X2 1 Xn »"-1 -«-1 = v(xi ,...,*„)= Yi (xî- *••)• Exercice 2. Soit a eU. Pour tout « G N*, calculer le déterminant d'ordre n ■ 0 A„:= a 1 0 1 a 1 0 1 a 0 0 1
140 III. Algèbre linéaire : généralités Solution. Si n > 3, on obtient, en développant le déterminant A„ par rapport à la première ligne A„ = a a 1 0 0 1 a 1 n- 0 ••• î « 0 1 -1 colonnes 0 0 1 a 1 0 0 0 0 0 ••• a 1 1 a '•• ••• 0 1 n —1 colonnes 0 0 1 a et en développant le deuxième déterminant du membre de droite de cette égalité par rapport à la première ligne, on obtient A„ = aA„_i — A„_2- Autrement dit, (A„) est une suite vérifiant une récurrence linéaire d'ordre 2. On sait donc calculer ses termes, sachant que Aj = a et A2 = a2 — 1. Vous laissant le soin de faire les calculs, on trouve : Si \a\ > 2, avec. 6 = y/a2 - 4, A- = s mM-m n+\ - Si a= 2, A„ = n+ 1. - Si a = -2, A„ = (-l)"(n+l). - Si \a\ < 2, soit B € ]0, n[ tel que a = 2c.os0. Alors A„ = sln"" > ', sin0 Exercice 3. Soient a, b e K et xi,... , xn G K. On définit le déterminant d'ordre n x,\ a • • • a b x2 '• : A„ = a b xn a) Si a ^ b, calculer A„. (Indication : on pourra considérer le déterminant An(x) obtenu à partir de A„ en ajoutant x à chaque terme, et montrer que An(x) peut se mettre sous la forme Ax + B.) b) On suppose ici que K = E. Calculer A„ si a = b. c) Si a = b et K est quelconque, calculer A„. Solution. Suivons l'indication et considérons, pour tout x € K, le déterminant A„(x) = xi + x a + x b + x x-i + x b + x a + x a + x b + x xn + x En retranchant aux n — 1 premières colonnes la dernière, puis en développant par rapport à la dernière colonne, on voit qu'il existe A, B 6 K tels que pour tout x Ç.K, An(x) = Ax + B. On remarque maintenant que A„(—b) est le déterminant d'une matrice triangulaire supérieure dont les coefficients diagonaux sont les X{ — b, donc. A„(—b) = (x,\ — b) ■ ■ (x„ — b) = —Ab + B. On obtient de même A„(—o) = (xi — a) ■ ■ ■ (x„ — a) = — Aa + B. De ces deux valeurs, on en déduit A„ = fl = fcn,(^-")-»n,(^.-fc) b— a
5. Formes multilinéaires, déterminants 141 b) On fixe a 6 K, et on regarde A„ comme une fonction de b que nous notons f(b). L'expression d'un déterminant d'une matrice en fonction de ses coefficients montre que la fonction b >-* /(&) est continue sur E. Maintenant, on a vu au a) que si b / a, alors ■f W = b - a °U P(x) = [[(xi ~ x)- Autrement dit, si Q(x) = xP(a) — aP(x), on a f(b) = —^-j —. En faisant tendre b vers a, la continuité de / permet donc d'affirmer que A„ = /(«) = Q'(a) = P(a) - aP'(a) = Jft*.- - a) + a ( £ Y[(Xj - a) ] c) Ici, la méthode utilisée au b) ne marche plus. On va s'en tirer autrement. Dans A„, substituons à b l'indéterminée X, donnant ainsi un déterminant que nous notons D. D apparaît alors comme un déterminant dont les coefficients sont clans le. corps K(X), et d'après a) (puisque évidemment X et a sont différents dans K(X)) : D=XP{a)-jtP{X) o. p = U(xi_x)enxl i En posant Q{X) = XP(a) - aP(X) € M[X], ceci s'écrit aussi D = )~™rt). Soit R € M[X] tel que Q{X) - Q(a) = (X - a)R(X) (*), de sorte que D = R(X). En dérivant (*), on obtient Q'(X) = R(X)+(X-a)R'(X), donc Q'{a) = R(a). 11 ne reste plus qu'a substituer à X la constante a, ce qui donne A„ = R(a) = Q'(r<) = P(a) - aP'(a) = £[(*, - a) + a ( £11^ - «) j Exercice 4. Soit M G Mn(Z) (i. e. une matrice à coefficients dans Z). Donner une condition nécessaire et suffisante pour que M soit inversible et que M~l G Af„(Z). Solution. Nous allons montrer que (M est inversible et M~l 6 jM„(Z)) si et seulement si (detM = ±l). Condition nécessaire. On a M 6 Af„(Z) donc. det(M) 6 Z. De même, M~l 6 Mn(Z) donc det(M-1) = l/det(M) € Z. Ainsi, det(M) est un entier d'inverse entier, d'où det(M) = ±1. Condition suffisante. On a M 6 jM„(Z) donc, les cofacteurs de M sont des entiers, donc la coma- trice M de M vérifie M 6 Af„(Z). Or det(M) = ±1 donc l/det(M) 6 Z. Donc. M est inversible et : Exercice 5. a) Soient ai,... ,an et fa,... ,/?„ £ E. On note M la matrice /(<*, + /?,)"-' (a,+&)"-> ••• (a, + A,)-1 \ («2 + fa)"-1 (tta+A)""1 ••• (a2+ /?„)"■' V(a„ + A)"~1 (tt„ + A)»-> ••• (a„+ /?„)"-' y M = eA<„(
142 III. Algèbre linéaire : généralités Calculer le déterminant de M. b) Soit p G N et un entier n tel que n > p + 1. On note A la matrice A = ( 1 2? 2p 3P nP \ (n + 1)" eMn \ nP (n + l)P ■■■ (2n- 1)' / Calculer A = det A. Solution, a) L'cistuce est d'écrire M comme le produit de deux matrices. Si m,j désigne l'élément d'indice (i, j) dans la matrice M, on a rmj = xx*-,«?/?r1-* = ï>,*?*,; w t=d t=i où pitk = C*llotï~l et qkj = Pj~k. En d'autres termes, si P = (pi,j)i<ij<n € Mn(U) et Q = (?«■,;)i<«-,i<» € -M„(R), la relation (*) s'écrit M = PQ. On a donc. detM = detP ■ detQ. Or le déterminant de P vaut CS-, qu«i ■•• es:'*? m—l„n—1 1™«-1 /7° /71 n ... /7"-1«"-1 donc det P = Cl_x • • ■ C^I, Ui<j(ai ~ «•)• Par ailleurs, ft-1 ■•■ AT1 1 «i 1 a2 1 a„ „«-i detQ = fil 1 A. 1 = (_l)"("~l)/2 1 A 1 fin ^ -1 # -1 (cette dernière égalité s'obtient en effectuant (n— 1)+-+2 + 1 = n(n — 1)/2 transpositions sur les lignes), donc detQ = (-l)»<»->)/*n,<;0% - fit)- On a donc det M = det P ■ detQ = [f[ C"„_, ) (-l)-(-»/» JJ [(„, _ „.)(# _ /¾)]. b) Si p + 1 = n, alors d'après la question précédente appliquée à la matrice M avec a,- = » et fij = j - 1, on a det A = (g Ci.,) (-l)-(-»V»n [C/ - 02] • \«'=o / «<J Or iio--o=n «<j j=2 J-l no - o Li=l j=2 j=l et TTr* -ïïf (n"1)! 1- K"-1)']" donc finalement A = (-l)»(»-»)/2 [(n - 1)!]".
5. Formes multilinéaires, déterminants 143 Si maintenant n > p-f 1, nous allons montrer que A = 0. Notons P = Xp 6 E[X] et pour tout i 6 {1,... , n}, Pi = P(X + i) = (X + iy, de sorte que la matrice A s'écrit A = l Pi(0) Pi(l) JMo) /Mi) • Pi(n-l)\ ■■ ft(n-l) V P„(0) P„(l) ... Pn(n-l) ) Pour tout i, Pi e Ep[X] = {Qe E[X] | degQ < p}. Comme M.p[X] est un E-e.v de dimension p + 1 ((1, X,... , Xp) en est une base) et que n > p + 1, on en déduit que P\,... ,Pn forme une famille liée. Donc il existe \\,... , A„ 6 E, non tous nuls, tels que Yl?=i ^t-ft = 0, et donc pour tout j, 0 < j < n — 1, ^17=:1 ^iPi(i) = 0- Autrement dit, les vecteurs lignes de la matrice A sont linéairement dépendants, ce qui entraîne A = det A = 0. EXERCICE 6. Soit la matrice Ap = ( 1 C\ Cl i rl c2 V 1 C> C* 1+p fp fP W+p eAVn(E). Calculer Ap = det Ap. Solution. En retranchant à chacune des p dernières lignes la précédente, on obtient : Cl ■■■ (1P~1 Ap = 1 0 0 c1 C2 C*1 W+p-1 CP-i f,p-l Un+p-l es rr0 -i e„+ j °"+p-i = A„_ p-1 (on a utilisé la relation Ck\\ - C'k+l = C'k). Donc Ap = Ap_i = ■ ■ ■ = Ai = 1. EXERCICE 7. a) Calculer le déterminant d'ordre n à coefficients dans A„ = a2 «2 + *2 a, a2 b) Calculer le déterminant d'ordre n+là coefficients dans A„ = X «1 «1 «1 X «2 «2 «2 «2 «r. «n X
144 III. Algèbre linéaire : généralités Solution, a) Nous allons prouver par récurrence sur n que A„ = xi ■ ■ xn + J2]=i(ai Tlk^j x*)- Le résultat est évidemment vrai pour n = 1. Supposons le vrai au rang n — 1 et montrons le au rang n. En utilisant la linéarité du déterminant par rapport à la dernière colonne, on voit que A„ = «i +^1 «i <12 a, a-i «n-l+ïn-l «1 + Zl «1 a2 an x„ = Di+Ih- Si on retranche, dans le déterminant D\, la dernière colonne aux n— 1 premières, on s'aperçoit que Z?i = a„zi - ■ ■ zn-i- P*1 ailleurs, en développant Di par rapport à la dernière colonne, on obtient Di = z„A„_i. Finalement, A„ est égal à Di+D2 = anxi ■ ■•*„_! + xn ^i•■•Xn-i+531 °j n ** = *i ■■■xn + *Tl a;!!1* b) En ajoutant toutes les colonnes à la dernière, on obtient A„ = ( x + 5^ a; «=i ai x a-i : ai ' •. «n-1 «1 «2 ••' «n-1 «n 1 puis en retranchant, pour 1 < j < n, à la j'-ième colonne aj fois la dernière, x — ai x ■ ■ ■ x 1 0 x — a-i : : x A„ = [ a: + 5^ «i i~ï 0 x-an 1 0 1 = ( *+x> ) ïi(* - «.) .=1 / ,=1 Exercice 8 (Déterminant de Cauchy). Soient a,,... ,a„ e K et &,,...,&„ e K tels que pour tout (i,j), «i + bj ^ 0. Calculer le déterminant d'ordre n A„ = 1 «l+'l 1 oj+ii 1 1 <"l+i>a 1 «2+la 1 «n + &l «n+&2 1 o„+4„ Solution. C'est clcissique. Il y a plusieurs moyens de procéder. Nous donnons ici une solution tissez générale. Supposons dans un premier temps les a,- distincts deux à deux et n > 2. L'existence de la décomposition d'une fraction en éléments simples permet d'affirmer 3A1,...,A„eK, R(X) = (t, -X)- ■■(&„_! -X) = Ai (X + ai)-(X + an) X + ai A„ X + an
5. Formes multilinéaires, déterminants 145 On peut même effectivement calculer les A*, qui valent. Si maintenant on note L\,... , L„ les lignes de A„, on a A„ = Lx Ln-i Ln 1 " A„ c'est-à-dire A„ = 1 «i+'i a„_i+4i «l + 4n «n_l+4„ 1 oi+4i «n-l+ll «l + 'n-l «l+'« «n-l+ln-1 Mn_i+4n fl(&i) •■■ R(bn) 0 ■•• 0 En développant, ce dernier par rapport à la dernière ligne, on obtient Sachant que A! = 1/(<ïi + bi), une récurrence sur ?i donne n,-<y(«i-<«oiw^-*o i?(M A„ = n,-,;(«.+fci) (*) Rappelons que nous avions supposé que les a,- étaient distincts deux à deux. Si maintenant deux des a,- sont égaux alors les deux lignes correspondantes dans A„ sont égales et donc A„ = 0. L'égalité (*) est donc vraie dans tous les cas. Remarque. Cette méthode, ainsi que le résultat, sont à retenir. On peut par exemple calculer par cette technique un déterminant de Vandermonde (faites le !). Une application des déterminants de Cauchy est donnée au chapitre portant sur les suites de fonctions du tome Analyse (voir le problème portant sur le théorème de Mùntz). - Grâce à ce résultat et à la formule A~l — Vl/(det A), il est facile d'inverser une matrice dont l'élément d'indice (i,j) est l/(a,- + bj) puisque les mineurs d'une telle matrice sont des déterminant de Cauchy. Exercice 9. Soient ax,... ,an e K. Calculer le déterminant A = 1 ax 1 cc2 a k-l î „*-i a k + l a. k + l a:; 1 an ex- Solution. Soit
146 III. Algèbre linéaire : généralités A(X) = 1 a, 1 «2 1 a„ 1 X n n n Xk-i Xk Xk+i X" €E[X]. A apparaît comme le mineur de l'élément X' dans A(X). En développant A(X) par rapport à sa dernière ligne, on s'aperçoit que A est le coefficient de Xk multiplié par (—1)"+* dans le polynôme A(X). Or A(X) est un Vandermonde : n A(X) = V(ai,...,an,X)= JI (Uj- en) ]J(X -a,)- 1 <«'<;' <n «'=1 D'après ce que l'on a dit plus haut, on a donc l'égalité A = (-l)"+*(-l)"-*«r„_f JI («;-«.) = "»-*■ II K""'). l<i<j<n l<«'<j<" où (rn-h désigne la valeur prise au point («i,... ,a„) par le polynôme symétrique élémentaire J2 xi ' ' ■ Xn-k € T^Xi,... , X„]. Remarque. On peut ainsi connaître les cofacteurs d'un Vandermonde, donc inverser un Vandermonde. Exercice 10. Soit E un K-espace vectoriel de dimension n 6 N*, où K est un corps commutatif de caractéristique différente de 2. Soit / une forme n-linéaire alternée sur E. Pour tout u 6 £{E), on définit : n /„ : E" ->K (^,,...,^)^^/(^,,...,^.,,14(^,),^+,,...,^). Montrer que /„ = tr(u)/. Solution. Fixons u € C(E). L'application /„ est une forme ?i-linéaire alternée comme on le vérifie facilement; l'ensemble F des formes n-linéaires alternées de E étant un K espace vectoriel de dimension 1, on a donc : (V/eF,//0,3!A/6K), fu = X}f. Soit g / 0 une autre forme n-linéaire alternée. Il existe /i € K* tel que g = fif. Donc Xgg = g„ = fifu = (fi^f)fi et comme g = /i/, on tire :Xj = A,. Le scalaire Xj ne dépend donc pas de /6 F, mais seulement de u. On peut donc écrire : 3A„ € K, V/ € F, /„ = A„/. (*) Montrons maintenant que A„ = tr(u). Soit B — (e,,... ,e„) une base de E, A = («,■,;),<,<;<« la matrice de u dans cette base. En appliquant (*) à la forme ji-linéaire alternée detB (déterminant dans la base fl)et au n-uplet («î,.. . , fn), on obtient At,det.B(e1)... ,e„) = A„ = J3detB(e1,. . . .e,--!, u(e,), e,-+1,. . . ,e„).
5. Formes multilinéaires, déterminants 147 Or pour tout i, detB(e1,... ,e,_1,u(ej),ej+ll... ,e„) =detB(e1,... ,e,-_i,^Oj,,- e;-, e,-+i,... ,e„) n = 2_/«•>,«' detB(ei,... , e,-_i,e;-,e,-+i,... ,e„) = a,-,,- On en déduit AM = J27=i a«',« = tr(-^) = <r(u)- Exercice 11. a) Soit A € Af„(E). On note A sa comatrice. Donner le rang de A en fonction du rang de A. b) Si n > 3, résoudre dans Ai„(E) l'équation A = A. Solution, a) Si rgA = n, l'égalité *AA = (det.A)/„ entraîne A = (det A)*A-1, donc comme detA/ 0, rgA = n. Si rgA = n— 1, alors il existe un mineur d'un élément de A non nul (d'après le théorème 2 de la partie 3.6, page 121), donc A / 0. De plus, on a *AA = (det A)In = 0 donc Im A C Ker *A, donc dim(Ker *A) > n — 1 et donc rg * A = rg A = n — dim(Ker * A) < 1. Comme on a vu que A / 0, ceci entraîne rg A = 1. Si rgA < n — 2, alors tous les cofacteurs de A sont nuls, donc, rg A = 0. b) L'égalité A = A entraîne l'égalité rg A = rg A. Si rgA < n — 2, alors d'après a), rg A = 0, donc, rg A = 0, donc A = 0. Si rgA = n — 1, alors rg A = 1, et donc n— l = rgA=rgA= 1 donc n = 2, contraire aux hypothèses. Si rgA = n, alors (detA)/„ = *ÂA = *AA. Or det('AA) = det (*A) det (A) = (det A)2 et det[(detA)4] = (detA)". Comme detA / 0, on en déduit (detA)"-2 = 1, et donc detA € {-1,1} car detA 6 E. Si A = (aitj), le terme d'indice (1,1) de *AA est J2j aij > 0, et comme *AA = (det A)I„, ce terme vaut det A. Donc det A > 0, et donc, det A = 1. Finalement, on a montré que det A= 1 et *AA = I„. Réciproquement, si *AA = I„ et det A = 1, comme tAA = (det A)In — In, on a A = A car A est inversible. L'ensemble des matrices A vérifiant A = A est donc la matrice nulle et les matrices A telles que det j4 = 1 et *AA = In (ces dernières sont l'ensemble des matrices orthogonales de déterminant 1, 0+, i. e. le groupe spécial orthogonal). Exercice 12 (Déterminant circulant). Soit n e N* et w = e2i*/n. On note il («C-W-O),^*. e Mn(C). a) Soient a,,...,a„ eCet A = ( ax a2 a3 ■•■ an \ an «i «2 • •- «n-l «n-l «n «1 • • • tn-2 \ «2 «3 «4 •• «1 / eA4„(Q.
148 III. Algèbre linéaire : généralités Calculer det(Afi) et en déduire la valeur de det A. b) (Application). Si 9 6 E, calculer le déterminant nx n A(9) = cos 9 cos 29 cos nO cos 9 cos 29 cos 30 cosné? cos(n — 1)9 COS0 Solution, a) Un peu d'attention montre que le coefficient d'indice (i,j) du produit Afi est w(«'-i)0-i)p(w;-i) où p désigne le polynôme P = a, + «2^ + • ■ • + anXn. Autrement dit, Afi = / P(l) P(o>) P(l) uP(u) P(w»-i) \ \ P(l) w"_1P(w) •■■ J"-1)!"-')/'^"-!) / On en déduit det(Afi) = P(l)P(u) ■ ■ ■ P(w"-1) 1 1 1 u 1 .,«-1 1 w"-1 ■■• w^"-1^"-1^ = P(l)P(u) ■ ■ ■ P(un-1) det fi. Comme det fi / 0 (c'est, un Vandermonde dont, les paramètres sont, deux à deux distincts), on en déduit det A = P(l)P(u) ■ ■ ■ P(w"-'). b) On pose Un = {e2ik*ln, n 6 Z}, de sorte que d'après a), A(0) = JJ (cose + wcos2e + --- + w"-1cosne). Supposons dans un premier temps 6 ¢ ^-Z. Si w € ï/„, on pose 5 = cos0 + w cos20H t-w"-1 co&nO et. T = sin0 + u sin'29 H (-w"-Isinn0. On a 1 _ f-ini (*) 1 1 — f'"" S + iT = - y^luei$)k = eie- T et de même 5 - iT = e" , On en déduit, après calculs, que /„0\ sin(^fl)-a>sin(f) à-2sm^2 J- (1_we,-.)(1_we-,-.)- Orr-«n»(^)= II [*-"sin(y)],donc jK^ —(?)]=-" (^»)--"(f) Comme X" - enit = ïïueUn(X - we*"), on a Y[ (1 - we") = 1 - e"", de même J] (1 - we-") = (1 - e"""). uet/„ ugt/„ «. ' (**) (***). On en déduit Il [(1 - We")(l -We-")] = (1 -B»")(l - e"»") = 4sin2 f^) .
5. Formes multilinéajres, déterminants 149 Avec (*), (**) et (***) on en déduit Nous avons démontré cette relation pour 6 £ t~-Z. Le déterminant étant une fonction continue de ses coefficients (c'est un polynôme en ses coefficients), la fonction 0 t—► A(0) est continue, et par continuité on en déduit que la relation trouvée est valable pour tout 6 € K. Remarque. On verra au chapitre IV une autre démonstration du résultat de la question a) (voir l'exercice 4 de la partie 1.6, page 178). EXERCICE 13. Soient a,b € K avec a ^ b. On pose / a + b ab 0 ••• 0 \ 1 a + b ab '•. : An= 0 1 a + b •■ 0 €Mn(K). V » 0 '•. ab 1 a + b ) Calculer det An. Solution. Supposons n > 3. En développant par rapport à la première ligne on obtient l ab 0 ••• 0 det An = (a + b) det A„_i — ab 0 a + b ab '•. : 0 1 a + b '•. 0 : 0 '•• '•■ ab 0 ••• '•• 1 a + b puis en développant le dernier déterminant de cette égalité par rapport à la première colonne, det.A„ = (a + b) det A„_i — ab det A„_2. Sachant que j i. ^ , a2 - 62 , . , ,, a3 - 63 det A, = a + b = r- et det A2 = a? + ab + b2 = a-b on démontre facilement par récurrence sur n que det A„ = a-b ' q"+' - &"+' a — b Remarque. Si a = 6, une récurrence donne det A„ = (n + l)a". - À partir du résultat de cet exercice, on peut facilement calculer les déterminants de la forme P 7 0 ••• 0 a (3 7 '•• : 0 a ft ••. 0 0 0 (x /3
150 III. Algèbre linéaire : généralités 6. Problèmes Problème 1. Résoudre dans Mn(U) l'équation A2 = -J„. Solution. Comme A2 = -/„, on a det(A2) = (det A)2 = (-1)" donc n est pair. Soit p e N* tel que n = 2p. On va démontrer, en procédant par récurrence sur k, le résultat suivant : pour tout *> 1 < * < P. il existe *i,... , xk € E = E" tels que (*i,/(*i), •.. ,Xk,f(xk)) forme une famille libre (/ étant l'endomorphisme de K" dont A est la matrice dans la base canonique de K"). Pour k = 1, Soit xi 6 E, xi / 0. Si Azi + nf(xi) = 0, alors par composition par /, on tire A/(*i) — Hxi = 0- Finalement, on en déduit : (A2 + S)*i = A [Aï, + /!/(«,)] - /i [A/(*,) - /iï,] = 0. Donc A2 +^2 = 0, c'est-à-dire A = ^ = 0. La famille (*i,/(ïi)) est donc libre. Supposons maintenant le résultat vrai au rang k — 1 et montrons le au rang k < p. D'après l'hypothèse de récurrence, il existe x\,... , xt-i € E tels que (*i,/(*i), ■ ■ ■ , ït_i,/(st-i)) forme une famille libre. Soit Fk-i = Vect{ïi,/(ïi),... , *i_i,/(*i-i)}. dimFt-! = '2k — 2 < 2p, donc on peut choisir xk Ç. E, x,k ¢ Ft-i- Supposons maintenant une égalité du type : A!*i +H2f(xi) + ■•• + Ai xk +fikf(*k) = 0. Alors AfcZfc + Hkf{xk) € Fk-i et Ffc_i étant stable par /, /[AfcZfc + fikf(xk)] = >>kf(xk)-ftkXk € F*-.,. Donc : {\\ + nl)xk = Xk [A*** + mf{xk)\ - Ht [At/(*i) - /i*xt] € F*.,. Or xt ^ F*-,, donc \l + fil = 0, d'où At = /it = 0, d'où A,ïi + /ii/(xi) H i-^k-ixt-i + fik-if(xk-i) = 0, donc Vi, A,- = fii =0. En particulier, en prenant k = p, on voit que 3xi,... ,xp Ç. E tels que (*i, /(*i),. ■ ■ , xp,f(xp)) forme une famille libre à 2p = n éléments de E, donc une base B de E. A est donc semblable à (0) [f\B = ( \ " 0 -1 ' 1 0 (0) [0 -1 et réciproquement, si A est semblable à une matrice de cette forme, A2 = —/„. Problème 2 (Endomorphismes nilpotents en dimension finie). Soit E un K-e.v de dimension finie n e N*. Soit / e £(E), nilpotente, (i. e. il existe p e N* tel que f = 0). On note ç € N* l'indice de nilpotence de /, i. e. q = mî{p 6 N* | fp = 0}. 1/ On veut montrer que q < n. a) (Première méthode). Montrer que la suite (Im/p)peN décroît strictement jusqu'à p = q puis devient stationnaire. Conclure. b) (Deuxième méthode). Montrer qu'il existe xt) e E tel que (xu, f(xu),... ,f1~l(x0)) forme une famille libre. Conclure. 2/ Si r = dim(Ker/), montrer que r ^ 0 et que n/r <q<n+l— r. Solution. 1/ a) Pour tout p, comme f(E) C E, on a fp+l(E) = fp[f(E)] C fp(E). La suite (Im/p)peN est donc décroissante. - Soit s le plus petit naturel tel que Im/*+1 = Im/* (s existe car Im/»+1 = Im/' = {0}). Alors pour tout p > s, Im/P+1 = /p—[/*+1(£)] = fp-*[f'(E)] = Im/P. La suite (Im/^peN est donc, stationnaire à partir du rang s. Or (Im/p)pgN est stationnaire à {0} à partir de p = g, donc q = s.
6. Problèmes 151 Pour tout p < g, on a donc Im/P+1 C Im/p et Im/P+1 / Im/P, d'où rg/p+1 < rg/p - 1. On en déduit facilement par récurrence sur p que si p < g, rg/p < rg/° — p = n — p (rappelons que /° = Idf; par convention). En particulier, 0 = rg /' < n — q, donc q < n. b) Comme /»-1 / 0, il existe x0 6 2? tel que /'"'(zo) / 0. Nous allons montrer que la famille (xo,/(*o)f. i/'-1^)) est libre. Si J2*~0 Xif'(x0) = 0 avec les A,- non tous nuls, on considère le plus petit entier k tel que A* / 0. On a YliZk ^if'(xo) = 0, donc en composant par fi~l~k à gauche, At/'-'^o) + At+,/»(*o) + ■ ■ • + Aj-i/^'-'ï-^xo) = 0. Comme f = 0 pour p> g, cette dernière égalité entraîne At/'-1(a;0) = 0, et comme f1~l(xo) / 0, Xk = 0, ce qui est absurde. La famille considérée est donc libre. Elle a g éléments, donc g < dimE = n. 2/On a vu au 1/a) que si p < g, rg/p+1 < rg/*'— 1, ce qui entraîne que 0 = rg/' < rg/—(g — 1) = n —i— (g — 1), donc g < n — r + 1. Il reste à montrer l'inégalité n/r < q. Pour cela, commençons par montrer que Vp € N, rg /p+1 = rg /p - dim(Im/p n Ker /). (*) - Soit 5 un s.e.v de E tel que (Im/pnKer/)eS = Im/P. On a SnKer / C (Im/pnKer/)nS = {0}, donc S n Ker/ = {0}. Ceci entraîne que /|s (restriction de f à. S) est injective, et donc dim/(5) = dimS. Or Im/P+' = /(Im/P) = /[(Im/P n Ker/) e S] = f(S), donc rg/p+1 = dim/(5) = dimS = rg/p - dim(Im/p n Ker/). L'égalité (*) entraîne que pour tout p, rg /p+1 > rg f —r. Ceci entraîne 0 = rg /' > rg /" — qr = n— qr, donc g > n/r. Remarque. En particulier, si / est nilpotente et si dimKer/ = 1, alors l'indice de nilpo- tence de / est q = n. -Il est important de retenir le résultat suivant (utilisé dans 1/a)) : Si / 6 £(£), la suite (Im/p)pgN décroît strictement puis devient stationnaire. On montrerait de même que la suite (Ker/p)peN croit strictement puis devient stationnaire (à partir du même rang que (Im/p)peN). PROBLÈME 3. 1/ a) Soit N e M„(K) une matrice nilpotente (i. e. il existe p e N* tel que Mp = 0) d'ordre q (i. e. q est le plus petit entier naturel vérifiant Mq = 0). Montrer que I„—N est inversible et donner son inverse, b) (Application). Montrer Pinversibilité et calculer l'inverse de la matrice M = f 1 -a 0 '•• ^ 0 1 '•• 0 : "• —a V o • • • o i / eMn 2/ a) Soit N e Af„(K) une matrice nilpotente d'ordre 2. Pour tout p e N*, calculer (h + Ny. b) (Application). SiM=fj J]ê M 2(E), calculer M1"". Solution. 1/ a) Il suffit de remarquer que (/„ - N)(In +N + ■■■ + N*'1) = In-Ng = In, donc /„ - m e çen(m) et (/„ - M)-1 = /„ + m + ■ ■ ■ + m»-1.
152 III. Algèbre linéaire : généralités b) On peut écrire M = I„ — aN avec N = I . "7"1 I. Une récurrence facile donne (faites le!) : VpeN*, i<p<n-i, wp=(o 7"oP ) etN" = {)- En appliquant 1/a), on voit donc que M = I„ — aN est inversible et que /la a2 ■■■ a""1 \ 0 1 a M~l = In + aN + a2N2 + ■ ■ ■ + an-1 Nn~l = 2/ a) /„ et N commutant, on peut écrire V o 0 1 J (/„ +N)" = J2 CkpNkirk = J2 CPNk = tf1» + ClpN = In+ pN. b) Si N = I , j \, on a. M = '2h + N et N2 = Q, donc d'après la question précédente, M1"" = 21"0 U + ±n\l"" = 2iml(/2 + 5(W) = 21"" f 2^ H ) ■ Remarque. Au 1/a), on a forcément q < n. On peut montrer ce résultat sans faire appel au théorème de Cayley-Hamilton, en procédant comme suit. Soit / l'endomorphisme de E" dont N est la matrice dans la base canonique B de E". Pour tout entier r, l'égalité [Ît]b = Nr entraîne que les ordres de nilpotence de / et de N sont égaux. Or d'après le problème précédent, l'ordre r de nilpotence de / est < n, et donc q < n. - En fait, on identifie souvent une matrice M 6 Ai„(K) et l'endomorphisme / de K" dont M est la matrice dans la base canonique de K". Si les vecteurs de K" sont notés en matrices colonnes, on a même f(X) = MX. Problème 4. Soit E un ensemble et /1,/2,--,/^ n fonctions de E dans K, formant un système libre dans le K-espace vectoriel des fonctions de E dans K. Démontrer qu'il existe n points r-i,... , xn de E tels que la matrice (/;(*;)),<; :<„ soit inversible : a) En procédant par récurrence sur n 6 N*. b) En considérant F = Vect(/,,... ,/„) et Vi € E, x : F -> K f i-> f(x) et en montrant que 3xlf... ,x„ € E tels que x,,... , x'„ forment une base de F*, dual de F. Solution, a) Pour n = 1, c'est évident. Supposons le résultat vrai au rang n — 1 et montrons le au rang n. On définit la fonction A: E- /l(*l) ■■ /l(*n-l) /l(*) M*i) ■■ /2(^-l) /2(*) /n(*i) ■■ fn(rn-i) fn(x)
6. Problèmes 153 *!,... ,i„_i étant pris tels que det(/i(x;-))i<jlj<„_i / 0. En notant, pour tout «', Aj le mineur de l'élément fi(x) de A, on a, en développant A(a;) par rapport à la dernière colonne : n Wx e E, A(x) = £(-l)»+*A4 ■ /,(*). «=i Or A„ / 0, et comme les (fi) forment une famille libre, on ne peut avoir Yl?=i &ifi(x) = 0 pour tout x, donc 3x„ € E, A(a;„) / 0, de sorte que (fi(xj))i<ij<n est inversible. b) Pour tout xe E,x: F -*K f >-* f(x) = x(f) est un élément de F*. Soit T = {x\ x e E). L'orthogonal de T dans F est : r° = {/ e f | v* e e, ï(f) = 0} = {/ e F \ Vx e e, f(x) = 0} = {0}. Soit G = Vect(r). On a G0 = T0 = {0} donc dimG = dimF - dimG0 = dimF = n, d'où G = F* = Vect(r). Donc il existe x\,... , xn 6 E tels que (xî,... , x^) soit une base de F*. Les / *;■(/! ) \ vecteurs I I pour 1 < j < n sont donc linéairement indépendants, ce qui revient à dire que la matrice A = [x;-(/;)],<jj;$„ = [/,(*;)],<;,;■<„ est inversible. Problème 5. a) Soit M e Af„(C). Montrer l'équivalence (M £ #„(0) <=» ((3P e S4(c)), VA e c,P - AM e S4(c)). b) Soit ip e £(Af „(C)) telle que VM e £4(c), ip(M) e S4(c). Montrer que si <p(M) € £4(C), alors M € £4(C). Solution, a) Condition nécessaire. Supposons M non inversible. Si r = rgM, on sait que M est équivalente à la matrice KT = ( ^ [J ), autrement dit (3A,b e çen(C)), m = a(\ J ) B = A#rB. Posons J = / 0 ■■• 1 0 0 1 \0 ■■■ 0 1 \ 0 0 € £4(C). Pour tout A € C on a J - \Kr = 0 10/ / -A 0 0 1 \ 1 '•• '■• 0 0 '■■ -A 0 :-.10 : V 0 0 r lignes (*) 1 0/ Le rang d'une matrice reste inchangé lorsque l'on ajoute à une ligne une combinaison linéaire des autres. En ajoutant à la r-ième ligne clans (*) A fois la suivante, on fait disparaître le —A se trouvant à la position (r, r). En itérant ainsi le procédé aux lignes d'indice i— 1,...,1, on fait disparaître tous les —A, de sorte que rg(J — \Kr) = rg J = n. Ainsi, J — XKr 6 £4(C), donc
154 III. Algèbre linéaire : généralités A(J - \Kr)B = P - XM (avec. P = AJB € Gtn{C)) est inversible pour tout A Ç C, d'où la condition nécessaire. Condition suffisante. Raisonnons par l'absurde et supposons M inversible. Si Q = M~1P, on a VA e C, det(P - XM) = (det M)(det(Q - .A/„)) / 0 donc det(Q— A/„) / 0 pour tout A 6 C. Ceci est impossible puisque det(Q — A/„) est un polynôme de degré n en A (c'est le polynôme caractéristique de Q) donc s'annule au moins une fois sur C. D'où la condition suffisante. b) Raisonnons par l'absurde en supposant M ¢ Ç£n(C). D'après la question précédente, il existe P € G(-n{€) telle que pour tout A € C, P - XM € G(-n{€). En vertu de l'hypothèse faite sur ip et de la linéarité de <p, ceci entraîne VAeC, ^(P)-A^(M) €££„(€), donc d'après la question précédente, <p(M) $. G£n(C), ce qui est contradictoire. Finalement, on a M€G£„(Q. Problème 6. Soit A = (ai,;)i<i,;<„ € Af„(E). 1/ Soit V> '■ N* —»■ E une fonction. Si pour tout (i,j), *|« et i|j montrer que det .4 = ^(1)^(2) • • • V>(n)- 2/ (Applications) Calculer det A si a) a,j est le nombre de diviseurs communs à i et à j. b) a,-j est la somme des diviseurs communs à i et à j. c) aitj = iAj = pgcd(i,jf). Solution. 1/ On définit la matrice B = (&«,;')i<«.;'<" par 6,-j = 1 si « | j, 6,-j = 0 si i \ j. Elle est triangulaire supérieure et n'a que des 1 sur la diagonale principale, donc, detfl = 1. On définit aussi la matrice C = (cjj)k,-;-<n comme étant une matrice diagonale avec c,-,,- = ip(i). On pose maintenant D = *BCB = (di,j)i<i,j<n- Pour tout (i,j), on a <li.j = ^2^.(^.^1,3 =^2h,irk(k)bk,j = ^2 ^(k) = ai,i- k,l k k\i et k\j Donc D = A = *BCB, et donc det A = det('fl) ■ det (7 • detfl = det C, et C étant diagonale, detA=t/>(l)-t/>(n). 2/ a) Il suffit d'appliquer 1/ avec rp(k) = 1. On en tire det A = 1. b) On applique cette fois ci 1/ avec il>(k) = iir, et on en tire det A = n\. c) Remarquons d'abord que l'on a l'équivalence (k | i et k | j) <=> (k\ pgcd(i,j)). Rappelons que <p, l'indicateur d'Euler, possède la propriété suivante : pour tout m, 5Tj.im <p(k) = m (voir la proposition 7 de la partie 3.3 du chapitre I, page 31). On a donc. «i,; =Pgcd(«'.i)= X) V>(k)= 53 ^*) *|pgcd(«,;) *|« et k\j et d'après 1/ appliqué à t/> = <p, on a det A = <p(l) ■ • <p(n).
6. Problèmes 155 Problème 7. Soient n > 2 un entier et K un corps commutatif. Montrer que tout hyper- plan de Af„(K) contient au moins une matrice inversible. Solution. Soit H un hyperplan de jM„(K). Il existe une forme linéaire non nulle <p de (M„(K))* telle que H = Ker^>. D'après l'exercice 3 de la partie 4.6 (page 131), il existe une matrice A € jM„(K) telle que <p(M) = tr(AM) pour tout M 6 Mn(S.). Comme <p / 0, on a A / 0. Finalement, H = Keryp = {M € A*„(K) | tr( AM) = 0}. Il s'agit donc de montrer que (VA e A<„(R)> A / 0,3M € çen(K)), tr(AM) = 0. (*) Commençons par transformer A pour la rendre "sympathique". En posant r = rg(A) > 1 (car A / 0), on sait que A est équivalente à la matrice par bloc ({f q) (voir le théorème 1 de la partie 3.6, page 121), c'est-à-dire 3P,QeÇ£n(K) tels que PAQ = Jr avec J, ■-Cil) Fixons une matrice inversible M n'ayant que des 0 sur sa diagonale principale (on peut prendre par exemple M = ('.' In~1 )). En écrivant la matrice M sous forme de blocs _ ( Ar Br\ ~\Cr Dr ) M = 17 n ) (A-e Mr(K)), on a ce qui montre <|ue, comme M, la matrice JrM n'a <|ue des 0 sur sa diagonale principale. Ainsi, tr(JrM) = 0. En posant N = QMP € Êtf„(K), on a M = Q^NP-1 et 0 = tr(JrM) = tr ({PAQ){Q-lNP-1)} = tr (p(AN)P~l) = ti(AN) C (deux matrices semblables ont même trace), d'où le résultat d'après (*). Remarque. On peut prouver un résultat beaucoup plus fort qui est le suivant. La dimension maximale d'un sous esjm.ce de Af„(K) ne contenant aucune matrice inversible est n(n — 1). Le résultat de l'exercice en découle puisque la dimension d'un hyperplan de Af„(K) est n2 - 1 > n(n - 1). PROBLÈME 8. Soit n e N* et une application p : Mn(C) -»• K+ vérifiant (i) VA e Mn(C), VA e C, P(XA) < \X\P(A). (n) VA,BeMn(C), p(A + B)<p(A) + P(B). (iii) VA, 5 e Mn(C), p(AB) < p(A)p(B). Montrer que p = 0 ou que p est une norme sur Af„(C). p(XA) = p(XA), Solution. Commençons par remarquer que d'après (i), VA e C,VA e Mn(C), V(\A) < \\\P(A) = \X\P Q(AA)) < |A| ce qui entraîne p(AA) = |A| p(A) pour tout A 6 C. Supposons p / 0. Pour montrer que p est une norme, il nous reste à prouver que p(A) = 0 implique A = 0. Pour cela, raisonnons par l'absurde en supposant p(A) = 0 et A / 0. Si r = rgA > 0, on sait A est équivalente à la matrice Jr = (^ ") de sorte qu'il existe P,Q € G^n(C) telles que Jr = PAQ. D'après la propriété (iii), on a p( Jr) = p(PAQ) < p(P)p(A)p(Q) = 0, donc
156 III. Algèbre linéaire : généralité p(Jr) = 0. Si pour tout i 6 {1,... , n} on désigne par Di la matrice dont tous les coefficients sont nuls sauf celui d'indice («', i) qui vaut 1, il n'est pas difficile de voir qu'il existe une matrice Pi telle que Di = PiJr (on peut prendre pour Pi la matrice dont tous les coefficients sont nuls sauf celui d'indice (i, 1) qui vaut 1). Ainsi, Vi€{l,...,n}, P(Di) = p(PiJr)<p(Pi)p(Jr) = U donc p(A) = 0. Maintenant, grâce à l'assertion (ii), on a p(/„) = p(Di +... + £>„)< p(£>,) + ■ ■ -+p(Dn) = 0. Donc pour toute matrice A, p(A) = p(AI„) < p(A)p(In) = 0 donc p(A) = 0, Ainsi p = 0, ce qui est contraire aux hypothèses que nous avons faites. Finalement, on a montré que p = 0 ou que p est une norme sur M„{C)- PROBLÈME 9 (MATRICES DE TRANSVECTION). On se fixe un entier naturel non nul n et on note S1„(K) = {M € Af„(K) | det M = 1}. Pour i,j e {1,... ,n}, on note Eià la matrice de Mn(K) dont tous les coefficients sont mils sauf celui d'indice (i,j) qui vaut 1. On appelle matrices de tmnsvection les matrices de la forme J„ + A-Ejj avec i ^ j, matrices de dilatation les matrices Sn(a) = 1 1 0 o '•• V o ••• i 0 o \ 0 al € Af„(K). 1/ a) Si M = /„ + ^Eij est une matrice de transvection, montrer que M est inversible et que M-1 = /„ — XEtj est aussi une matrice de transvection. b) Si A 6 Ç£n(K), montrer qu'il existe des matrices de transvection Bx,... , Bp, 5J,... ,BJ telles que A = Bf-Br- 5„(det A) ■ B{ ■ • B'r 2/ On appelle commutateur toute matrice pouvant se mettre sous la forme ABA~1B~1 avec A,Be 51„(K). Soit D le sous groupe de Çf.n(K) engendré par les commutateurs. a) Montrer que D = <S1„(K) si n > 3. b) Montrer que D = 51,,(K) si n = 2 et Caid(K) > 4. 3/ On suppose Card(K) > 4 et n > 2. Soit y? un morphisme de groupe de Qf.n(K) dans un groupe commutatif G. a) Montrer qu'il existe un morphisme de groupes g : K* —»■ G tel que (p = g o det. b) Si G = K* et K est fini, montrer qu'il existe </ € N tel que pour tout A € ^„(K), y?(.4) = (det A)9 (on pourra utiliser le fait que (K*,-) est cyclique, voir la remarque de l'exercice 9 de la partie 2.5 du chapitre I, page 26). Solution. 1/ a) Il suffit de remarquer que comme, i / j, E} • = 0 et donc (In + \Eitj)(In — XEtj) — In - A2£?;. = /„. b) Soit M 6 Ç£n(K). Si i / j, on remarque que (i) (/„ + \Eij)M se déduit de M en ajoutant à la i-ième ligne de M A fois la j-ième, (ii) M(In + A^1,-,;) se déduit de M en ajoutant à la j-ième colonne de M A fois la «-ième. Ceci étant, on va maintenant prouver le résultat par récurrence sur n € N*. Pour n = 1, c'est évident car A = (det A). Supposons le résultat, vrai au rang n — 1 et montrons le au rang n. Soit A € £€„(K). Comme A est inversible, la première colonne de A est non nulle. Il existe donc une matrice de transvection T\ = I„ + ^E-i,j telle que le coefficient d'indice (2,1) de T\ A soit non nul. On voit alors qu'il existe /j tel que si Tv = In +/^1,21 alors T-iT\A ait son coefficient d'indice
6. Problèmes 157 (1,1) égal à 1. D'après (i), on voit, maintenant, que l'on peut, trouver des matrices de transvection B\,... , flp (de la forme In+ \Ei:\) telles que {Bi-Bp){TiT2A) = puis d'après (ii), on voit que l'on peut trouver des matrices de transvection B[,... , B' (de la forme /„ + XEi j ) telles que /1 0 u X X X X \ X X / (Bt ■ ■ ■ BfTtTiA)^ ■ ■ ■ BL) = Or detA = detfl donc d'après l'hypothèse de récurrence, il existe des matrices de transvection Cu... ,Cr et C[,... , C, de A*„_i(K) telles que /1 0 V o 0 ■■■ 0 \ B ) B = C\-Cr- S'„_i(det A)C[-C',. Les matrices Di = ( 1 0 u 0 ■■• 0 \ Ci ) et, D'j = ( 1 0 0 ■■■ 0 \ q , sont, des matrices de transvection de Mn(K), et, on a Dt Dr ( 1 0 \o 0 ■■ 0 \ B ) ( 1 0 \ o 0 1 0 0 \ 0 det.4 / ^,---1¾ et donc >\-ï A = (TrlT2-l)(B-1 ■ Bïl)(Dx --Dr)- Sn(detA) ■ {D>x ■ -^)(^)-1 ■ ■ (fl{) d'où le résultat puis<|ue l'on a vu plus haut que l'inverse d'une matrice de transvection est une matrice de transvection. 2/ a) Tout, d'abord, tout commutateur ,45,4-1^-1 est, dans 51„(K) puisque det^fl^-'A-1) = (detJ4)(detfl)(det ^-^(detfl-1) = 1. On en déduit donc D C 51„(K). Montrons maintenant que 51„(K) C D. Soit M 6 iSl„(K). D'après la question précédente, M est le produit de matrices de transvection, et D étant, un groupe, il suffit, donc de montrer que les matrices de transvection sont, des commutateurs pour montrer que M € D. Soit, T = In + ^Eij avec i ^ j une matrice de transvection. Comme n > 3, il existe k Ç {1,... , n} tel que k £ {»', j}. On remarque alors que T= (/„ + \Ei,k)(In + Ekj)(In - \Ei,k){In - EkJ) = (/„ + XEi,k)(In + EkJ)(In + XEiik)-l(In + EkJ)-1, donc T est un commutateur, d'où le résultat. b) Remarquons tout, d'abord que si (a, fi) Ç K x K* , (^-)0 7)(^)0 7)-(1-^)- w On choisit, maintenant, fi tel que fi2 — 1 / 0 et, fi / U (c'est, possible car Card(I€* ) > 3 et l'équation polynomiale fi2 — 1 = 0 a au plus deux racines clans K). La relation (*) prouve alors que toute
158 III. Algèbre lin éa/re : généralités matrice du type I I est un commutateur. De même, on montrerait que toute matrice du type I . 1 est un commutateur. Autrement dit, toutes les matrices de transvection sont des commutateurs, et comme à la question précédente, ceci suffit pour conclure que D = 51„(K). 3/ a) Notons e l'élément neutre de G. Si M = ABA~1B~1 6 Çln(K) est un commutateur, alors <p(M) = <p(A)<p(B)<p(A-l)<p(B-1) et le groupe G étant commutatif, ^(M) = <p(A)<p(A-l)<p(B)<p(B-l) = lp(AA-l)¥>(BB-l) = (<p(In)f = e. Comme D = <S1„(K) est engendré par les commutateurs, on en déduit que tout élément M 6 S1„(K) vérifie <p(M) = e. Ceci étant, soit A € G£„(K). Soit A' € G£„(K) telle que A = A'Sn(det A). On a det.4 = det ,4'det(S„(det .4)) donc detA' = 1 car det(S„(det ,4)) = det.4 / 0. Autrement dit, A' € 51„(K) et donc <p(A') = e, d'où on tire <p(A) = <p(A')<p(Sn(det A)) = v?(5„(det ,4)). Si g : K* -► G ai-* ^[5„(a)], g est un morphisme de groupe de K* clans G, et on vient donc de montrer que <p = jrodet, d'où le résultat. b) On recherche la forme de g. Le groupe K* est cyclique donc il existe a 6 K* tel que K* =< a >. En particulier, il existe p € N tel que g(a) = ap. Donc pour tout i6K,,i = «',ona g{x) = <7(n«) = .«,(«)« = (aPy = (a«f = x", et donc pour tout A € Ç£n(K), <p(A) = g(detA) = (detA)*\ PROBLÈME 10. a) Soient A et B € Af„(M) deux matrices semblables sur C (i. e. il existe P € Qf-n(C) telle que A = P~lBP). Montrer que A et B sont semblables sur E (i. e. il existe Q e (?/„(»), A = Q~lBQ). b) Plus généralement, soit K un corps infini et L une extension de K. Soient A et B 6 Af„(K) deux matrices semblables sur L. Montrer que A et B sont semblables sur K Solution, a) Soit P € Ç£n(C) telle que A = P~lBP, ou encore PA = BP. Écrivons P = Pi+iP2 avec P\,Pi € M„(M.). En égalant parties réelles et imaginaires, on a PjA = BP\ et PiA — BPi. (*) On définit le polynôme <p(X) = det(P, + XP2) € M.[X]. Comme tp(ï) = det P / 0, <p est non nul et donc n'a qu'un nombre fini de racines, de sorte qu'il existe x Ç E tel que <p(r) / 0, c'est-à-dire que Q = Px +xP2 € Af„(E) est inversible. De (*) on tire QA = BQ donc A = Q~lBQ, d'où le résultat. b) On procède un peu comme précédemment. Soit P 6 ££„(L) tel que A = P~lBP, ou encore PA = BP. On écrit P = (p«,;)i<«j<n- Le corps L est un K-e.v. Soit E = Vect(pi;)1<,j<„, s.e.v de L de dimension finie sur K. Soit (ex,... ,ey) une base de E. Pour tout (i,j) on peut écrire Pi,j = Et=i Pi,j,kek avec les pijik € K. Pour tout k, on note Pk = (pi,j,k)i<i,j<n € Mn(K), de sorte que P = P1ei + ■ ■ ■ + Ppep. Comme PA = BP, on a pour tout k, 1 < k < p, P^A = BPk (**). Posons F(Xi,... ,Xp) = det^, P, + ■ ■ ■ + XpXp) € K[X,,... , Xp]. On a F / 0 car F(elt... , ep) = det(P) / 0. Or K est un corps infini, donc F ne s'annule pas sur W, et donc il existe (*!,... ,*p) e KP tel que F^,... , r.p) / 0. Si Q = t-iPi H ïrpPp € Af„(K), on a donc Q € Ç£n(K) et d'après (**), Q.4 = BQ donc ,4 = Q~lBQ, d'où le résultat. Remarque. Le résultat reste vrai lorsque K est un corps fini (voir l'annexe B, partie 3.2).
CHAPITRE IV Réductions d'endomorphismes L'ALGÈBRE linéaire au sens moderne se développe progressivement, à partir des années ' 1840. Vers 1880, la théorie des systèmes d'équations linéaires généraux (sur E et C) est enfin achevée, ainsi que celle des valeurs propres des matrices carrées et, de la réduction de ces dernières à une forme canonique. La notion générale de valeur propre d'un endomorphisme apparaît en fait au dix- huitième siècle, non à propos des transformations linéaires, mais dans la théorie des systèmes d'équations différentielles linéaires à coefficients constants, étudiés par Lagrange en 1762. Le théorème de Cayley-Hamilton apparaît, quant à lui dans un mémoire de Cayley en 1858, démontré uniquement dans le cas n = 2 et n = 3. Les travaux de Cayley paraissent être pratiquement ignorés jusque vers 1880 et c'est grâce au développement, de la théorie des formes bilinéaires notamment avec Cauchy, Sylvester, Hermite et, Weierstrass, que l'étude des matrices est remise au goût du jour. Weierstrass obtient d'ailleurs la réduction dite de Jordan. C'est Frobenius qui, dans plusieurs mémoires publiés entre 1877 et 1880 tiendra le rôle de législateur dans ce domaine en développant de manière systématique les résultats obtenus, avant de parvenir à l'axiomatisation de l'algèbre linéaire par Peano en 1888. Dans tout le chapitre, K désigne un corps commutatif. 1. Diagonalisation, trigonalisation 1.1. Généralités en dimension quelconque La lettre E désigne un K-e.v de dimension quelconque, / un endomorphisme de E. DÉFINITION 1. Soit n 6 K. Le scalaire n est, dit (i) Valeur régulière de / si / — a ME est inversible, (ii) Valeur spectrale de / si / — a ME est non inversible, (iii) Valeur propre de / si / — a làE est non injective, autrement dit s'il existe i/0 tel que f(x) = ax, et on dit alors que x est vecteur propre de / attaché à la valeur propre a. On appelle spectre de / l'ensemble de ses valeurs spectrales. Remarque 1. — En dimension finie, (ii) et (iii) sont équivalents. - 0 est valeur propre de / si et seulement si Ker/ ^ {0}. - Pour une matrice A 6 Af„(K), on dit que a e K est valeur propre de A s'il existe un vecteur X ^ 0 tel que AX = aX. On dit alors que X est vecteur propre de A attaché à la valeur propre a. Si A est la matrice d'un endomorphisme /, a est valeur propre de A si et, seulement si n est valeur propre de /.
160 IV. Réductions d'endomorphismes DÉFINITION 2. Soit A une valeur propre de /. L'ensemble Ex = {x ç E,f(x) = Xx} = Ker(/ — A Id^) est un s.e.v de E stable par /, appelé sous espace propre de / associé à la valeur propre A. Théorème 1. Soient Al5... , A* des valeurs propres distinctes deux à deux de f. Alors les sous espaces propres EXl,. • • , Exk sont en somme directe. 1.2. Etude en dimension finie E désigne désormais un K-e.v de dimension finie n € N*. Polynôme caractéristique. DÉFINITION 3. Soit A e Af„(K). On appelle polynôme caractéristique de A le polynôme de ¥[X] défini par PA(X) = Aet[A - XIn]. Remarque 2. - PA(0) = det A. — Une matrice a même polynôme caractéristique que sa transposée. — Deux matrices semblables ont même polynôme caractéristique. DÉFINITION 4. Soit / 6 jC(-E). Le polynôme caiacteristique de la matrice de / dans une base B de E ne dépend pas de la base B choisie. On l'appelle polynôme caractéristique de / et on le note Pj. PROPOSITION 1. A est valeur propre de f € C(E) si et seulement si P/(X) = 0. Remarque 3. Bien sûr, ce résultat reste vrai pour les matrices. En fait, en dimension finie, tout ce qui est vrai pour les endomoiphismes est vrai pour les matrices et réciproquement (en effet, toute matrice A € Mn(K) peut s'associer à l'endomorphisme de K" : X >-> AX, c'est-à-dire l'endomorphisme de K" dont A est la matrice dans la base canonique de K" ). Remarque 4. — Si K est algébriquement clos (par exemple K = C), tout élément / 6 £(E) a au moins une valeur propre A 6 K. — Une remarque intéressante est la suivante : pour montrer que A est valeur propre d'une matrice A, on peut montrer que rg(.4 — A/„) < n (ce qui est parfois plus simple que de montrer Pa(X) = 0). Par exemple si n > 2 et A = (a 1 ••• 1 \ 1 '•• '•• : : '•• '•• 1 \ 1 ••• 1 a } eMn on voit que rg(.4 — (a — l)/„) = 1 < n donc a — 1 est valeur propre de A et dimEa^i = n — 1. — Dans la pratique, pour déterminer Ex lorsque A est valeur propre d'une matrice A = (aij)i<i,j<n € Af„(K), on résout, le système AX = XX qui s'écrit («1,1 - X) z, + «1)2 x-i + ••• + aln xn = 0 «•ai *i + («2,2 - X) x-i + ••• + a2i„ xn = 0 «r.,1 *1 + «r.,2 x-i + ••• + (a„„ - A) xn =0 (voir l'exercice 1).
1. Diagonaiisation, trigonalisa,tion 161 Coefficients du polynôme caractéristique d'une matrice. Soit A 6 Af„(K). On peut écrire pA(x) = (-1)" [xn - fax-1 + 02x-2 + ■■■ + (-i)n-lx + (-1)-/¾.], où fli = tr A, /?„ = det A, et pour tout k, 0k est la somme des mineurs principaux de A d'ordre k (rappelons qu'un mineur principal d'ordre k est un mineur obtenu comme intersection de k lignes et de k colonnes de même numéros). En particulier, si A désigne la comatrice de A, /?„_i = ti A. Proposition 2. Soit f e C(E), F un s.e.v strict de E (Le. F ^ E et F ^ {0}) stable par f. Soit g = fo la restriction de f à F. Alors g ç £(F) et P3 divise Pj. Démonstration. F étant stable par f, g = f\F est bien un endomorphisme de F. Ceci étant, soit, (ei,... , er) une base de F complétée en une base B = (ex,... , e„) de E. La matrice de / dans B a la forme [f]s = {-Q—g-j ou A = \3\(eu.. -)> et donc Pf = det([f)B-XIn) = A-XIr C 0 B - X/„_, = det(,4 - XIr) ■ det(fl - X/„_r) = Pg ■ det,(fl - XIn-r). PROPOSITION 3. Soit f e C(E) un endomorphisme nilpotent. Alors Ps = (-1)"X" (où n = dim E). Démonstration. Nous donnons deux méthodes de démonstration de ce résultat. Soit, g 6 N* tel que /«=0. Première méthode. Soit A la matrice de / clans une base de E, K' le corps des racines de Pa(X). Dans K*, on peut écrire P^ = (—1)" n«(-^—^«)- On peut bien sûr regarder A comme une matrice de Mn(H£). Pour tout i, Aj est valeur propre de A, associé à un vecteur propre X / 0. Un calcul rapide donne A^X = \\X, et comme Ai = 0, on en tire A,- = 0. Donc PA = (-1)" R^X-Xi) = (-l)nXn. Seconde méthode. Nous allons montrer ce résultat sans faire appel au corps des racines de Pj, en procédant par récurrence sur n Ç N*. Pour n = 1, c'est évident. Supposons le résultat vrai au rang n- 1, montrons le au rang n. On a (det/)' = det(/') = 0, donc det/ = 0 et donc Ker/ / {0}. Soit ei 6 Ker/, t\ / 0, de sorte que /(t'i) = 0. Complétons e\ en une base B de E. Alors W' = (1\*mx) et o = [/^ = ([/iBr = (°0|xM,x), donc M1 = 0, et d'après l'hypothèse de récurrence Pm = (—l)"~1X"~l, donc Pf(X) = -X x ■ ■ ■ x M-XIn-! = (-X)PM=(-l)nXn. Remarque 5. Un résultat plus fort sera donné à la remarque 6 de la partie 2.3 (page 176).
162 IV. Réductions d'endomorphismes 1.3. Endomorphismes diagonalisables DÉFINITION 5. Soit / 6 £{E). On dit que / est diagonalisable s'il existe une base de vecteurs propres de /. On dit que A € Af„(K) est diagonalisable si A est semblable à une matrice diagonale. Remarque 6. Un endomorphisme / est diagonalisable si et seulement si sa matrice dans une base quelconque de E est diagonalisable. Proposition 4. Soit f € £(E). Si Pj est scindé sur K et a toutes ses racines simples, alors f est diagonalisable. Démonstration. Écrivons Pj = (—1)" I~J"=1 (JT — A,-). Pour tout «', A,- est valeur propre de / donc il existe Xi un vecteur propre de / associé à la valeur propre A,-. D'après le théorème 1, les Xi forment une famille libre, à n éléments, et forment donc une base de E. D PROPOSITION 5. Soit f e C(E), A € K une racine de P} d'ordre de multiplicité h. Alors dim Ex < h. Démonstration. Le sous espace propre E\ est, stable par /. Soit g = f\Ex Ç C{E\). D'après la proposition 2, Pg divise Pj. Comme g = A Idgx, on a Pg = (A — X)dtm Ex, donc dimE\ < h. O ThÉorÈME 2. Soit f € C{E). Les propositions suivantes sont équivalentes. (i) / est diagonalisable. (ii) Pj est scindé sur K et pour toute racine Xt de Pj d'ordre de multiplicité h{, h{ = dim^A,- (iii) Il existe des valeurs propres Ai,... , Ap de f vérifiant E = E\t © • • • © E\r. Démonstration, (i) =*• (ii). Soit B une base de vecteurs propres de /. La matrice M de f dans B est diagonale, et si Ai,... , Ap désignent les valeurs propres de /, la diagonale de M est constituée des A,-. Pour tout i, 1 < i < p, notons /i,- le nombre de fois que A,- apparaît dans la diagonale de M, de sorte que Pj = Pm = (—1)" 11^=1 (X ~ ^i)hi- P°ur tollt *> 1 < * < p, il existe /i,- vecteurs de la base B vérifiant f(x) = \{X, c'est-à-dire hi vecteurs linéairement indépendants dans E\it donc dimExi > h{. Donc dirn/?,^ = /».- d'après la proposition précédente. (ii) => (iii). Écrivons P} = (-1)" rïï=i(* ~ A«)'"> les A«' étant distincts. Soit F = ©Li-E^. On a dimF = ££=1 dimEXi = £Li /», = deg(P;) = n, donc F=E. (iii) =*• (i). Si pour tout «', fl,- désigne une base de E\it alors il est, clair que B = B\ U • • • U Bp est une base de vecteurs propres de /. D Proposition 6. Soit f e C(E) diagonalisable et F un s.e.v de E stable par f. Alors f\F € C{F) est diagonalisable. A ce stade du cours, ce résultat est non trivial. Il sera démontré dans la partie 2.1 du présent chapitre (conséquence du théorème 2, page 173). 1.4. Trigonalisation DÉFINITION 6. Un endomorphisme / e C(E) est dit trigonalisable s'il existe une base B de E dans laquelle la matrice de / soit triangulaire supérieure. On dit alors que la base B trigonalise /. Une matrice A 6 Mn(K) est dite trigonalisable si A est semblable à une matrice triangulaire supérieure. Remarque 7. Un endomorphisme / est trigonalisable si et seulement si sa matrice dans une base quelconque de E est trigonalisable. ThÉorÈME 3. Soit f ç C(E). f est trigonalisable si et seulement si son polynôme caractéristique Pj est scindé sur K.
1. Dia.gonalisa.tion, trigona.lisa.tion 163 Démonstration. Avant d'entamer cette démonstration, notons qu'il est équivalent de montrer ce résultat pour les matrices ou pour les endomorphismes (voir la remarque précédente). Condition nécessaire. C'est le plus facile. En effet, si À pst semblable à T = (A' 0 V « X A2 0 x \ X A„ / €Mn(K), alors PA = PT = (-1)" Ui=ï(x ~ A.) est scindé sur K. Condition suffisante. Nous allons procéder par récurrence sur n 6 N*. Pour n = 1, c'est évident. Supposons le résultat vrai au rang n — 1. Nous allons donner deux méthodes pour montrer le résultat au rang n. Première méthode. Soit / l'endomorphisme de K" dont A est la matrice dans la base canonique B de K™. La matrice de l'application transposée */ dans la base duale de B est *A, donc Ptj = PtA = Pa — Pj, donc est scindé sur K, donc d'après la proposition 1, '/ admet un vecteur propre x, donc Ex est stable par */. On en déduit que l'orthogonal H de Kx dans K" est un hyperplan stable par / (voir chapitre III, partie 4.4 proposition 8, page 129). D'après la proposition 2, le polynôme caractéristique de la restriction de / à H (fin est bien un endomorphisme puisque H est stable par /) divise Pj donc est scindé sur K, ce qui entraîne diaprés l'hypothèse de récurrence l'existence d'une base B\ = (ei,... , en_{) de H dans laquelle /jj/ se trigonalise. On complète maintenant cette base de H en une base B' = (e\,... , e„) de K", et on remarque que [/]*' = / [/|H]Bi \ 0 - 0 x \ X x 1 ( x 0 V o x \ 0 x / Cette dernière matrice étant semblable à A = [/]b, on en déduit le résultat. Seconde méthode. D'après la proposition 2, il existe un vecteur propre ex de /. Complétons ei en une base B\ = (ei,... , e„) de K" . On a [/k = (a 0 \ o x M x \ / avec M € Mn-i(K). D'après l'hypothèse de récurrence, M est trigonalisable (car Pj = (« — X)Pm donc Pm est aussi scindé sur K). Soit P 6 Ç/£„_i(K) telle que T = P~lMP soit triangulaire supérieure. On a /1 0 u 0-0 \ p ) [f]B1 ( 1 0 \ o 0-0 \ p ) (a 0 \ o x • • • x \ P~lMP ) l \ o x \ 7 et cette dernière matrice étant triangulaire supérieure et semblable k [f]s = A, on en déduit le résultat. □ Remarque 8. — Si / 6 C(E) est trigonalisable et si F est un s.e.v de E stable par F, alors l'endomorphisme /jF est trigonalisable (en effet, Pf|F divise Pj donc est scindé sur K). — Si K est algébriquement clos (pai exemple K = C), tout endomorphisme est trigonalisable.
164 IV. Réductions d'endomorphismes — La trigonalisation d'une matrice est parfois un passage commode pour montrer un résultat. Notons la relation suivante entre le produit de deux matrices triangulaires supérieures : / «I 0 V o X a2 ... 0 x \ ; X ( Pl 0 l o X (h ... 0 x \ \ X / «i/Si 0 l o x <*1$1 ... * . 0 x \ : X — On verra dans la section 4.4 des réductions plus poussées. 1.5. Réductions simultanées Proposition 7. Soient f,g e C(E) tels que f ° g = g ° f- Alors (i) Tout sous espace propre de f est stable par g (en particulier Ker f). (ii) Im / est stable par g. Démonstration, (i) Soit E\ un sous espace propre de /. Pour tout, x 6 E\, f[g(x)] = g[f(x)] = g(Xx) = Xg(x) donc g(x) € E\. (ii) Soit y e Im/. Il existe x e E tel que y = f(x). On a alors g(y) = g[f(x)] = f[g(x)] 6 Im/. THÉORÈME 4 (DiAGONALISATION SIMULTANÉE). Si f et g e C(E) sont diagonalisables et commutent, il existe une base commune de diagonalisation de f et g (on dit alors que f et g sont codiagonalisablesj. Démonstration. Soient Ai,.. . , Ar les valeurs propres de /, E\lt ... , E\T les sous espaces propres correspondants. Pour tout », E\{ est stable par g. La restriction de g à E\it g\Ex., induit un endomorphisme de E\i, diagonalisable d'après la proposition 6. Il existe donc une base fl,- de E\t de vecteurs propres de g (et bien sûr de / car /|£x = A,- Id.Ex ). Or E = ©J=1 E\i, donc B = UJ=1 Bi est une base de diagonalisation commune de / et g. □ Remarque 9. La réciproque est vraie : si / et g se diagonalisent dans une même base, alors f H g commutent (c'est facile, il suffit de montrer que f et g commutent sur cette base). Théorème 5 (Trigonalisation simultanée). Si f et g e C(E) sont trigonalisables et commutent, alors il existe une base de trigonalisation commune de f et g (on dit alors que f et g sont cotrigonalisablesj. Démonstration. Préliminaire. Remarquons déjà que f et g ont un vecteur propre commun. En effet, / admet Une valeur propre A 6 K (puisque / est, trigonalisable). Le sous espace propre Ex est stable par g, et <7|.ex est trigonalisable (voir la remarque 8), donc admet un vecteur propre x g E\. Finalement, x est un vecteur propre commun à / et, g. On procède maintenant par récurrence sur n. Pour n = 1, c'est évident. Supposons le résultat vrai au rang n — 1. Pour le montrer au rang n, nous donnons deux méthodes. Première méthode. Comme fog = go/, on a'jro*/ =t */o*jr, donc d'après le préliminaire appliqué à */ et *g, il existe un vecteur propre x € E* commun à */ et à *g. Kx est donc stable par */ et *g, donc H, l'orthogonal de Kx dans E, est un hyperplan de E stable par / et g. D'après l'hypothèse de récurrence, f\n et g\n sont trigonalisables dans une même base B' de H. Soit e € E tel que B = B' U {e} forme une base de E. Alors / x \ \f\B = [Î\hW \ o 0 et comme la matrice de f\H clans B' est triangulaire supérieure, on en déduit que [/]b est, triangulaire supérieure. De même, [g]g est, trigonale supérieure, d'où le résultat au rang n.
1. Dia.goaalisa.tion, trigonalisation 165 Seconde méthode. Le préliminaire assure l'existence d'un vecteur propre commun x à / et à g. Complétons x en une base B = (x, e2,... , e„) de E. On a [f]B = (a 0 \ o x M x \ ) et \s\b = ( p 0 V o x N x \ / Comme P/ = (a — X)Pm, Pm est comme P/ scindé sur K, donc M est trigonalisable. De même, N est trigonalisable. Or fg = jr/, donc [/]b[<7]b = [ï]b[/]b, ce qui s'écrit / x 0 V o x MN x \ / / x 0 V « x NM x \ / / x 0 V « x [Mb, X \ J et donc MN = NM. Soit, i^ = (e-i,... ,e„) et /f = Vect fli, hyperplan de E1. On note y la projection sur H parallèlement kKx. Soit, .fr = p°f\H et j^ = pog\u € C(H). Comme [/iJb, = M et [ffilfli = N, fï et <7i commutent, donc d'après l'hypothèse de récurrence, il existe une base B\ de H qui trigonalise à la fois f\ et gx. Si B' = {ï:} U fli, fl' est, une base de E et [/]b< = ce qui montre que [/]b< est triangulaire supérieure. De même [g]B' est triangulaire supérieure, d'où le résultat. □ Remarque 10. — En termes de matrices, ces deux théorèmes s'interprètent comme suit. Soient A,B ç Af„(K) diagonalisables (resp. trigonalisables) telles que AB = BA. Alors il existe P e (74(K) telle que P~XAP et P~lBP soient diagonales (resp. triangulaires supérieures). — La première méthode des démonstrations des théorèmes 3 et 5 montrent l'intérêt de l'utilisation des applications transposées '/ 6 £(£*) dans les raisonnements par récurrence (voir la partie 4.4 du chapitre III) ... à retenir ! 1.6. Exercices EXERCICE 1. Diagonaliser ou trigonaliser dans Af„(C), en donnant la matrice de passage, les matrices suivantes. a) M = c) M = b) M = d) M = /00 0 0 0 1 i, -1 0 /22 5 1 1-3 4 0 1 -1 0 0 0 0 0 -3\ -5 o/ Solution, a) On calcule le polynôme caractéristique de M -X 2 -1 3 -2-X 0 -2 2 1 - X l-X 2 -1 1 - X -2-X 0 l-X 2 l-X = (1-X) 1 2 -1 1 -2 - X 0 1 2 l-X
166 IV. Réductions d'endomorphismes -4-X 1 0 2-X = -(X-l)(X-2)(X+4). 1 0 0 = (1 - X) 1 -A-X 1 = (1 - X) 1 0 2-X D'après la proposition 1, M a donc trois valeurs propres qui sont 1, 2 et —4. Ces valeurs propres étant distinctes, M est donc diagonalisable d'après la proposition 4. Recherchons - Un vecteur propre X\ = ( y J associé à la valeur propre 1 : {-x + 2y - z = 0 3z - 3y -2x + 2y Donc Xi = ( i J convient. - Un vecteur propre X2 = ( v ) associé à la valeur propre 2 : = 0 = 0 {:: = y z MX2 = 2Xi {-2x + 2t/ 3z - 4y -2x + 2y - z = 0 = 0 - z =0 f 3z = 4y \ z = 2(y-x) Donc X2 = ( 3 ] convient. - Un vecteur propre X3 = ( y ) associé à la valeur propre —4 : MX3 = -4X3 {4x + 2y - 3x + 2y -2x + 2y + z =0 = 0 5z =0 f 3x + 2y = 0 \ x = z Donc *-(*) convient. - L'endomorphisme / € £(C?) ayant M pour matrice dans la base canonique de C? est donc diagonalisable, et B = (X!, X2, X3) est une base de diagonalisation de /. On a [f]a = D = donc P~lMP = D avec P = M - il4 = (P est la matrice de passage de la base canonique de C? à la base B). b) Un calcul donne PM = (X2 + l)2 = (X + i)2(X - i)2. - On recherche Ei, le sous espace propre associé à la valeur propre i. On a f -i 0 0 1 0 -i -1 0 0 1 -» 0 \ -1 0 0 -« On remarque que dans cette dernière matrice, la dernière colonne vaut i fois la première, c'est-à- dire qu'en sommant la première colonne à »' fois la dernière, on tombe sur le vecteur nul. Autrement dit, (M — 1I4) I [J 1 = 0. De même, on trouve (M — »/4) ( i,- 1 = 0. On a donc (ces deux vecteurs forment une famille libre de Ei, donc une base de Et car d'après la proposition 5, on a dim Ei < 2). On en déduit en particulier que dim Ei = 2. En procédant de la même manière, on trouve que dim E-t = 2 et que ^ = v«,((::),(j) )
1. Dia.gona.lisa.tion, trigonalisa.tion 167 D'après le théorème 2, M est donc diagonalisable et on a /»00 0 P~1MP=D avec D = f. ' °. f. 0 0 —i 0 ^ 0 0 0 -«' et P = /10 0 1 0 110 0 -«' «' 0 \ i 0 0 -«' c) Ici Pm = —{X — 3)(X — 2)2. Pm ayant une racine double, on ne sait pas encore si M est diagonalisable. - Recherchons £3, le sous espace propre associé à la valeur propre 3. La résolution du système MX = 3X montre que £3 = Vect{ (1 \ }. - Recherchons £2, le sous espace propre associé à la valeur propre 2. La résolution du système MX = '2X montre que £2 = Vect{ ( 3 J }. Donc dim £2 = 1 < 2, et donc M n'est pas diagonalisable. On va donc trigonaliser M. B désignant la base canonique de C3, soit / € £(£?) telle que [f\B = M. Soit ei = (0' e2=(i)' e3 = (ï)- B' = fa, e2, e3) est une base, et on a £3 = Vect C\ et £2 = Vect e2. On calcule les valeurs de / sur cette nouvelle base : /(ei) = 3e,, /(e2) = 2e2, f(e3) = (=§) = e2 - 6e, + 2e3, donc la matrice de / dans la base B' est /3 0 -6 \ [/]B, = T = 0 2 1 \ 0 0 2 / donc si P est la matrice de passage de la base B à la base B', P = on a P~x[/]bP = [/]b'i ou encore P~lMP = T. Au passage, on remarque que les termes de la diagonale principale de la matrice triangulaire T sont les racines du polynôme caractéristique de M, répétés avec la même multiplicité. Ceci est rassurant car T et M étant semblables, elles ont même polynôme caractéristique. d) Ici, PM = (1 - X)3. Un calcul donne rg(M - /3) = X donc dim£, = dim[Ker(M - /3)] = 3 - rg(JW —/3) = 1. M n'est donc pas diagonalisable d'après le théorème 2. Nous allons la trigonaliser. (Ici, c'est plus complexe qu'à la question précédente. Au c), on avait trouvé deux vecteurs propres indépendants. Il ne restait plus qu'à en trouver un troisième, formant une base avec les deux autres, puis à en exprimer l'image par M pour trigonaliser M. Ici, comme il n'y a qu'un seul vecteur propre, cette méthode ne va pas fonctionner. Nous allons procéder comme dans la démonstration du théorème 3 de trigonalisation. Il y avait deux démonstrations différentes, nous allons donner deux méthodes.) - Première méthode. On note B la base canonique de C?. Soit / € £(C?) telle que [/]b = M. On cherche un hyperplan stable par /. Soit B* la base duale de B, de sorte que [*/]#• = *M. On a P,j = P<M = PM = (1 - X)3, 1 est donc valeur propre de */. Recherchons en un vecteur propre «. Si U désigne la matrice colonne de m dont les éléments sont les coordonnées de « dans la base B*, on a *f(u) = « ■$=>■ *MU = U. En résolvant le système *MU = U, on trouve que U — ( 1 ) convient. L'orthogonal H de Cm dans C3 est stable par /. H n'est autre que
168 IV. Réductions d'endomorphismes Ker u = { ( y J , — 2z -f y -f z = 0}, dont B\ = (e.\, e2) — ((")' ( ' ) ) f°rme une hase. On trouve f(ei) = —4e! — 5e2 et /(e2) = 5e! + 6e2, donc [*»]* = ( :' e )=N- Au passage, on remarque que Pn = (X — l)2 = Pj divise P/, ce qui est rassurant d'après la proposition 2. Nous allons maintenant trigonaliser N. On recherche d'abord un vecteur propre de N (qui est associé à la seule valeur propre 1). En résolvant NY = Y, on trouve que Y = ( I convient, donc que f{e\ + e2) = t\ + e2. On pose e, = e,+e2 = (ij et e'2 = e-i=[i^ de sorte que (e'^e^) est une autre base de /f. Un petit calcul donne f(e[) = e[ et /(e2) = ôe'j + eij. Si maintenant on pose e3 = l(ij,B' = (ei>e2>e3) forme une base de C? et f(e'3) = —Se, — 2e'2 + e3, donc /15 -3 \ /100\ [/]«' =10 1 -2 ) = T = P-H/Ib/' avec P = 1 1 0 ) , V 0 0 1 / \l -l 1 J et donc T= P~lMP. - Seconde méthode. Commençons par rechercher un vecteur propre «i pour / associé à la valeur propre 1. Un petit calcul devenu maintenant routinier montre que U\ = ( 1 ) convient. On pose maintenant u2 = ( 1 J et «3 = ( 0 J, de sorte que flo = («i,u2,«3) forme une base de C?. En exprimant les valeurs prises par / sur les vecteurs de flo dans la base Bo, on trouve Soit F = Vect(u2, U3) et soit p la projection sur F parallèlement à C«i. Soit g = po /|F Ç C(F). On a A = [^1(..:,,..3) = f 2 3 ) ■ On a Pa = Pg = (X — l)2. Recherchons un vecteur propre de g associé à la valeur propre 1. On remarque que u2 = u2 — U3 convient. On pose alors u3 = u2, de sorte que (b'2,u3) forme une nouvelle base de F. Soit B'Q = («1, b2,m3) une nouvelle base de C?. On trouve /15 2 \ /100\ [/]B-= 0 1 -2 ]=T' = P'-1[f]BP' avec P= 1 1 1 . \ 0 0 1 / \ 1 -1 0 / Donc T' = P'~1MP : on a trigonalise M. Remarque. Pour suivre correctement les deux méthodes exposées au d), il est bon de relire les démonstrations du théorème 3. Bien sûr, on ne retrouve pas les mêmes matrices triangulaires et de passage à l'arrivée selon la méthode utilisée (il n'y a pas unicité). - Au d), on peut vérifier que les termes de la diagonale principale de la matrice triangulaire trouvée correspondent aux racines du polynôme caractéristique de la matrice M de départ. Exercice 2. Soit E un K-e.v de dimension finie et f e C(E) un endomorphisme de rang 1. Donner une condition nécessaire et suffisante sur / pour que / soit diagonalisable. Que peut-on dire lorsque / n'est pas diagonalisable ?
1. Dia.gonalisa.tion, trigonalisation 169 Solution. On note n = dimE. Par hypothèse, climKer/ = n— rg/ = n — 1, autrement dit 0 est une valeur propre de / d'ordre n — 1, donc racine du polynôme caractéristique Pf de / d'ordre au moins n — 1. Par conséquent, il existe a € K tel que Pj = (—l)nXn~l(X — a). La somme des valeurs propres de / étant égale à la trace de /, on a a = tr /. Ainsi, si tr/ / 0, / admet une valeur propre a jL 0. Les sous espaces propres Eq et Ea de / vérifient alors dim£o + dimEa = n donc / est diagonalisable. Lorsque tr / = 0, 0 est la seule valeur propre de /. Si / était diagonalisable, / serait nulle, ce qui est absurde. Finalement, / est diagonalisable si et seulement si tr / / 0. Lorsque / n'est pas diagonalisable, c'est-à-dire lorsque tr/ = 0, on a /2 = 0. En effet. Soit e\ € E tel que Im / = Vect ex. Complétons ex en une base B = (e\,... , e„) de E. Dans cette base, la matrice de / a la forme /a, a2 ••• a„ \ 0 0 ••• 0 [f]B= , ^ 0 0 ■■■ 0 ) Comme tr / = ax = 0, on a [/]¾ = 0, c'est-à-dire /2 = 0. Exercice 3. Soient a1;... ,a„_! et 61;... , 6„_i des nombres réels. Donner une condition nécessaire et suffisante pour que la matrice A = l « 0 V «1 soit diagonalisable dans Ai„(K). 0 *i \ 0 &„_, «n-i 0 J €Mn(R) Solution. Si tous les a,- sont nuls, A est une matrice triangulaire dont les valeurs propres sont données par ses éléments diagonaux, montrant ainsi que toutes les valeurs propres de A sont nulles. Si A est diagonalisable, A est donc nulle et tous les 6,- sont nuls. De même, si tous les 6,- sont nuls et si A est diagonalisable, alors tous les «,■ sont nuls. Supposons maintenant les a,- non tous nuls et les 6,- non tous nids. Alors le rang de A est 2, ce qui montre que 0 est valeur propre de A et que le sous espace propre Ea associé est de dimension n—2. Notons Ai, A2 € C les deux autres valeurs propres de A. La somme des valeurs propres de A est sa trace donc. \\ + A2 = 0. Il nous faut un autre renseignement pour pouvoir évaluer Xi et A2. Pour cela, on remarque que les valeurs propres de A2 sont les carrés des valeurs propres de A (pour s'en persuader, trigonaliser A dans M„(C)), donc A2 + A2, = tr(A2). Un petit calcul donne tr(.A2) = '^(Y17=i a' M- Finalement on a montré A, + A2 = 0 et Aif + A| = 2 (53a*6« (*) Si A = YH=i a' h < 0, (*) montre que Ai et A2 ne peuvent pas être des nombres réels (et donc A n'est pas diagonalisable dans jM„(IR)). Si maintenant A > 0, (*) montre que Ai = —A2 = -v/ÂT- Si A = 0, Ai = A2 = 0 et A n'est pas diagonalisable. sinon A serait nulle (sa seide valeur propre est 0). Si A > 0, Xx et A2 sont réelles, distinctes et non nulles, et les sous espaces propres E\ltE\2 associés sont de dimension 1. Dans ce cas, dimEa + dim E\x + dimE\2 = n, donc A est diagonalisable dans M„(l). De tout ceci, le lecteur conclura facilement que A est, diagonalisable dans Mn(M.) si et seulement si A = 0 ou A = £"",' «,- bi > 0.
170 IV. Réductions d'endomorphismes Exercice 4. Soit E un K-e.v de dimension finie n € N*. On considère une famille (/,),£/ d'endomorphismes de E commutant deux à deux. a) Si les /, sont diagonalisables, montrer que l'on peut les diagonaliser tous dans une même base. b) Si les /, sont trigonalisables, montrer que l'on peut les trigonaliser tous dans une même base. Solution, a) Procédons par récurrence sur n. Pour n = 1, c'est évident. Supposons le résultat vrai jusqu'au rang n—l et montrons le au rang n. Si tous les /,■ sont des homothéties, c'est terminé. Sinon il existe i'o tel que /,-„ n'est pas une homothétie. Si on note E\y,... , E\r ses sous espaces propres, on a donc r > 2, et pour tout j, dimEx, < n. Par ailleurs, d'après la proposition 7, pour tout j, E\t est stable par tous les /,-, et chaque fi\Ex. est diagonalisable d'après la proposition 6. Donc d'après l'hypothèse de récurrence il existe, une base Bj de E\s qui soit une base de diagonalisation de tous les fi\Ex. ■ Donc B = Bx U ■ ■ ■ U Br est une base de diagonalisation de tous les (fi)iei- b) Commençons par montrer par récurrence sur n qu'il existe un vecteur propre commun à tous les (/«')«'€/■ Pour n = 1, c'est évident. Supposons le résultat vrai jusqu'au rang n— 1 et montrons le au rang n. Si tous les /,■ sont des homothéties, c'est terminé. Sinon, il existe un endomorphisme / de la famille qui n'est pas une homothétie. Comme / est trigonalisable, / admet une valeur propre A, donc un sous espace propre correspondant Ex. On a dimE\ < n (car / n'est pas une homothétie) et Ex est stable par tous les fi. D'après l'hypothèse de récurrence, il existe donc un vecteur propre commun à tous les fi\Ex i (llu es* bien sûr un vecteur propre commun à tous les fi. Achevons la démonstration par récurrence sur n. Pour n = 1, c'est évident. Supposons le résultat vrai au rang n — 1 et montrons le au rang n. En appliquant le résultat précédent aux applications transposées */,■ (elles commutent également et sont également trigonalisables puisque Pt/i = Pft), on voit, qu'il existe x g E* un vecteur propre commun à tous les */«'• L'orthogonal H de Kx dans E est donc un hyperplan de E stable par tous les fi. D'après l'hypothèse de récurrence, il existe une base B de H trigonalisant tous les ft\H- Soit e G E tel que B' = B U {e} forme une base de E. On a pour tout i G I X 0 0 o X 0 0 X X X 0 x A X X X j donc la base B' trigonalise tous les /,-. Remarque. Dans cette dernière partie de b), nous avons utilisé une technique analogue à celle de la première démonstration du théorème 5. On pourrait également procéder comme dans la seconde démonstration de ce théorème. EXERCICE 5 (LEMME DE Schur). a) Soit E un C-e.v de dimension finie. Soit Q C C{E) irréductible, c'est-à-dire que les seuls sous espaces de E stables par tous les éléments de Q sont {0} et E. Montrer que les seuls éléments commutant avec tous les éléments de Q sont les homothéties. b) Si E est un E-e.v de dimension finie, montrer que le résultat est faux dans le cas général. Quand peut-on dire qu'il est vrai ? Solution, a) Soit / g C(E) commutant avec tous les éléments de Q. Le corps C étant algébriquement clos, / admet au moins une. valeur propre A. Soit Ex le sous espace propre correspondant. On a Ex / {0}. Par hypothèse sur /, pour tout gGQ,on&fog = gof. D'après la proposition 7, Ex est stable par tous les éléments de Q. Comme Ex / {0} et que Q est irréductible, ceci entraîne Ex = E. Donc / = A Ue est une homothétie.
1. Dia.gona.lisa.tion, trigonalisation 171 b) Sur un M-e.v, le résultat est faux clans le cas général. Par exemple, en dimension 2, l'ensemble Q des rotations (voir la remarque 1 de la partie 3.1 du chapitre V) est irréductible car aucune droite n'est stable par toutes les rotations. Or tous les éléments de Q commutent avec tous les éléments de Q. Il existe donc des éléments de C(E) qui ne sont pas des homothéties qui commutent avec tous les éléments de Q. Cependant, si n = dimE est impair, le résultat reste vrai. En effet, soit / € C(E) commutant avec tous les éléments de Q. Le polynôme caractéristique Pj de / est un polynôme réel de degré impair, donc Pj admet au moins une racine réelle A, donc / admet une valeur propre A. En procédant comme au a), on en déduit que / est une homothétie. Remarque. On en déduit que sur un C-espace vectoriel de dimension finie, les éléments commutant avec tout ceux de £(E) sont les homothéties. Exercice 6. Soit K un corps cominutatif et A, B, C, D € Mn(K) telles que DC = CD. Montrer que det ( C D ) = Aet(AD ~ BC)> a) si D est inversible, b) si K est de cardinal infini. Solution, a) On part de la relation (A B\( D 0 \_(AD-BC BD~l \ _ f AD-BC BD~l \ {C D ){-C D~l )-{CD-DC In )-{ 0 In )' d'où l'égalité voulue en passant aux déterminants. b) Cette fois, D n'est pas supposée inversible. La matrice D n'ayant qu'un nombre fini de valeurs propres et K étant infini, il existe une partie infinie T de K telle que pour tout A € T, D — XIn soit inversible. D'après a), le polynôme P € M[X] défini par P(X) = det (çD _BXIn ) - det[A(D -XIn)- BC] s'annule sur tout A € T. Comme T est infini, P est nul et donc P(0) = 0, d'où le résultat. Remarque. En fait, si K est fini, le résultat reste vrai. En effet, K se plonge dans un corps infini L (prendre par exemple pour L le corps des fractions de K) et il suffit alors d'appliquer b) en remplaçant K par L. EXERCICE 7. Soit E un C-e.v de dimension finie n e N*. Si u,v € C(E), on pose [u,v] = uv— vu (crochet de Lie de u et v). Soient / et g 6 C(E). 1/ On suppose qu'il existe a 6 C tel que [/,</] = ctf. a) Montrer que / est nilpotente. (Indication. On pourra calculer [f,g] pour tout p 6 N*.) b) Montrer que f et g sont trigonalisables dans une même base. 2/ On suppose maintenant qu'il existe a,/3 e C tels que [/,</] = af + (3g. Montrer qu'également, f et g sont trigonalisables dans une même base. Solution. 1/ a) Par récurrence sur p € N*, on obtient facilement, [/p,<7] = apf. Comme Pendomorphisme de C[C(E)] défini par L9 : k i-> [h, g] n'a qu'un nombre fini de valeurs propres (on est en dimension finie) et que pour tout p € N*, Lg(fp) = <*pf, on en déduit qu'il existe p € N* tel que f = 0.
172 IV. Réductions d'endomorphismes b) Commençons par montrer que / et g ont un vecteur propre en commun. Le s.e.v Ker/ est stable par g car Wx € Ker /, f[g(x)] = g[f(x)] + af(x) = 0. Or / étant nilpotente, on a Ker/ / {0}. Le corps C étant algébriquement clos, on en déduit que <7|Ker/ admet au moins un vecteur propre x. Le vecteur x est également propre pour / car x € Ker /. Ceci étant, montrons par récurrence sur n € N* que f et g sont trigonalisables dans une même base. Pour n = 1, c'est évident. Supposons le résultat vrai au rang n — 1 et montrons le au rang n. Comme fg —gf = af, les applications transposées vérifient */*g — tg*f = (—a)*f. En appliquant le résultat précédent à */ et *g, on voit donc qu'il existe un vecteur propre x € E* commun à */ et *g. L'orthogonal H de Cx dans E est donc un hyperplan stable par / et g. Or [/|i/, <7|n] = af\n, donc d'après l'hypothèse de récurrence il existe une base B de H dans laquelle f\u et g\H se trigonalisent. Soit e £ E tel que B' = B U {e} soit une base de E. Alors [f)B.= donc la base B trigonalise /. On montrerait de même que la base B trigonalise g. 2/ On pose f' = f + (fi/a)g et on remarque que [f',g] = af. D'après 1/ b), f et g sont donc trigonalisables dans une même base. Il en est donc de même pour /' — (P/a)g = / et g. 2. Polynômes d'endomorphismes Cette partie pourrait se résumer en trois mots : "le polynôme minimal". Bien que le polynôme minimal ne figure pas au programme des classes préparatoires, c'est l'outil central des polynômes d'endomorphismes et dans beaucoup de problèmes et d'exercices, on l'utilise souvent sans en parler. Dans toute cette partie, n est un entier naturel non nul et E désigne un K-espace vectoriel de dimension n. 1 \S\h\b ^ 0 ■•■ 0 x \ x x ) 2.1. Généralités Notation. Soit P = ao+axX -\ + ap Xp e K[X]. - Pour tout / e C(E), on note P(f) = «„ Id^ +a,/ + • • • + apf e C(E). - Pour tout A € Af„(K), on note P(A) = auIn +alA + --- + apAp € Af„(K). Remarque 1. Si / € C(E), pour tous P, Q e K[X] on a P(f)oQ(f) = (PQ)(f). L'ensemble {P(f) | P € K[A"]} est une sous algèbre coinmutative de C(E). t «i * \ - Si M = 0 l 0 "2 0 x an I alors VP € K[X], P(M) = ( P(<*>) x 0 P(a2) \ 0 0 P(an) I
2. Polynômes d'endomorphismes 173 En d'autres termes, si M est tngonalisable, les valeurs propres de P(M) sont les valeurs prises par le polynôme P sur les valeurs propres de M. Proposition 1. Soit f e C(E) et P e K[X] tel que P(f) = 0. Si X est valeur propre de f, alors P(X) = 0. Démonstration. Soit i /0 un vecteur propre de / associé à la valeur propre A. On a f(x) = Xx, donc 0 = P(f)(x) = P(X)x, d'où le résultat. D Remarque 2. Attention, la réciproque est fausse. Par exemple, P = X(X — 1) annule IdB, et pourtant 0 qui est racine de P n'est pas valeur propre de Id^. —*■ Théorème 1 (Décomposition des noyaux). Soit f e C(E) et P = Pl---Pk e K[A"], les polynômes P, étant premiers entre eux deux à deux. Alors KerP(f) = KerP,(/) © • • • © KerP*(/). Démonstration. On procède par récurrence sur k > 2. - Pour iir = 2 : Pi et Pi étant premiers entre eux, il existe (théorème de Bezout) U et V € M[X] tels que UPX + VP2 = 1. Soit x € KerPi(/) n KerP2(/). On a (UPi + VP2)(f)(x) = x, autrement, dit * = U(f) o Pi(f)(x) + 1/(/) o P2(f)(x) = 0. Donc Ker P,(/) n Ker P2(f) = {0} (*). Soit x € Ker P(f). Onai = UPi(f)(x) + VP2{f){x) (**). Or P2(f)[UPl(f)(x)] = UPxP2{f){x) = U(f) o P(f)(x) = 0, donc UPi(f)(x) € KerP2(/). De même, VP2(f)(x) € KeiPi(f). De (**), on tire KerP(/) = KerPi(f) + KerP2(/), d'où le résultat pour k-'l avec (*). - Supposons le résultat vrai au rang k et montrons le au rang iir + 1. On a P = Q\Q2 avec Q\ = P\ ■ ■ ■ Pk et Q2 = Pfc+i- Les polynômes Q\ et Q2 sont premiers entre eux donc d'après le cas k = 2, KerP(/) = KeiQi(f) © Ker ¢2(/), et d'après l'hypothèse de récurrence, KerQi(/) = e*=1KerP,(/). Finalement, KerP(/) = [Ker P,(/) © ■ • • © Ker Pk(f)] © KerPk+i(f) = Ker P,(/) © ■ ■ ■ © Ker Pk+i(f). D Remarque 3. — Ce théorème est important. Il reste vrai en dimension infinie. — Il existe beaucoup d'autres résultats du même type. Par exemple, soit / € £(£). Pour tout (p € K[X], on note 1^ = Im (p(f) et N^ = Ker <p(f). Soient P, Q € Kpfj. Alors si D =pgcd(P, Q) et M =ppcm(P, Q), on a NPnN0 = ND, NP + N0 = NM, Ip + Iq = Id, IPnI0 = IM. Ces résultats se généralisent par récurrence à k polynômes (montiez les !). —*■ Théorème 2. Soit f 6 C{E). L'endomorjthisme f est diagonalisable si et seulement s'il existe P € K[A"] scindé sur K ayant toutes ses racines simples tel que P(f) = 0. Démonstration. Condition nécessaire. Notons Ai,... , Ar les valeurs propres (distinctes) de / et E\lt... , E\T les sous espaces propres correspondants. Soit P = (X — Ai) ■ ■ ■ (X — Ar) € Kpf]. Le polynôme P est scindé dans M[X] et a toute ses racines simples. Par ailleurs, les polynômes (X — Xi) sont premiers entre eux deux à deux, donc d'après le théorème de décomposition des noyaux, r r Ker P(/) = 0 Ker(/ - A, UB) = 0 Ex„ «'=1 «'=1 donc KerP(/) = E car / est diagonalisable, c'est-à-dire P(/) = 0. Condition suffisante. Ecrivons P = a(X — X\) • ■ -(X — Ar) avec les A; € K distincts et a / 0. Les
174 IV. Réductions d'endomorphismes A,- étant distincts, les polynômes (X — A,) sont premiers entre eux deux à deux, donc, d'après le théorème de décomposition des noyaux, E = Ker P(f) = Ker(/ - Ai Id£) © • • • © Ker(/ - Ar UE). (*) Soit / = {»' | Ker(/ — A,- Id^) / {0} }. Pour tout «' € /, Aj est valeur propre de / et E\t = Ker(/— A; Idfj) n'est autre que le sous espace propre correspondant. (*) s'écrit E = ©.'e/^Aj, donc / est diagonalisable d'après 1.3 théorème 2. □ Conséquence. Il découle de ce dernier théorème la proposition 6 de la partie 1.3 (page 162). En effet, soit / 6 C(E) diagonalisable et F un s.e.v de E stable par /. Il existe P 6 K[A"] scindé sur K, à racines toutes simples, tel que P(/) = 0. Alors P(/|f) = 0> donc f\F est diagonalisable d'après le théorème 2. 2.2. Polynôme minimal Soit / e C(E), et soit /={?€ E[X] \ P(f) = 0}. Le K-e.v C(E) est de dimension n2, la famille IdB, /,...,/" est donc liée. Autrement dit, il existe (a„,... , a„») ^ (0,... , 0) tel que aold^ +^/ + • • • + a„3/"3 = 0. Donc si P = £,"=„ a,X*', P(f) = 0. Donc / ^ {0}. On voit que / est un idéal de K[X]. L'anneau K[X] étant principal, il existe un unique P € K[A"], P unitaire, tel que / = (P) = P • K[A"]. Le polynôme P s'appelle le polynôme minimal de /. On le note II/. C'est le polynôme unitaire de plus bas degré annulant /, et si Q(f) = 0, alors II/ | Q (car Q € / = (II/)). Remarque 4. — En dimension infinie, cette définition reste valable à condition qu'il existe un polynôme non nul P tel que P(/) = 0 et P ^ 0. On dit alors que / admet un polynôme minimal. — En terme de polynôme minimal, le théorème 2 s'interprète comme suit : / est diagonalisable si et seulement si son polynôme minimal est scindé et a toutes ses racines simples. — Si F est un s.e.v stable par /, alors g = f\F vérifie : II, divise II/ (en effet, H/00 = o). Proposition 2. Soit f 6 C(E). Un scalaire A est valeur propre de f si et seulement si A est racine de son polynôme, minimal II/. Démonstration. Condition ntcessairt. Cela résulte de la proposition 1. Condition suffisante. Soit A une racine de II/. Soit P £ M[X] tel que II/ = (X-\)P. On aP(/) / 0 car II/ est le polynôme minimal de / et degP < degll/. Or 11/(/) = 0=(/- AId£j)P(/) = 0, et comme P(f) / 0, on en déduit que /— XUe n'est pas injectif, donc que A est valeur propre de /. □ Remarque 5. Le polynôme minimal de / a donc les mêmes racines que le polynôme caractéristique de /. 2.3. Théorème de Cayley-Hamilton Théorème 2 (Cayley-Hamilton). Soit f e C(E), Pf son polynôme caractéristique. Alors P/(/) = 0. Démonstration. Nous allons donner deux démonstrations. Première démonstration. Soit A € -M„(K) la matrice de / dans la base canonique de K". Soit L le corps des racines de Pa = P/. On regarde A comme une matrice de Mn(TL). D'après le théorème
2. Polynômes d'endomorphismes 175 de trigonalisation, il existe une matrice T = (<,■ y) € -M„(L) triangulaire supérieure et semblable à A: T = ( < \ 1,1 2,2 (<.".,■) \ 7 OnaP, = PT = (-l)"n?=1(*-'i,.-)-Soit (El,... ,En) la base canonique de TL" (Ek est le vecteur colonne dont tous les éléments sont nuls sauf le ifc-ième qui vaut 1). Pour tout k, on pose Pk = IL=i(-^—'«,«)■ Nous allons montrer par récurrence sur k € {1,... , n) que pour tout i € {1,... , k], [Pk(T)]Ei = 0. Pour k = 1, c'est vrai car TEX = thlEi, donc (T - U,iIn)Ei = 0 = Px{T)Ei. Supposons le résultat vrai au rang k— 1 et montrons le au rang iir. On a pour tout «', 1 < i < k— 1, Pk(T)Ei = (T-tttlJPt-fflEi = 0, et on a Pi(T)Ek=Pk.l(T)-(T-tk,kI„)Ek=Pk.l(T) k-\ Y,u*Ei k-\ = 53<.-.»ft-i(r)£?,- = o. «=i En particulier, avec k = n, on en déduit que pour tout i € {1>-.- ,«}, Pn{T)Ei = 0, donc P„(T) = 0, c'est-à-dire Pr(T) = 0, donc P/(/) = 0. Seconde démonstration (elle ne fait pas appel au corps des racines d'un polynôme). Préliminaires. Soit A = /0 1 0 V o 0 -«(I \ -«i 0 -a p-2 0 1 -rtp_i / €MP(K). Alors le polynôme caractéristique de A est, Pa(X) = (— \)P(XP +«P-i Xp~l + ■ ■ -Mo) (pour cette raison, la matrice A est appelée matrice compagnon du polynôme Xp + «p_ i Xp~l + ■ ■ ■ + a0). Pour montrer ce préliminaire, nous procédons par récurrence sur p. Pour p = 1, c'est évident. Supposons le résultat vrai au rang p, montrons le au rang p + 1. En développant par rapport à la première ligne, on a Pa(X) = — X 1 - 0 0 K -X 1 0 0 0 -X 1 0 0 -X 1 0 0 0 -X 1 -«o -«i -f'p-i -X - «p 0 -«i -«1 0 -X -«p-i 1 -X - a = -x et donc d'après l'hypothèse de récurrence + ("l)p+1«o 1 0 0 -X 1 0 0 -X 1 0 0 0 -X 1 PA(X) = (-l)p+1X(Xp+0^^^- ■ .+,,0+(-1)^0 = (-l)p+1(Xp+1+apXp + - ■ .+a,X+«0). Démontrons maintenant le théorème. Soit x € E, x jL 0. Il existe un plus petit entier p > 0 tel que la famille (x,f(x),... ,f(x)) soit liée. La famille (x, /(x),... , fp~l(x)) est donc, libre et (300,...,^.^18), fp(x) + ap-1f>'-1(x) + --+,^ = 0. (*)
176 IV. Réductions d'endomorphismes Complétons (x, f(x), ■ ■ ■ , f 1(x)) en une base B de E. Alors [/] fl = nrfc-) avec A = / « 1 0 V o ■■■ 0 -a0 \ : -ai '■■ 0 -<lp_2 0 1 -ap_! / Comme Pj = PaPc, on a Pf(f)(x) = Pc(f) ° Pa{Ï){x). Or d'après le préliminaire et d'après (*), PaV){x) = fp(x) + ap-if-^x) + ■ ■ ■ + a0x = 0, donc Pf(f)(x) = 0. Ceci est vrai pour tout x donc Pf(f) = 0. D Remarque 6. — En d'autres termes, le théorème dit que le polynôme minimal de / divise son polynôme caractéristique. Avec la proposition 2, on en déduit que si P} = (-1)" f[(X - A,-)", alors II/ = f[(X - A,-)*, 1 < ç, < r,, .■=i i=i — Ce théorème permet, avec la proposition 3 d'affirmer que / € C{E) est nilpotent si et seulement si Pj = (—l)"A"n. 2.4. Exercices Exercice 1. Soit E un K-e.v et f Ç C{E) admettant un polynôme minimal. Si / est inversible, montrer que /-1 est un polynôme en /. Solution. Montrons déjà que X ne divise pas le polynôme minimal II/ de /. En effet, s'il existe P € K[X] tel que II/ = XP, alors 0 = 11/(/) = / o P(/), et comme / est inversible, P(f) = 0. Comme deg P < deg II/, ceci contredit le fait que II/ est le polynôme minimal de /. Donc X \ II/. Comme X est irréductible, X et II/ sont premiers entre eux, donc il existe U, V € K[X] tels que UX + VUf = 1, d'où on tire {/(/) o / + 1/(/) o 11/(/) = Ids, c'est-à-dire {/(/) o / = Idc Donc. /-1 = {/(/), d'où le résultat. Remarque. En dimension finie, on aurait pu raisonner avec le polynôme caractéristique Pj de / : comme P/(0) = det / ^ 0, on a X f P/ et on procède ensuite comme plus haut. - On peut également donner une forme explicite d'un polynôme U tel que /-1 = U(f) en fonction du polynôme minimal : il suffit de prendre U = (11/(0) — 11/(A"))/(II/(0)A"). EXERCICE 2. Soit K un corps commutatif fini à q éléments, E un K-espace vectoriel et / € C(E). Montrer que / est diagonalisable dans E si et seulement si /» ,= /. Solution. Commençons par montrer (*) Muni de la loi produit, K* est un groupe multiplicatif à q — 1 éléments, donc pour tout x € K*, a;'-1 = 1, d'où pour tout x Ç.K, x1 = x. On a ainsi déterminé q racines de X1 — X, qui est de degré q, d'où (*). Concluons. D'après le théorème 2, on peut affirmer que / est diagonalisable si et seulement s'il existe P € K[X], scindé sur K, à racines toutes simples, tel que P(f) = 0, autrement dit si et seulement s'il existe P e K[X], P \ n„eK(^ -(*) = X*-X tel que P(f) = 0. En d'autres termes, / est diagonalisable si et seulement si /' — / = 0.
2. Polynômes d'endomorphismes 177 -*■ EXERCICE 3. Soient E un K-espace vectoriel et / € C{E) admettant un polynôme minimal II/. Pour tout x € E, on note : — Px le polynôme unitaire de K[A"] de plus bas degré tel que Px(f)(x) = 0 (Px s'appelle le polynôme minimal de x relatif à /), -E, = {P(f)(x),P€K[X]}. 1/ a) Montrer que Px existe et est unique, et que de plus si P(f)(x) = 0 avec P € K[A"], alors Px | P. b) Montrer que Ex est un s.e.v de dimension deg^*). 2/ a) Si Ex H Ey = {0}, montrer que Px+y = ppcm(PI,Py). Généraliser à p vecteurs xi,... ,xp. b) Si Px et Py sont premiers entre eux, montrer Ex+y = Ex(& Ey. Généraliser à p vecteurs xu... ,xp. 3/ a) Soit M € K[A"] un facteur irréductible de II/, a sa multiplicité dans la décomposition de II/ en facteurs irréductibles de K[A"]. Montrer qu'il existe x € Kei Ma(f) tel que Px = M". b) Montrer qu'il existe x € E tel que Px = Uf. Solution. 1/ a) Soit, Ix = {P e K[X] | P(f)(x) = 0}. C'est un idéal de K[X], non réduit à {0} car H/ € Ix- H existe donc un unique polynôme unitaire Px € K[X] tel que /^ = (Px). Ainsi, Px est le polynôme unitaire de plus bas degré tel que Px(f)(x) = 0. Si de plus P(f)(x) = 0, c'est-à-dire P g Ix = (Px), alors P* | P. b) L'application p : Kpf] -» £?, P h- P(f)(x) est linéaire surjective. On en déduit, que le s.e.v Ex est isomorphe à K[X]/Ker^> = K[X]/(PX), donc de dimension deg(Pr). 2/ a) Comme Px+y(f)(x + y) = 0, on a Px+y(f)(r.) = -Px+y(f)(y)- Ces deux termes sont donc éléments de Ex C\ Ey = {0}, donc. nuls. Donc, d'après 1/ a), Px \ Px+y et Py | Px+y, d'où PpCm (P^.Py) |PI + y (*). Or Px | ppcm(PI,Py) donc ppcm(Pr, Py)(f)(x) = 0. De même, ppcm(Px,Py)(f)(y) = 0, donc ppcm(Px,Py)(x + y) = 0. Donc PI+y | ppcm(Pr, Py), ce qui d'après (*) entraîne Px+y = ppcm(PI,Py), ces deux polynômes étant unitaires. - Par récurrence sur p, on montre maintenant facilement, que si EXl,... , EXp sont, en somme directe, alors PXl+...+Xp = ppcm(PI1,... ,PXp). b) Montrons tout d'abord que ExHEy = {0}. Soit, z e Ex H Ey. Il existe P,Q € K[X] tels que z = P(f)(x) = Q(f)(y). Or 0 = P(/) o P^/Xz) = (PP,)(/)(x) = Px(f) o P(f)(x) = Px(f)(z) = (PxQ)(f)(y), donc d'après 1/ a), Py \ PXQ. Or Px et Py sont premiers entre eux, donc, d'après le théorème de Gauss, Py | Q, et donc, z = Q(f)(y) = 0. -D'après 2/ a), on a donc Px+y = ppcm(Px,Py) = PxPy, d'où dim^+j, = deg(PI+y) = deg(PI) + deg(Py) = dim^ + dimEy. (*) D'après l'égalité de Bezout, il existe U, V € K[X] tels que UPX + VPy = 1. Donc si P € K[X], ^(/)(^ + y) = (PUPx)(f)(x + y) + (PVPy)(f)(x + y) = (PUPx)(f)(y) + (PVPy)(f)(x) . v ' " v ' Ceci entraîne l'inclusion Ex+y C Ex + Ey = Ex © 2¾, donc d'après (*), .E^+j, = Ex® Ey. Par récurrence sur p, on montre maintenant facilement que si P^,,... , PXp sont premiers entre eux deux à deux, alors EXl+...+x = EXl © ■ ■ ■ © EXp.
178 IV- Réductions d'endomorphismes 3/ a) On peut écrire II/ = MaN où N € K[X] est, premier avec M (donc avec M"). D'après le théorème 1, on a E = Ker Ma(f) © Ker N(f). (**) Pour tout x € KerMt*(/), on a M"(/)(¾) = 0, donc d'après 1/ a), Px \ M" et comme M est irréductible, il existe 0X < a tel que Px = M?*. Il s'agit de montrer qu'il existe x € KerAfa(/) tel que /¾. = a. Raisonnons par l'absurde et supposons le contraire, de sorte que pour tout x 6 Ker Ma(f), Px \ M""1, «'. e. M"-l(f)(x) = 0, autrement dit Ker Ma(f) = Ker M"-l(f). D'après (**), E = Ker Ma~l(f) © Kei N(f) ce qui d'après le théorème de décomposition des noyaux entraîne Kei(Ma~1N(f)) = E, ou encore Ma~lN(f) = Q(f) = 0, ce qui contredit la minimalité du degré du polynôme minimal II/ de / car deg Q < deg II/. Donc il existe x € Ker M"(/) tel que Px = M". b) Soit II/ = rii=i M?' la décomposition de II/ en facteurs irréductibles de K[X]. D'après la question précédente, pour tout «, il existe X; € KerM"'(f) tel que P^ = M™'. D'après la question 2/ b), on a donc £^,+...+1,,, = EXl © ■ ■ ■ © EXk, et donc d'après la question 2/ a), on a p*1+ +*p = ï[px, = ï[Mr = n, d'où le résultat. EXERCICE 4 (DiagoNALISatION d'un DÉTERMINANT circulant). On considère la matrice circulante /a, a2 ••• a„ \ A = a„ ai \ a2 ■■ a2 € Mn(C). En exprimant A comme un polynôme en la matrice /01 0 ■•■ 0 \ 0 0 1 •- : J = 0 \1 0 0 1 o/ € -M„(C), diagonaliser A. Solution. Si B = (ei,... , e„) désigne la base canonique de C, J est la matrice de l'endomorphisme qui à e,- associe e,-! si i > 2, et à t\ associe e„. Pour tout p, l < p < n— 1, Jp est donc, la matrice qui à e,- associe e,-_p si « > p, à e; associe e,+„_;, si i < p, autrement dit Vp, 1 <p< n- 1, Jp On en déduit que pour tout »! a„ € C, IV1 = < «1 «n l «J. «2 «1 «n «n ^ «2 «i y
2. Polynômes d'endomorphismes 179 Ceci montre en particulier que si P = J2?=i <liX'~l> A = P(J)- Ceci montre également que si Q € K[X], Q / 0 et degQ < n, alors Q(J) / 0. Le polynôme minimal de J vérifie donc degllj > n. Or J" — I = 0, on a donc Uj = X" — 1. Or Uj divise le polynôme caractéristique Pj de J et degPj = n, donc Pj = (-l)"IIj = (-1)" n";Ô(* ~ w*)> où w = e2*'*/". D'après le théorème 2, J est donc diagonalisable, et il existe Q € Gtn(£) telle que / 1 Q~lJQ = \ w""1 / On en déduit Q-'AQ = Q~lP(J)Q = P(Q~lJQ) = t ^(1) V P(«) P(w«-i) j Remarque. On retrouve ainsi le résultat de l'exercice 12. EXERCICE 5. Donner une condition nécessaire et suffisante sur A € Af„(K) pour que la (A A \ matrice par blocs B = I . ) € Af2n(K) soit diagonalisable. Solution. Notons F le s.e.v de C2" engendré par les n premiers vecteurs de la base canonique de C2". Le s.e.v F est stable par B. Si B est diagonalisable, sa restriction à F, qui n'est autre que A, est diagonalisable. Allons plus loin. Si B est diagonalisable, il existe un polynôme P € K[X], scindé sur K, dont toutes les racines sont simples, tel que P(B) = 0. Par récurrence sur k, on a facilement Bk = A? pA? A? / A? PA? \ { 0 A? ) pour tout iir € N. De ceci, on déduit 0 = P(B) ■( P(A) AP'(A) P(A) 0 donc P(A) = AP'(A) = 0. Comme P(A) = 0, on retrouve le fait que A est diagonalisable. Soit A une valeur propre de A. Comme AP'(A) = 0, on a AP'(A) = 0. Or A étant racine simple de P, on a P'(A) / 0, donc A = 0. En résumé, A est diagonalisable et A = 0 est la seule valeur propre de A, autrement dit, A — 0. Réciproquement, si A = 0, B est diagonalisable. Finalement, B est diagonalisable si et seulement si A = 0. Exercice 6 (Commutant d'un endomorphisme). Soit E un K-espace vectoriel de dimension finie n € N*. Soit / € C(E). On note Tf le s.e.v de C(E) défini par Tf = {geC(E)\fog = gof}. 1/ a) Si / est diagonalisable, déterminer dim Tf. b) Si de plus les valeurs propres de / sont toutes distinctes, montrer que Tf = {P(f), P € nx]}. 2/ On suppose que le polynôme minimal II/ de / est de degré n. En utilisant le résultat établi à l'exercice 3 (il existe x € E, Px = TLf), montrer que Tf = {P(f), P € K[X]}.
180 IV. Réductions d'endomorphismes Solution. 1/ a) Soient Ai,... , Ar les valeurs propres de /, E\x,... ,E\T les sous espaces propres correspondants. Si g £ Tf, alors pour tout i, E\{ est stable par g. Réciproquement, si E\t est stable par g pour tout i, alors : VxeEXi, fog(x) = Xig(x) = gof(x), donc comme E = E\l © ■ ■ ■ © E\r, on a g € Tf. Donc T/ = {g € C(E) | Vi, Ext est stable par g). Pour tout i, soit fl, une base de E\it de sorte que B = BiU ■ ■ -U Br est une base de E. Les matrices des endomorphismes de Tf dans la base B sont celles de la forme /M, 0 \ avec. V»', M; € A*dim Ex. (K). \ 0 Mr / On voit donc que dimT/ = 52J'_1(dim£7A.)2. b) Nous donnons deux méthodes de résolution. Première méthode. Ici, pour tout «, on a dirn/?,^ = 1, donc. dimT/ = YH=i l2 = n- P°ur t°ut «'» U/(Xi) = 0 donc (X — A,) | II/, et comme les Aj sont distincts deux à deux, 177=1(-^ ~ ^«') divise II/, donc deg(II/) > n. Or II/ divise le polynôme caractéristique de /, donc. deg(II/) < n. On en déduit deg II/ = n. Soit C = {P(f), P € K[X]}. L'application <p : K[X] -*C P» P(f) est linéaire surjective, donc. C est isomorphe comme K-e.v à K[X]/Ker^> = K[X]/(II/), donc dimC = deg(n/) = n. Or C C Tf et dimT/ = n, donc C = T/. Seconde méthode. Pour tout «, dimE'A; = 1 donc, il existe Xi € E tel que i?^ = Vect(*,-). Soit g G Tf. Pour tout «, E'a; est stable par g G Tf, donc, il existe /j,- € K tel que <7(z;) = mxi (au passage, on remarque que, (x\,... , x„) étant une base de E, g est diagonalisable). La théorie des polynômes d'interpolation de Lagrange (voir le chapitre II, partie 2.4) nous assure l'existence d'un polynôme P tel que P(A,) = m pour tout i. Ainsi, V.' € {1,... ,n}, P(f)(xi) = P(Xi)Xi = fuxi = g(xi) et comme (xlt... , xn) est une base de E, P(f) = g. Donc Tf C {P(f), P G K[X]}. L'inclusion réciproque étant immédiate, on en déduit le résultat demandé. 2/ On utilise les notations de l'exercice 3. D'après la question 3/ b) de l'exercice 3, il existe x G E tel que Px = II/, donc deg(Pi;) = n et d'après la question 1/ b) du même exercice, dimEx = deg(Pi;) = n donc Ex = E. Soit g € Tf. Comme Ex = E, il existe P e K[^] tels que g(x) = P(f)(x). Or pour tout y=Q(f)(x)GEx, g(y) = 9 ° Q(/)(«) = Q(f) ° </(*) = 0(/) ° P(f)(x) = P(f) ° Q(/)(*) = P(/)(y). Les endomorphismes g et P(/) prennent donc la même valeur sur Ex. Or Ex = E1, donc g = P(/). On a donc montré que Tf C {P(f), P € K[X]}. L'inclusion réciproque est, évidente, d'où l'égalité. Remarque. On aurait pu montrer 1/ b), en utilisant 2/ car on avait montré que deg(II/) = n dans la première méthode. - La réciproque de la question 2/ est vraie : si Tf = {P(f), P € K[A"]}, alors deg(II/) = n, mais la démonstration est plus difficile (voir la dernière application des la théorie des invariants de similitude dans l'annexe B).
3. Topologie sur les endomorphismes 181 3. Topologie sur les endomorphismes Dans toute cette partie, E désigne un K-espace vectoriel norme (avec K = E ou C). Nous commençons par donner quelques rappels (l'étude générale des espaces vectoriels normes est traité dans le chapitre de topologie du tome d'analyse). L'espace vectoriel des endomorphismes continus de E est noté CC(E). On norme habituellement CC(E) par : V/ 6 CC(E), |/| = supii^n-, ||/(a;)||. C'est une norme d'algèbre (i. e. elle vérifie |/ -ff| < l/l " ÎOÎ)- Enfin, en dimension finie, tout endomorphisme est continu et toutes les normes sont équivalentes. 3.1. Quelques normes classiques en dimension finie Soit * = I : I un vecteur de K". Pour tout a > 1, 11*11«. = (È M") e* 11*11» = *"P M définissent des normes sur K". (La notation ||-Sf||oo provient du fait que lima_oo \\X\\a = \\x\u Si E est un K-e.v de dimension finie n, on peut le normer en privilégiant une base B de (Xl\ E et en écrivant que la norme de x € E est la norme du vecteur X = I : 1 € K", où les H sont les coordonnées de x dans la base B. Soit M = (mij^ij^ € M„(K). — \\M\\ = J2i<ij<n lm«',j'l définit une norme d'algèbre sur M„(K). — \\M\\ = sup,- ■ ]Vn,-j| définit une norme sur Af„(K), mais ce n'est pas une norme d'algèbre. — Pour tout a > 1, |M|0 = sup,|X|, =1 ||MA"||„ définit une norme d'algèbre sur Af„(K)- Au passage, notons que l'on peut montrer IMI^ = sup^J^ |niij|) et |M|, = sup>(E,.|m,-iJ-|). Si E est un K-e.v de dimension finie n, on peut normer C(E) en privilégiant une base B de E et en écrivant que la norme de u est celle de [u]B (matrice de u dans la base B) dans MnÇK). 3.2. Propriétés PROPOSITION 1. Soit E un K-e.v.n et f € CC.(E). Soit A une. valeur propre de f. Alors |A|<|/|- Démonstration. Soit i / 0 un vecteur propre de / pour la valeur propre A. On a ||/(z)|| < |/| ■ ||z||. Or||/(*)|| = ||A*|| = |À|-|NI,donc|À|<|/|. □ PROPOSITION 2. L'ensemble Gf-„(K) est un ouvert dense dans Af„(K). Démonstration. L'application M„(K) —*K M i—► det M est continue (car det M s'exprime comme un polynôme en les coefficients de M). Comme K* est, ouvert dans K, Çf.„(K) = (det)-1(K* ) est ouvert. Densité. Soit M € Mn(K). Le polynôme caractéristique Pm de M n'a qu'un nombre fini de racines, donc. 3p > 0 tel que VA € K, 0 < |A| < p, PM(X) / 0. En d'autres termes, pour tout A € K, 0 < |A| < />, M - XI„ € Gfn(K). Or M = liiru-u (M - XI„). M est donc, limite d'éléments de Çf.n(K). □
182 IV. Réductions d'endomorphismes Remarque 1. — Ce dernier résultat est important. Il est parfois aisé de montrer des propriétés sur A<„(K) en les montrant d'abord sur Çln(K) puis en les étendant par densité (voir les exercices). — Cette dernière proposition est également vraie pour les endomorphismes en dimension finie. De manière générale, algébriquement et topologiquement, tout ce qui est vrai pour les matrices est vrai pour les endomorphismes (en dimension finie) et réciproquement. — En dimension infinie, Çlc(E) est ouvert si E est un espace de Banach (voir le chapitre topologie du tome d'analyse). 3.3. Séries entières d'endomorphismes Ici, E désigne un K-espace de Banach. Rappelons que dans ce cas, CC(E), muni de la norme |/| = sup||x||=1 ||/(:n)||, est un K-espace de Banach. PROPOSITION 3. Soit z »-> Ylt=aanZn '« somme d'une série entière de rayon de convergence 0 < R < +oo. Alors si f € CC.{E), |/| < R, la série J2n£Nanfn converge et sa somme est élément de £C(E). De. plus, l'application r = {/ € CC{E) | |/| < R) - CC(E) / .->£>„/" n = 0 est continue. Démonstration. Comme CC(E) est un K-espace de Banach, il suffit de montrer que si |/| < R, la série Ylanf" converge absolument, ce qui est immédiat puisque |«n/"| < |«n| ■ |/|" et que 11, \an\ l/l" converge. La somme 22^, «n /" existe donc et appartient à CC,{E). Pour tout r € ]0, R[, on pose Tr = {/ € CC,(E) \ |/| < r}. La série de fonctions / •-► £ «n /" converge normalement sur Tr, puisque sur Tr, |«n/"| < |«n| • |/|" < |am|r™ et ^ lan|»"n converge. Chacun des termes / i—► a„/" est continu sur Tr. On en déduit que / •—<■ J2„^J, «n /" est continue sur Tr, et ceci pour tout r € ]0, R[, donc sur T. O Remarque 2. — Un résultat plus fin fait l'objet du problème 6 (page 208). — La proposition 3 reste vraie sur Af„(K). Conséquence. Soit / € £C(E), |/| < 1. Alors Me—/ est inversible, et son inverse est g = Ylt^o /"• En effet, g existe d'après la proposition précédente et (làE —f)g = g— fg = E^o r - TX% r = M*; de même, g(UE -f) = UE. Exponentielles d'endomorphismes. DÉFINITION 1. Soit / € CC.(E). D'après la proposition 3, n=(l existe et g € CC(E). L'endomorphisme g s'appelle l'exponentielle de / et on note g = exp(/) = ef. Remarque 3. — On a |exp(/)| < e"". En effet, pour tout n € N, \±h4<-±lt et le résultat se déduit en faisant tendre n vers +oo. — D'après la proposition 3, l'application CC(E) —*■ CC(E) f •-> exp(/) est continue.
3. Topologie sur les endomorphismes 183 PROPOSITION 4. Soit u € Cr.(E). Soit v € CC(E) imiersible avec v'1 € CC(E). Alors exp(w-1Mi;) = v-1exp(u)v. Démonstration. Il suffit de remarquer que pour tout n € N on a (v~luv)n = v~lunv, ce qui entraîne +oo , _i .„ +oo _i „ /+oo (V UV) •' l"n" ' — ni n=0 n=0 \n=0 w(v '«») = ^ n! = 2^ —— = » 12^)» = '' exp(u)"- La version matricielle de ce résultat est VM € Mn(K), VP € £4(K), exp(P_1MP) = P"1 exp(M)P Deux matrices semblables ont donc des exponentielles semblables. PROPOSITION 5. Soient u, v € CC.(E) tels que uv = »«. A/ors exp(« + v) = exp(u)exp(t>) = exp(t>)exp(u). Démonstration. On pose II faut montrer que lim„_+no A„ = 0. Comme u et. v commutent, on a n! .4" n! .4" »! ]\ t+]~n «+J=n donc i=(l / \ j = (l J I i+j<n J .+l£.+,£3. J d'où on tire ■>+lSi+JS3-> ' -7- \« = (l ' / \j = 0 J' I k = 0 Lorsque n tend vers +oo, ce dernier terme tend vers e^'e'"' — e'"'+'"l = 0, donc. lim„_+oo A„ = 0, d'où exp(u -f v) = exp(w) exp(t>). On a de même exp(»>) exp(u) = exp(»> -f u) = exp(w -f v). D Conséquence. Pour tout u e CC.(E), <?"«-" = e""e" = e"-" = e° = Id*;, donc e" est inversible et (e")-1 = e~". Remarque 4. — Si u et w ne commutent pas, la proposition précédente est fausse en général. — Si u et v commutent, alors u et exp(w) commutent. — On aura souvent affaire aux exponentielles de matrices lors de l'étude des équations différentielles linéaires (voir le tome d'analyse). En effet, les exponentielles de matrices vérifient les propriétés suivantes : • Soit A e M„(K). L'application E -» M„(K) t p-v etA est dérivable, sa dérivée est AetA. • Si X : E -» K" est dérivable et si ^f- = AX, alors pour tout t € M, X(<) = eaI(0). — Le calcul d'exponentielles de matrices est traité à la partie 4.2 du présent chapitre.
184 IV. Réductions d'endomorphismes 3.4. Exercices Exercice 1 (Densité des matrices diagonalisables dans Mn(C)). a) Montrer que l'ensemble des matrices diagonalisables de Af„(C) est dense dans Af„(C). b) Que dire dans Mn(®^? Solution, a) Soit A € Mn(C). Il s'agit de montrer que A est limite de matrices diagonalisables, Le corps C étant algébriquement clos, A est trigonalisable, donc /A, - ■■■ x \ 3Pe5MQ. P~lAP = T avec T = X A2 0 \ x A„ / Soit, /i = inf{|A,- — Aj|, Ai / Aj} > 0, /i = 1 si les Ai sont, tous égaux. Pour tout p € N", on pose x ■■■ x \ / ! \ / *i + £ Tp = A2 + & 2p \ = t+h 0 V 0 / 0 * *«+£ / Les valeurs propres de Tp, les A,- -f (/i/ip), sont, deux à deux distinctes. En effet, supposons i / j : - Si A,- = Aj, il est, clair que A,- -f (n/ip) / Xj + (fi/jp). - Sinon A,- / Aj, donc si Ai + (/i/ip) = Aj -f (/i/jp), alors |A,- - Aj| = H(l/ip) ~ (Vip)l < /*> absurde par construction de /i. Pour tout p € N*, Tp ayant, toutes ses valeurs propres deux à deux distinctes est donc diag- onalisable. Or T = limp_+noTp, donc A = PTP~l = limp_+no PTpP~l est, limite de matrices diagonalisables, d'où le résultat. b) Dans jM„(IR), le résultat est faux. Nous donnons un contre-exemple. Soit A = I . .. j € A^2(IR). On considère l'application A : Af2(R)-» M MhA„ où Am désigne le discriminant du polynôme caractéristique Pm de M. Comme Am s'exprime comme un polynôme en les coefficients de M, A est continue. Si A était limite d'une suite (An) € jM2(K)N de matrices diagonalisables dans Afz(K), on aurait A„ > 0 pour tout n (car Pa„ est scindé sur M), et, donc. A étant continue, Aa = lim„_+no &An > 0, ce qui est absurde car après calculs on trouve Aa = —4. Remarque. Grâce au résultat a), on peut parfois prouver certains résultats sur Af„(C) en les montrant d'abord pour les matrices diagonalisables, puis en les étendant par densité. Le lecteur pourra par exemple démontrer par cette méthode le théorème de Cayley-Hamilton pour les matrices complexes. EXERCICE 2. 1/ Soit K un corps commutatif. Soient A,B € M„(K). a) Si A € (7^„(K), montrer que Pab-i le polynôme caractéristique de AB, est égal à celui deBA, PBA. b) Si A est quelconque et K = E ou C, montrer, en utilisant un argument de densité, que le résultat reste vrai. c) Si A est quelconque et K est infini, montrer que le résultat est encore vrai. 2/ K est un corps commutatif quelconque. Soient p, q € N*. Soit A e AfPiî(K) et B € AfîiP(K). Comparer PAB et Pba-
3. Topologie sur les endomorphisrnes 185 Solution, l/ a) On écrit Pab = det(AB - XIn) = det[A(B - XA~1)] = det[(fl - XA'^A] = det(fl,4 - XIn) = PBa- b) On sait que ££„(K) est dense dans jM„(K) (voir la proposition 2). On peut donc écrire A = lim„_+oo-4n avec pour tout n, An € GA.(K). Or d'après a), pour tout n, Pa„b = Pba„ et Par continuité de l'application déterminant, en faisant tendre n vers +oo, on en déduit Pab = Pba- c) Le corps K étant infini, A n'ayant qu'un nombre fini de valeurs propres, il existe r C K, T infini, tel que pour tout A € T, A n'est pas valeur propre de A, i.e A — X I„ € G/n(K). Fixons x € K. D'après 1/ a), on a VA € T, P{a-xk)b(x) = Pb(a-x/„)(*)■ Le polynôme P(A~xin)B{x) — PB(A-xrn)(x) € K[-X] s'annule donc sur T, donc est nul puisque T est infini. En particulier, ce polynôme s'annule lorsque X prend la valeur 0, c'est à dire Pab(x) = Pba(x)- Ceci étant, vrai pour tout a; € K, on en déduit, K étant infini, que Pab = Pba- 2/ Soit r = rg A. Si r = 0, c'est terminé (on a alors A = 0). Sinon, on sait, que A est équivalente à la matrice ({f "), c'est-à-dire 3P € 0/P(K), 3Q € 0/,(K), A = P"1 ( „r J ) Q. »■«■'(S S)' où S! € Afr(K). On a "-"-■(î t)' - "-«-(S !)« d'où Pab = Écrivons Bi - XIr B3 0 -XIp.r = (-iy-rx'-rpBl. De même, on trouve PBa = (-iy~rX1~rPBl- On a donc (-X)<PAB = {-X)pPBa- (Si p = g, on retrouve les résultats de 1/). Exercice 3. Soient n un entier naturel, n > 2, et p € N, 1 < p < n — 1. a) Montrer que r={A€ Mn(M.) \ igA< p} est fermé dans Mn(R). b) Déterminer l'adhérence de l'ensemble A = {A € Af„(IR) | rgA = p}. Solution. Il suffit de montrer que l'ensemble A = Mn(R) \ T = {A € A*n(M) | rgyl>p+l} est ouvert. Fixons A = («ij)i<«'j<«» € A. Comme rg^4 > p+ 1, il existe une matrice carrée extraite de A inversible d'ordre p+ 1 (voir le chapitre III, partie 3.6, théorème 2, page 121). Autrement dit, il existe I et J inclus dans {1,.. . , n] avec. Gard/ = Gard J = p + 1, tels que A' = (a; ,-) <«/ vérifie dttA' / 0. Définissons l'application <p : M„(R) -» R B = (bij)l<iij<n ~ det(bij) .€,. L'application <p s'exprime comme polynôme en certains des coefficients de B, elle est, donc continue. Or f(A) = det A' / 0, donc, il existe un voisinage V de A dans jM„(M) tel que pour tout B € V, ip(B) / 0. Autrement dit, pour tout B € V, la matrice extraite (&{,;)'€' est inversible, donc ... . ' >€J rgS > p+ 1. Ainsi, on a trouvé un voisinage de A inclus dans A. L'ensemble A est donc ouvert. b) Montrons A = T. D'après a), T est fermé. Or A C T, donc A C T.
186 IV. Réductions d'endomorphismes Montrons maintenant l'inclusion réciproque. Soit A € T. Il s'agit de montrer que A est limite d'une suite de points de A. Si rg A = p, alors A € A et c'est terminé. Sinon, r = rg A < p. On sait aussi que A est équivalente à la matrice I .^ .. I, ce qui s'écrit Pour tout m € N*, on note Bm la matrice ( Ir 0 0 \ B™ = 0 £/„_, 0 € Mn(R). \ 0 0 o / Pour tout m, rg Bm = p donc Am = P~1BmQ est de rang p. Or lirrim-.+no Bm = I !" I, donc lirrim-.+oo Am = A et pour tout m, ^4m € A. On a donc AgA. Exercice 4. a) Soit M € Af„(Q. Pour tout e > 0, montrer qu'il existe P € G£n(C) tel que T= P~lMP = ( *i \ 2,2 ('.-.;) \ o avec Vi < j, \Uj\ < e. *„,» / b) Soit A € Af„(C). Montrer que A est nilpotente si et seulement s'il existe une suite de matrices (Ap)p^ vérifiant (i) V», A„ est semblable à A (ii) lim A„ = 0. Solution, a) Soit / l'endomorphisme de C dont la matrice dans la base canonique de C est égale à M. Le corps C étant algébriquement clos, / est tngonalisable. Il existe donc une base B = (ex e„) de C telle que [/]b (matrice de / dans la base B) soit triangulaire supérieure. Écrivons [f]B = (ai,i)i<i,j<n- Pour tout p € N", Bp = (ex, ie2 r^rren) est une base de C. Pour tout «', on a ou encore On en déduit ;=i j=i v/^ 7 TP = [/R = / « "1,'J «1,3 rtl 1 —■- —=*- "a,3 «2,2 -^- «3,3 0 «l,n \ p" «a,n n»-3 p \ «"," / Ceci étant, soit /i = sup; • |rt,-,j-|. Il existe p € N* tel que fi/p < e. Soit T = Tp = (Uj)i<i,j<n = [/]b,- La matrice T est triangulaire supérieure et pour tout i < j, \Uj\ = |rt,-j •p'~1\ < ^/p < £• De plus T est semblable à [/]b donc à M, d'où le résultat.
3. Topologie sur les endomorphismes 187 b) Condition nécessaire. D'après a), pour tout p € N*, il existe Ap = [oij(p)]i<ïj<n € Mn(C) semblable à A, triangulaire supérieure et telle que pour tout i < j, |a;j(p)| < 1/p. Or pour tout i > j, dijip) = 0 et pour tout «', aiti(p) = 0 (Ap étant nilpotente, ses valeurs propres ai^p) sont nulles). On en déduit que pour tout (i,j), |<>ij(p)| < 1/p- Donc linip_+oo Ap = 0, d'où le résultat. Condition suffisante. Pour toute matrice M € Mn(C), on note Pm son polynôme caractéristique. L'application Mn(C) —* €[X] M >-» Pm est continue (en effet, les coefficients de Pm s'expriment comme des polynômes en les coefficients de M). Or limp_+00 Ap = 0, on a donc limp_+oo Pa, = P0 = (-l)nXn. Or pour tout p, Ap est semblable à A donc PAr = PA. On en déduit PA = (-l)"Xn. Le théorème de Cayley-Hamilton entraîne alors A" = 0. EXERCICE 5. Soit A € M„(R) et une suite réelle (am) telle que B = J2t^o am Am existe. Montrer qu'il existe P € M [A-] tel que B = P(A). Solution. L'ensembler = {P(A), P € E[X]}est uns.e.v de M„(R), et Mn(U)étant de dimension finie, Y est, fermé. Pour tout k g N, on pose P* = J2m=o (%m ^'" ^e sorte (lue & = lim*—+oo Pk(A). En d'autres termes, B est limite d'une suite de points de T. Comme T est, fermé, on en déduit B € I\ donc il existe P GR[X] tel que B = P(A). EXERCICE 6. Soit E un K-e.v.n (avec K = E ou C). On note CC(E) l'algèbre des endomorphismes continus de E. Soit / € CC(E). a) Montrer que lim (uB+ifY = exp(/). b) Plus généralement, si (/„) est une suite de CC{E) qui tend vers /, montrer lim (lAB+-fn) =exp(/). c) Soient u, v e CC{E). Montrer Solution, a) Le résultat suivant nous sera utile. v* e cc(E), En effet. On a |«pfc)- (ld + ±*)"| <exp(|*|)- (H-1^1)"- (*) :p(,)-(ld+i,)n = gi/-è^. Or C* n n-l n-k+l 11 V*,l<*<n, _a = _.__...___.-<-., donc En appliquant (*) à /, on en déduit le résultat, demandé car lim„_+no(l + |/|/«)" = exp(|/|).
188 IV. Réductions d'endomorphismes (**) (***) b) On remarque déjà que lim exp(/„)- (ld+-fn\ = 0. n-»oo \ n / En effet, en posant M„ = |/n|, on a d'après (*) l exp(/„) - (ld+^)" I < exp(M„) - (l + ^fj" . Or 11111,,-.00 M„ = B/| = M, donc lim„_oo exp(M„) = exp(M) et comme (l + M?.y = exp fnlog(l + ^-)) = exp (n(^- + o(±))) = exp (M„ + o(l)) , on a aussi lim„_oo(l + Mn/n)n = exp(M). D'où (**) avec (***). Par ailleurs, la continuité de l'application g h-► exp(^) (voir la proposition 3) entraîne que lim„_oo exp(/„) — exp(/) = 0 (****). En écrivant f Id +^/n) = ( (ld+^fnj - exp(/„)J + (exp(/„) - exp(/)) + exp(/), on en déduit avec (**) et (****) le résultat. c) Lorsque n tend vers +oo, on a donc exp(-) =Id +- + o(-) et exp(-) = Id +- + ,,(-), \n/ n n \n/ n n si /„ = n (exp (-) exp (-) - Idj , /„ = u + v + o(l). Autrement dit lim„_oo/n = u+ v, donc d'après la question précédente, lim„_oo(Id +/n/«)" = exp(u + v), d'où le résultat car (Id +/„/n) = exp(u/n) exp(t>/n). Remarque. La proposition 5 (page 183) peut se déduire facilement du résultat de la question a). Exercice 7. Soit E un C-e.v de dimension finie n e N*. Soit g € C(E). Montrer que g est diagonalisable si et seulement si l'ensemble $ = {<p~lg<p, f> € Çl(E)} est fermé. Solution. Condition nécessaire. Soit II le polynôme minimal de g. Comme g est diagonalisable, II n'a que des racines simples. Pour tout ip g Q£(E), on a 11(^-1^) = ^_1II(^)^i = 0, donc pour tout h e ¢, n(/i) = 0. Soit h g $. L'endomorphisme h est limite d'une suite (hp) de points de $. Comme pour tout p, II(/ip) = 0, on a II(/i) = limp_no n(/ip) = 0. L'endomorphisme h étant annulé par un polynôme n'ayant que des racines simples, on en déduit que h est diagonalisable. Or le polynôme caractéristique Ph de h vérifie P/, = linip_+no Php. = Pg car pour tout p, Pnr = Pq. Les endomorphismes g et h ont donc même liste de valeurs propres; comme ils sont de plus diagonalisables, on en déduit que g et h sont semblables, donc que h € $■ Condition suffisante. Raisonnons par l'absurde. Supposons $ fermé et g non diagonalisable. Soit p € N*. Le corps C étant algébriquement clos, g est trigonalisable. Il existe donc une base B — (e\,... , e„) de E dans laquelle la matrice de g ait la forme Mb = (A' 0 k o 'M A2 0 <i.» <n-l,n A„ \
4. Sous espaces caractéristiques - Réduction de Jordan 189 Pour tout n € N*, on définit, ipp € C(E) sur la base B par ^>p(e,-) = —e,- pour tout ». On a /A, [Vp^VpIb = «1,2 «!£ p A2 A3 3,3 P *n-l.n P a„ y donc lorsque p tend vers +oo, tpp lg<pp tend vers un endomorphisme diagonalisable h. Comme g n'est pas diagonalisable, h n'est pas semblable à g donc h £ $. Or h € $, et donc $ n'est pas fermé, ce qui est contraire aux hypothèses. L'endomorphisme g est donc diagonalisable. Remarque. La condition suffisante fait appel au résultat de la question a) de l'exercice 4, redémontré ici. 4. Sous espaces caractéristiques - Réduction de Jordan Dans toute cette partie, E désigne un K-e.v de dimension finie n € N*. On utilisera la notation A Ç. B lorsque A c B et A ± B. 4.1. Sous espaces caractéristiques DÉFINITION 1. Soit / e C{E) tel que le polynôme caractéristique Pf de / soit scindé sur K : P, = {-l)n(X - Xi)"1 ■••(X - X,)°". Pour tout i, le s.e.v N{ = Ker(/ - A,Id)<" s'appelle le sous espace caractéristùjue de / associé à la valeur propre A,-. — Pour tout i, N{ est stable par /. — On a E = Nt © ■ • • © N„ — Pour tout i, dim JV, = a,. Démonstration. Le s.e.v TV,- est, bien stable par / car si £ g Ni, (f - Xi Id)°"(/(*)) = / o (/ - A,- Id)°"(x) = 0. - Le fait que E = Ni © ■ ■ ■ © N, résulte du théorème de décomposition des noyaux (voir 2.1, théorème 1). - Pour tout «', la restriction /,■ de / à N vérifie (/,•—A,- Idjv^)"* = 0. En d'autres termes, fi—X Id^ est nilpotente, donc d'après 1.2 proposition 3, le polynôme caractéristique de /,• — A,- Id est (—X)dlm Ni, donc celui de /,■ est, (A,- — x)dimAr\ Or Pjt divise Pf d'après la proposition 2 de la page 161, et donc dim TV,- < a,- (*). Comme E = Ni © ■ • ■ © N,, on a ?» = Yl'i=i ^m ^t- De plus J2i=i a' = "> et on en déduit avec (*) que dim TV,- = «,■ pour tout i. D Définition 2 (Indice d'un endomorphisme). Soit / e C{E). Il existe un unique entier naturel r tel que {0} = Ker /" £ Ker / £ ■ ■ ■ Ç Ker/r = Ker/r+1 = Ker/r+2 = ■■■ = Ker/« = ■■■ . L'entier r s'appelle Y indice de /. C'est, aussi le plus petit entier naturel tel que Ker/r = Ker /--+1.
190 IV. Réductions d'endotnorphîsmes Démonstration. On part du fait que Vp € N, Ker f C Ker fp+ï (*) (en effet, si x € Ker/P, alors f(x) = 0 donc /p+1(x) = f(F(x)) = 0). On en déduit en particulier que pour tout p, dim(Ker/p) < dim(Ker/p+1). Autrement dit, la suite (up)peN définie par «p = dim(Ker f) est croissante. Cette suite est à valeurs dans / = {0,1... , n}. L'ensemble / étant fini, (up) étant croissante, l'entier r = inf{p € N, up = up+i} existe. On a alors — Pour tout p < r, Ker/P Ç Ker/P+1 (d'après (*) et parce que up < up+i). — Ker/r = Ker/1""1"1 (d'après (*) et parce que ur = ur+i). — Pour tout p > r, Ker /p = Ker /p+1 car Ker/P+1 = {x€E\ fr+ï{f~T(x)) = 0} = {x € E | /"-""(e) € Ker/r+1} = {x € £ | /""""(x) € KerT} = Ker/P. L'unicité est évidente. D Remarque 1. — Les propriétés vérifiées par r montrent que l'indice r de / est ausà l'unique entier naturel vérifiant Vç < r, dim Ker /' < dim Ker f et V</ > r, dim Ker /' = dim Ker f. — Si / est nilpotente, l'indice r de / n'est autre que inf{p | /p = 0}, c'est-à-dire l'indice de nilpotence de /. — On peut montrer que si r est l'indice de /, alors Ker f © Im f = E. — L'indice r de f vérifie aussi la propriété £ = Im /° 2 Im / 2 ■ ■ ■ 2 Im /r = Im /r+1 = Im /r+2 = ■■ = Im /« = ■■■ . — Ces résultats sont à rapprocher de celui de la question 1/ a) du problème 2 du chapitre III (page 150). Théorème 1. Soit f e C{E) tel que son polynôme caractéristique Pj soit scindé sur K : ^/ = (-l)nn,-=i(*- A,)"1- Alors (i) Le polynôme minimal II/ de f est de la forme s Uf(X) = Y[(X - A,)r' avec Vi, 1 < r,- < a,-. (ii) L'ordre de multiplicité r,- de A,- dans II/ est l'indice de l'endomorphisme (/—A,- Id^). Démonstration, (i) est démontré à la remarque 6 de la partie 2.3 (page 176). (ii) Pour alléger les notations, nous allons montrer (ii) pour i = 1. On pose Q = ^=2(^ — ^«')r'' ^e sorte que II/ = (X — Ai)ri Q. Comme (X — Ai )ri et Q sont premiers entre eux, on a, en appliquant le théorème de décomposition des noyaux (voir le théorème 1 de la partie 2.1), E = Ker(/ - A, Id)r' © M avec M = Ker Q(f). On en déduit dimKer(/ — A!)1"1 + dim M = ?» (*). Soit q un entier naturel. On pose P = (X — A^'Q. En appliquant, le théorème de décomposition des noyaux, on a Ker P(f) = Ker(/ - A, Id)« © Ker Q(f) = Ker(/ - A, Id)« © M. On en déduit dim Ker(/ - A, )« + dim M = dim Ker P(f) (**). — Si q > rx, alors II/ divise P donc P(f) = 0, i.e Ker P(f) = E, donc avec (*) et (**), on tire dimKer(/- A,)« = dimKer(/- A,)r'. — Si maintenant q < rx, alors II/ ne divise pas II/, donc P(f) / 0, i.e Ker P(f) / E, et d'après (*) et (**), on tire dimKer(/ - A,)« < dimKer(/ - A,)ri.
4. Sous espaces caractéristiques - Réduction de Jordan 191 On en déduit, que l'indice de l'endomorphisme / — Xx Idf; est r^ (voir la remarque 1). D Remarque 2. — En conséquence, les sous espaces caractéristiques Ni de / sont égaux à Ker(/- A,-)ri. — Pour tout i, r,- est aussi l'indice de nilpotence de l'endomorphisme /|jv, — A,- Idjv, ■ — Ce théorème permet de calculer le polynôme minimal de / : on commence par calculer le polynôme caractéristique de /, puis on calcule ensuite pour tout i l'indice de f — A.Id (dans la pratique, les calculs sont quand même assez longs). 4.2. Décomposition de Dunford Nous allons maintenant donner une nouvelle réduction plus poussée que la simple trigo- nalisation (mais moins que la réduction de Jordan), appelée décomposition de Dunford. Nous donnerons deux moyens d'y parvenir. Théorème 2 (Décomposition de Dunford). Soit f e C(E) tel que le polynôme caractéristique Pf de f est scindé sur K. Il existe un unique couple (d, n) € (C(E))2 avec d diagonalisable et n nilpotente, tel que (i) f = d+ n (ii) n od = don. Démonstration. On écrit Pf = (-1)" U^^X - A,)"', et pour tout, »', on note TV,- = Ker(/-A,- Id)"' les sous espaces caractéristiques de /. Existence. Comme E = N\ © ■ ■ ■ © N,, il suffit de définir d et, n sur chaque TV,-. On les définit comme suit : Vi,Vz€TV,-, d(x) = \ix et n(x) = f(x) - A,x. Autrement dit, pour tout, i on a di = d\n{ = A,- Id|jv; et, n,- = n\Ni = f\Nj — A,-Id|jVi- Les <T,- et n,- sont des endomorphismes de TV,- car TV,- est stable par / donc par d et, n. Ainsi définie, d est diagonalisable. Pour tout, «', on a n"' = 0 (puisque par définition de TV,-, pour tout x € Ni, (f — A,- Id)"'(x) = 0). Si a — sup n,-, n" s'annule donc sur chaque Ni donc sur E = ©J=1TV,-, c'est-à-dire n" = 0. 11 reste à montrer que d et n commutent. Pour tout i, on a di = A,- Idjv, donc n,- o <i,- = <T,- o m, c'est-à-dire que d et ?» commutent sur chaque TV,-, donc sur E = ©f=1TV,-. Unicité. Soit (d', n') un autre couple vérifiant les conditions. On remarque d'abord que fod' = d'of, donc pour tout j, TV,- est stable par d' (pour tout t. € TV,-, (/-A,- Id)<" [<i'(x)] = <i'o(/-A,- Id)"^!) = 0). Comme d^. = A.-IdjVj, on en déduit que d o d' = d' o d sur TV,-. Ceci étant vrai pour tout «, comme E = ©f=1TV,-, on en déduit, que d et d' commutent. De plus d et d' sont diagonalisables, on peut donc les diagonaliser dans une même base, ce qui prouve que d' — d est, diagonalisable. Comme n = f — d, n' — f — d! et que d o d' = d'o d, n et, n' commutent. Si on choisit, p et q tels que np = n" = 0, on a donc (»-Op+î= J2 cJ+fn«"(-iyV = o (dans chaque terme de la somme, on a soit, j > p, soit j > q). Donc n — n' = d' — d est nilpotent. Or nous avions montré que d' — d est diagonalisable, donc d' — d = 0. Autrement, dit, d = d' et donc n = n'. D Conséquence. Soit / € C(E) avec Pf = (—1)" n.\=i(^— ^ô"' scindé sur K. Reprenons les notations utilisées dans la démonstration. Pour tout i, fi = f\N4 € £(TV,-) est trigonalisable et À,- est sa seule valeur propre (car /,- — A,- Idjv; = n,- est nilpotente) et donc il existe une
192 IV. Réductions d'endomorphismes base Bi de iV,- dans laquelle la matrice de /; a la forme /A,- X ■■■ 0 [Mb. = Ai = \ 0 Comme E = (B'i=lNi, on voit que B = B^D matrice de / a la forme A,- 0 x \ A,-/ / ^i U]b = U B, est une base de E dans laquelle la \ 0 V 0 / Cette réduction est plus poussée que la simple trigonalisation que nous avions vue au théorème 3 de la partie 1.4 (page 162). Un autre moyen d'aboutir à la décomposition de Dunford. Nous présentons une autre technique pour aboutir à la décomposition de Dunford, qui présente l'avantage de montrer que les endomorphismes d et n sont des polynômes en /. Nous aurons besoin pour cela d'un résultat préliminaire qui fait l'objet de la proposition ci dessous. PROPOSITION 1. Soit f € C{E) et F e K[A"] un polynôme annulateur de f. Soit F = 0M"1 ■ ■ M"' la décomjwsition en facteurs irréductibles de K[X] du polynôme F. Pour tout i, on note Nt = Ker Af/"'(/). On a alors E = Ni © ■ ■ ■ © Ns et jwur tout i, lu projection sur Ni parallèlement à ©y^-iV,- est un polynôme en f. Démonstration. La fait que E = N\ © ■ ■ ■ © N, résulte du théorème de décomposition des noyaux. Pour tout i, notons Qi = YijM ^'j' ■ Aucun facteur n'est commun à tous les Qi, c'est-à-dire que les Qi sont premiers entre eux dans leur ensemble. En appliquant l'égalité de Bezout, on voit qu'il existe Ui,... ,U, € K[X] tels que U\Qx H 1- U,Q, = 1, de sorte que Mb = Udf) ° Qi(f) + ■ -+U,{f) o Q,(f). Pour tout i, on note P,- = UiQi et p,- = Pi(f). On a Id = Ya=i Pi (*)■ ^31 ailleurs, pour tout j / i, F divise QiQj donc Vj / i, n o Pi = QiQj(f) o UiUj(f) = 0. (**) On déduit de (*) que pour tout i, p,- = Yli=i Vi°Pi et donc d'après (**), pt = pf ■ Les p,- sont donc des projecteurs. - Montrons que pour tout «', Imp,- = Ni. Soit y = Pi(x) € Imp,. On a Mt"V)(y) = Mf'if) o Pi(f)(x) = Ui(f) o F(f)(x) = 0, ce qui prouve que Imp,- C Ker M"{(f) = Ni. Il reste à montrer l'inclusion réciproque.. Soit x € Ni = KerM™^/). D'après (*), x = pi(x) + 1-Ps(x). Or pour tout j / j, pj(x) = Uj(f) o Qj(f)(x) = 0 car M"' divise Qj, donc finalement x = p,(x) € Imp,-. Donc Imp,- = Ni. - Il ne reste plus qu'a montrer que pour tout j, Kerpj = ©j^.-Wj-. Pour tout j / i, on a Nj C Kerp,- car si z € Nj, alors pi(x) = £/,-(/) ° Qi(f)(x) = 0 car M"' divise Qj. On en déduit que ©j^.-TV,- C Kerp,-. Soit maintenant x € Kerp,-. D'après (*), x = 5T,-v,Pj(x) donc, x € (&j?.iNj. Finalement, Kerp,- = ®j*iNj. La démonstration est terminée puisque par construction, les projecteurs p,- sont des polynômes en /. D
4. Sous espaces caractéristiques - Réduction de Jordan 193 Théorème 3 (Décomposition de Dunford, bis). Soit un endomorplrisme f € C(E) tel que son polynôme caractéristique Pj soit scindé sur K. // existe un unique couple (d, n) d'endomorphismes tel que (i) d est diagonalisable, n est nilpotente. (ii) f = d+netdon=nod. De plus, d et n sont des polynômes en f. Démonstration. Existence. Ecrivons Pf = (— l)nrii=i(-^ — ^f)°" e* pour tout «', notons Ni = Ker(/ — A,-)"'. La proposition précédente s'applique avec F = Pj et pour tout «", M,- = (X — A,-). En utilisant les notations précédentes, pour tout «", p,- = Pi(f) est le projecteur sur Ni parallèlement à (Bj#Nj. Posons d = X^=1 A,-p,- (ainsi construit, d est diagonalisable) et n = f — d = Yli=i(f ~ A,-Id)p,-. En utilisant le fait que les p,- sont des projecteurs, que p,- opy =0 si i / j, et que les p,- commutent avec / (ce sont, des polynômes en /), on a Vg€N, »« = £(/-A,-Id)Vi. Or si q = sup,- «,-, on a (/- Ai Id)»p,- = [(X - A,)«P,](/) = 0 pour tout i car Pf divise (X - A,)«P,-, donc nq = 0. Ainsi construits, d et n sont des polynômes en / vérifiant (i) et (ii). Unicité. Soit (d', n') un autre, couple vérifiant (i) et (ii). Les endomorphismes d' et n' commutent avec d'+n' = / donc avec rfet n qui sont des polynômes en /. Ainsi, det d' sont diagonalisables dans une même base, ce qui entraîne que d — d' est diagonalisable. Comme, d— d' = n' — n est nilpotente (on montre ceci comme dans la démonstration du théorème 2), on en déduit que d—d' = n' — n = 0. D Calcul pratique de la décomposition de Dunford. Nous allons donner un moyen pratique de calculer les endomorphismes d et n donnés par la décomposition de Dunford. Nous allons pour cela calculer les projecteurs p,-, et il suffira ensuite d'écrire que s d = V^ Xtpi et n = f — d. Commençons par remarquer que dans la démonstration du théorème précédent (partie existence), on aurait pu remplacer Pf par n'importe quel polynôme F annulant / et ayant les mêmes facteurs premiers que Pf, en particulier par le polynôme minimal II/ de /. Si F = l~[f=i(^ — ^i)Ti est un tel polynôme, on commence par décomposer 1/F en éléments simples dans K(A") : 1 * =i ri Pour tout i, on pose ensuite Ui = "^^ijiX — A,)ri_J, de sorte que j'=i 1 r U- ' f = ^(x-XiY- ouencore l = 53UiQi> ou Qi = Ily^i(-^ ~ ^j')r'- Si Pi = UiQi, les projecteurs pt sont alors donnés par pt = P,-(/) (voir la démonstration de la proposition 1). D est en général préférable de prendre pour le polynôme F le polynôme minimal II/ de / (les degrés des polynômes intermédiaires sont moins élevés). Mais le calcul de II/ peut être assez long, c'est pourquoi on choisit parfois de prendre F = P/.
194 IV. Réductions d'endomorphismes Application au calcul d'exponentielle. L'écriture / = d + n donnée par la décomposition de Dunford est intéressante car d et n commutant, on peut utiliser la formule du binôme pour calculer /p : p f = (d + n)" = J2 C* dk o n"-k. k=0 Dans l'expression ci dessus, on peut retirer les termes de la somme pour lesquels k est plus grand que l'indice de nilpotence de n. Un autre intérêt est le calcul d'exponentielle. En effet, d et n commutant, on a exp(/) = exp(</+ n) = exp(«/)exp(n). Le calcul de exp(d) est simple si une base B de trigonalisation de d est connue : si [d]B = l *i V A-, 0 \ , [exp(«/)]B = exp([d]B) = A„ 7 / eXl V 0 \ 7 »-i n*> Quant à exp(n), il suffit d'écrire que exp(n) = Y^ — où q est l'indice de nilpotence de n. Dans la pratique, on calcule d et n grâce à la méthode décrite plus haut. Avec les notations précédentes, rappelons que s s d = J2 X{P{ et n = J2(f ~X{ Id) p*- 1=1 1=1 On peut alors calculer exp(/) sans cliagonaliser d, à partir des projecteurs p,-. En effet, les relations sur les p,- entraînent que pour tout p, dp = Yl'i=i AP Pi donc +00 ip +oo p=0 ' p=(l Par ailleurs, +oo +oo exp(n) = Y, ^ = Ê p=o ' Finalement, on en déduit p=(i L«'=l * \p V^ Ai S = E i=i p\ p\ p(n) = X i '+«> \P ^ »! .p=(l ' * r = E .p= lu- ■M 1 * Pi = xv>- t=i ^(/-A.Id)" ^ »! p=d * A,Id)p" P! J Pi- Pi- (Un calcul d'exponentielle de matrice est traité à l'exercice 1). 4.3. Réduction de Jordan Nous allons maintenant donner une réduction encore plus poussée que la précédente, appelée réduction de Jordan. En un certain sens, la réduction de Jordan est la plus poussée que l'on puisse obtenir. H existe cependant d'autres types de réduction qui ont aussi leurs avantages et qui s'utilisent dans des circonstances différentes (voir l'annexe B). La réduction de Jordan ne figure pas au programme des classes de mathématiques spéciales. Cependant, les techniques utilisées dans sa démonstration sont très classiques et leurs connaissances permettent de répondre à beaucoup de problèmes.
4. Sous espaces caractéristiques - Réduction de Jordan 195 Réduction de Jordan d'un endomorphisme nilpotent. Nous allons commencer par donner la réduite de Jordan d'un endomorphisme nilpotent. Nous verrons par la suite que la réduction d'un endomorphisme quelconque s'en déduit facilement. Théorème 4 (Réduction de Jordan d'un endomorphisme nilpotent). Soit u € C{E) un endomorphisme nilpotent. Alors il existe une base B de E dans laquelle la matrice de u a la forme ( 0 vl 0 Mb = 0 \ v2 "n-l \o ... avec Vi, u,- € {0,1}. 0 / Démonstration. Soit, rçN' l'indice de nilpotence de m, de sorte que ur ' ^ 0 et ur = 0. Pour tout «' G N, on note F, = Ker(«*'). 1) Montrons que (i) {0} = F„ g F, g • • ■ g Fr_, ÇFr = E. (ii) Pour tout » G N, 1 < i < r, u(fj) C F,-,. La partie (i) résulte de la définition 2, car r n'est, autre que l'indice de u (voir la remarque 1). Montrons (ii). Soit « G N, 1 < « < r. Pour tout * G F,, u*-1[u(x)] = u*'(x) = 0 donc u(x) G Fj_i. Donc «(Fi) Cfi-i. 2) Nous allons maintenant montrer l'existence de s.e.v G\,... ,Gr et. H\,... , /fr_i de £ tels que (i) Vi, l<i<r, fi = G,-®fi_i. (ii) Vi, 1 < i < r — 1, « appli<|ue injectivement G,+i dans G,-, (iii) Vi, 1 < i < r - 1, Gi = w(Gi+1) © Ht. Soit Gr un supplémentaire de Fr_i dans Fr, de sorte que Fr = Gr® FT-\. On a f (Keru) nG^^nGrCf^nG^ {0} 1 u(Gr) C u(Fr) C Fr_, donc u applique injectivement Gr dans Fr_i. u(Gr) n Fr_2 = {0}. En effet, soit x G «(Gr) n Fr_2. Il existe y € Gr tel que w(y) = x, et on a 0 = wr-2(x) = wr-1(y), donc y G Fr_i f)Gr= {0}, donc y = 0, donc * = u(y) = 0. Onadonc u(Gr)©Fr_2 C Fr_i. Il existe donc un s.e.v HT-\ tel que u(Gr)©Fr_2©/fr-i = FT-i- Si on pose Gr_! = u(Gr) © /fr_i, on a donc Fr_i = Gr_! © Fr_2, et « applique injectivement Gr dans Gr_i. (i), (ii) et (iii) sont donc montrés pour « = r — 1. Pour montrer (i), (ii) et (iii) pour i G {1,... , r2}, nous allons utiliser une récurrence descendante. Supposons le résultat prouvé pour i+ 1 6 {2,... , r — 1} et montrons le pour «'. On s'intéresse au comportement de u sur Gi+i. On a f (Ker u) n Gi+i = F, n G,+1 C F n Gi+1 = {0} { u(Gi+1) C «(fi+i) C F, donc u applique injectivement. G,-+i dans F,-. m(G,+1) nF,_i = {0}. En effet, soit, x G u(G,-+1) nFj-!. Il existe y G Gj+1 tel que x = u(y). Or Z G Fi-i donc 0 = u'~l(x) = w'(y), d'où yefifl G,+1 = {0}, c'est-à-dire y = 0, donc x = w(y) = 0. On a donc w(G,+i)©Fj_1 C Fj. On peut donc trouver un s.e.v Hi tel que u(Gi+i)©F,_i ©#, = Fi. On pose alors G< = u(Gj+1) © Hi, de sorte que F, = Gi © Fi_! et u applique injectivement Gj+i dans G,-.
196 IV. Réductions d'endomorphismes Les s.e.v Gr,... , G\ et, Zfr_i,... , H\ sont, ainsi construits de proche en proche. Les propriétés (i) et (iii) à l'ordre 1 sont f Ker u = Fi = Gx © F0 = G, © {0} = G, \ G, = u(G2) © F, En résumé, la suite G\,... , Gr vérifie ( £ = Gr©Gr_i©---©Gi G, = F! = Ker u Vi, 2 < i < r, u applique injectivement G,- dans G,-_ i 3) Partant d'une base etil £jifj de Gj, w(£i,i) u(e«,ïi) est une famille libre de G,_i que l'on peut compléter par £,--1,1 £1-1,5,., pour obtenir une base de G,-i- Nous obtenons en réunissant toutes ces bases une base de E que nous pouvons écrire sous la forme du tableau à double entrée suivant. Gr Gr_i Gr-, G, er,l u(er,i) u2(er,l) U,"(er,l) er,*r U(er,sr) «2(er,,J ur(er,,r) er-l,l M(er-l,l) Mr_1(er-l,l) er-l,jr_! w(er-1,.,.,) «"""'(er-l.^.,) er-2,l Mr_2(er-2,l) el,l el,«l 4) En lisant le tableau précédent colonne par colonne, de bas en haut puis de gauche à droite, nous obtenons un nouvel ordre (ei,... ,e„) des vecteurs de cette base. On voit alors que u(ej) = ej-\ si tj n'est pas situé sur la dernière ligne, u(e.j) = 0 si ey est situé sur la dernière ligne. La base B = (ex,... , e„) convient donc pour le théorème. D Remarque 3. Une autre manière de voir les choses est de remarquer que [u]b est constituée de blocs nuls et de blocs de la forme /01 0 ••• 0 \ 0 0 1 ; •. '•■ 0 0 1 \° •• 0/ centrés sur sa diagonale principale. Théorème 5 (Réduction de Jordan d'un endomorphisme). Soit f e C(E) tel que son polynôme caractéristique Pj soit scindé sur K : Pf = (-1)" Ift* - *•)"*, (A,- ^ A,- si i ï j). «=1 Alors il existe une base B de E dans laquelle la matrice de f ait la forme (Xi vu 0 ••• 0 \ / ^ [f]B = A-2 0 \ V 0 , où Vi, Ai = A, ) avec pour tout (i,j), Vi,j € {0, l}. 0 Ai vu '•■ 0 V« A. '"«,«j-i 0 a, ; e Af„,(K)
4. Sous espaces caractéristiques - Réduction de Jordan 197 Démonstration. Pour tout «', on note Ni = Ker(/ — A,- Id)™' les sous espaces caractéristiques de /. On a E = Ni © • • • © N, et les N sont stables par /. Pour tout «', on pose /, = /)#, • On a fi G C(Ni) et (/, — Aj Id)™' = 0, donc n; = fi — Aj Id est nilpotent. D'après le théorème précédent, il existe donc une base fl,- de Ni telle que Mb, = / 0 vt,i 0 Vo o \ 0 «t.afj-l o / / A, «,,, 0 0 A, via donc [fi]Bi = [A, Id^ +nt]Bi = 0 \ 0 V o avec pour tout j, 1 < j < on — l, Vij 6 {0,1}. Comme E = Ni B = Bi U • • • U B, est Une base de E et que ■ 0 Xi / © TV,, on voit que / [/i]b, Wb = [/a]B, \ 0 [f.]B. d'où le résultat en posant, pour tout «, Ai = [/.]Bi- Remarque 4. Ce théorème peut aussi s'interpréter comme suit : [f]B est constituée de blocs du type (A,) ou (Xi 1 0 • • • 0 \ 0 Ai 1 0 V » ••• Xi 1 • • • 0 Xi ) centrés sur sa diagonales principale. 4.4. Exercices EXERCICE 1. Calculer l'exponentielle de la matrice (• 4 -2 \ M = \ 0 6-3 6 M3(R). -14 0/ Solution. Le polynôme caractéristique de M est Pm = —(X — '2)2(X — 3). Les valeurs propres de M sont donc Ai = 2 et A2 = 3. Pour calculer l'exponentielle de M, nous allons utiliser la méthode décrite dans la partie 4.2, en employant les mêmes notations. On part ici du polynôme annulateur F = (X - 2)'2(X - 3). On a ici Q, = (X - 3) et Q2 = (X - 2)2. On recherche maintenant UijU? € R[X] tels que U1Q1 + U2Q2 = 1- On effectue pour cela la décomposition de 1/F en éléments simples. Après calculs, on trouve 1 _ 1 _ 1 \__ 1 _ 1 X-l F ~ (X - '2y(X - 3) ~ X - 2 (X - 2)2 + X - 3 ~ X - 3 (X - 2)2
198 IV. Réductions d'endomorphismes donc (X-2)2-(X - l)(X -3) = 1,et donc Ux = -(X-l)etU2 = l conviennent. Si maintenant Pi = UiQi = —(X — l)(X — 3) et P2 = U2Q2 — (X — 2)2, les projecteurs pi et p2 sont donnés par Pi = Pi(M) et p% = P2(M). On sait alors que exp(M) = eAl (h + ~(M - 2/3)J Pl + ex'p2 = e2(M - I3)Pï + e3p2. Un calcul donne et -2 -4 p, = PX(M) = -(M - h)(M - 3/3) = | -3 -3 -3 -4 (34-6 3 4-6 3 4-6 /-2 -4 6\ -3-3 6 1 V-3 "4 7/ )■ (au passage, on vérifie que px + p2 = /3), donc / -6c2 + 3e3 -4e2 + 4e3 10e2 - 6e3 \ exp(M)= [ -6e2 + 3e3 -3e2 + 4e3 9e2 - 6e3 j \ -7e2 + 3e3 -4e2 + 4e3 lie2 - 6e3 / Exercice 2. Soit M € Mn(C). Donner une condition nécessaire et suffisante sur la matrice M pour que lim<_+no etM = 0. Solution. Nous allons montrer que lim»_+0o etM = 0 si et seulement si pour toute valeur propre A de M, la partie réelle 8fc(A) de A vérifie !ft(A) < 0. Condition nécessaire. Supposons que lim»_+00 ctM = 0. Soit A une valeur propre de M, et X un vecteur propre associé. On a facilement Vp€N, MpX = XpX donc +~ f t^f V< € K, etMX = ^ —M?X = ^ —WX = etXX. p=(l P" p=0 **' Ainsi, lim^—oo eiX = 0, ce qui entraîne 3î(A) < 0. Condition suffisante. Supposons que pour toute, valeur propre A de M, on ait 3î(A) < 0, Si A = (atj)i<i}<n € M„(C), on pose ||A|| = £,. . \ai j\- La norme || ■ || est une norme d'algèbre sur Mn(C). " D'après le théorème 2, on peut écrire M = D + N avec D diagonalisable, N nilpotente et DN = ND. Comme D et N commutent, on a exp(M) = exp(D) exp(N). Soit P € £/„(C) tel que / h P~lDP = \ X2 V 0 = D\ A„ / Les A,- sont les valeurs propres de M, et par hypothèse /i = sup,- 5R(Aj) < 0. On a / ,.tXi Vi €R,exp(i£>') = rtxd 0 \ o«A.
4. Sous espaces caractéristiques - Réduction de Jordan 199 donc V< € K, ||exp(<£C)|| = J2 \etXi\ = £V"<A'> < ne'". «=i «=i Comme exp(<£>) = P 1exp(<£)/)P, ceci entraîne ||exp(<D)||<||p-1||.ne"'.||P|| = /<:e^. Maintenant, N étant nilpotente, on a V< t2 >0, exp(tN) = In+tN + -N2 + ■ ■ ■ + N donc ,n-l ||exp(W)|| < n + i||JV|| + ■ ■ ■ + —-^ \\N\\-1 = /(<). Avec (*), on peut maintenant écrire ||exp(<M)|| = \\exp(tD)exp(tN)\\ < ||exp(<£>)|| ■ ||exp(W)ll < *e"7(0- Comme t i-* f(t) est polynomiale et /i < 0, on en déduit que lim/_+no etM = 0. (*) EXERCICE 3. Soit M € Mn(C). Donner une condition nécessaire et suffisante sur M pour que M et 2M soient semblables. Solution. Supposons M et 2M semblables. Alors si A est valeur propre de M, 2A est valeur propre de 2M, donc de M (car M est semblable à 2M). De même, 2(2A) est valeur propre de M. On itérant le procédé, on voit ainsi que pour tout p 6 N, 2PA est valeur propre de M. M n'ayant qu'un nombre fini de valeurs propres, on doit donc avoir A = 0 pour toute valeur propre A de M. Le corps de base C étant algébriquement clos, on en déduit que la seule racine du polynôme caractéristique Pm de M est 0, donc Pm = (—1)"^", et donc M est nilpotente d'après le théorème de Cayley-Hamilton. Réciproquement, supposons M nilpotente. Soit / l'endomorphisme de C dont la matrice dans la base canonique B de C est M. On sait (théorème 4) qu'il existe une base Bx = (ei,... , e„) de C telle que /Ou, 0 ■■■ 0 \ [/1b, = 0 0 »2 \ o 0 0 v„-i ■■• 0 / avec Vi>i€{0,l}. On note maintenant B-i la base B-i = (ei, 2e2,... , 2" 1en). Pour tout j 6 {1,... , n — 1}, on a fci+i) = Vie{ donc /(2^,+,] = (2^,-)(2^^0, et <lonc Mb, = ( ° 0 \o 2Vl 0 0 2«2 0 0 \ 0 0 ) = 2[/]b, donc 2[/]b, et [/]b, sont semblables, donc 2M et M sont semblables. En résumé, M et 'IM sont semblables si et seulement si M est nilpotente.
200 IV. Réductions d'endomorphismes Exercice 4 (Toute matrice est semblable à sa transposée), a) Soit une matrice M 6 M„(C). Montrer que M et *M sont semblables (on pensera à la réduction de Jordan). b) Que dire dans Mn(R) ? Solution. D'après le théorème 5 et la remarque 4, il existe Q 6 Çfn(C) telle que /Mi \ M' = Q~lMQ = M-i Mq ) avec, les M,- de la forme / a. 1 0 a 0 0 V 0 0 \ («)• 0 a ) Pour tout », on va montrer que Mi et, *M,- sont, semblables. Si M,- = (a), c'est évident. Sinon, Mi est de la forme Mi = ( a 1 0 a 0 0 V 0 0 1 (X o \ 1 6K,(Q. 0 ex } Soit /i Pendomorphisme de C' dont, Mi est la matrice dans la base canonique B ■=■ (tx,... ,e„J de C". Soit B' la base (e„.,... ,62,6!) de C*. On a facilement [fi]B- = (a 1 0 l o 0 a 1 0 <x 0 1 0 \ 0 a ) = ViU donc. *Mi = [/j]b' est semblable à Mi = [/j]b- Pour tout i, on peut donc, trouver une matrice P,- inversible telle que *Mi = Pj~lMiPi. La 0 \ Pi~l matrice P = et on a 3-1 € M„{€) est inversible, son inverse est, P l = V VA^Pi P~lM'P = 0 P7xMqPq 'M, 0 = 'M' ce qui entraîne i(Q~1MQ) = P~l(Q-lMQ)P donc 'M = R~lMR avec iî = QPXQ. b) Dans A^„(K), on ne peut plus procéder comme plus haut car le corps de base K n'est pas algébriquement clos et, donc on n'est pas assuré de la réduction de Jordan de M. On s'en tire tire autrement. Si M € Mn(M.) C Mn(C) alors d'après a), il existe P € Q(^(€) tel que *M = P~lMP. On a vu au problème 10 du chapitre III que deux matrices réelles semblables dans Mn(€) sont semblables sur .M„(IR), autrement, dit, il existe Q 6 Gfn(C) tel que 'M = Q~lMQ.
4. Sous espaces caractéristiques - Réduction de Jordan 201 Remarque. Le résultat de a) reste vrai sur tout corps K dès que Pm est scindé sur K. On en déduit que pour tout corps K, M € Af„(K) est semblable dans Af„(L) à *M où L désigne le corps des racines de Pm- Si K est infini, on en déduit (toujours grâce au résultat du problème 10 du chapitre III) que M et *M sont semblables dans Af„(K). (En fait, ceci est vrai même si K est un corps fini —- voir l'annexe B, partie 3.2.) Exercice 5 (Logarithme d'une matrice inversible). 1/ a) Soit M e G£„(C). Montrer qu'il existe A € Mn(C) telle que exp(^4) = M. b) Déterminer l'ensemble des matrices B € Af„(C) telles que exp(JB) = J„. 2/ (Application). On se donne un entier p > 2. a) Soit A 6 Çf-n(C) une matrice inversible. Montrer l'existence d'une matrice B telle que B? = A. b) Lorsque A € Af„(C) n'est pas inversible, existe-t-il toujours une matrice B telle que A=B"1 3/ (Seconde application). Montrer que Çf-n(C) est connexe. Solution. 1/ a) D'après la conséquence du théorème 2, M est semblable à une matrice de la forme / *i M' = B2 \ \ Bf ) les blocs Bi étant de la forme {x 0 u X A 0 x ^ X A ) Soit B 6 Mm(C) un tel bloc. On a A ^ 0 puisque M est inversible. On peut écrire B = A(/m + N) où N est une matrice nilpotente. Posons C = Im + N. Par analogie avec le fait que pour |t| < 1, log(l + <) = '-V+3' + '"'on Pose N D = N- —+ ■■. + (-!)' ,N" m — 1 Comme on s'y attend, nous allons montrer que exp(£>) = Im + N = C. Ceci peut se déduire d'un calcul formel analogue au cas des séries entières sur C, Pour le lecteur non convaincu, nous allons donner une autre démonstration. Pour tout < g 1, on pose t'2 /m_1 D(t) = tN- —N2 + ■■■ + (-l)m -N"1'1. 2 m — 1 Pat dérivation, on obtient iy(t) = N-tN2+- . + (-l)mtm-2Nm-1, et comme Nm = 0 (car N est nilpotente), on a (Im +tN)iy(t) = N. Si S(t) = e.xp[£>(<)], on a donc (Im +tN)S'(t) = NS(t) (*), et en dérivant une nouvelle fois (7m 4- tN)S"(t) = 0, d'où on tire S"(t) = 0 car (7m + tN) est toujours inversible (son inverse est Im - tN + t2N2 + ■ ■ ■ + (-l)m-1Mm-1). Pour tout t, S'(t) est donc une fonction constante, égale à S'(0) = N d'après (*). Or 5(0) = Im donc pour tout t, S(t) = Im+ tN. En particulier, C = 5(1) = exp[D(l)] = exp(D). Ceci étant, soit fi Ç C tel que c'' = A (si A = |A|e'*, il suffît de prendre /i = log |A| 4- iff). Alors exp(^/m + D) = exp(/j/m)exp(£>) = (XIm)C = B. Ainsi, pour tout », il existe une matrice Ai telle que exp(j4,) = flj. Si on note (M A' = A2 0 \ V 0 / exp (,4,) on a exp(^') = ap) \ \ exp(j42) 0 = M'. exp(Ap) j Si P est une matrice inversible telle que P lM'P = M, on voit que la matrice A = P lA'P vérifie exp(A) = P~l exp(,4')P = M.
202 IV. Réductions d'endomorphismes b) Considérons une matrice B 6 Mn(€) telle que exp(fl) = /„. On peut écrire B = D + N où D est une matrice diagonalisable, N une matrice nilpotente, avec DN = N D. Nous allons montrer que N = 0. On a In = exp(fl) = exp(D)exp(N) donc exp(N) = exp(£>)-1 = exp(—D). L'exponentielle d'une matrice diagonalisable étant diagonalisable (pour s'en convaincre, se placer dans une base de diagonalisation et remarquer que l'exponentielle d'une matrice diagonale est diagonale), exp(N) = 1+ N -{ h N"~l/(n — 1)! = exp(—D) est donc diagonalisable. Si on pose Q=l + X + ■■■ + X"_1/(n - 1)! e R[X], on a exp(N) = Q(N). Comme JV est nilpotente, sa seule valeur propre est 0 donc la seule valeur propre de Q(N) est Q(0) = 1 (voir la remarque 1 de la partie 2.1, page 172). De plus, on a vu que Q(N) = exp(N) est diagonalisable; elle est donc semblable à l'identité, donc égale à/, et donc N-{ t-N"'1/(n — l)\ = 0. Autrement dit, le polynôme R = X -\ h X"~l/(n — 1)! annule N. Le polynôme minimal Un de N est de la forme Il^r = X" puisque N est nilpotente. Comme R(N) = 0, on a TIn = X" \ R, ce qui entraîne que ex = 1. Finalement, 0 = Un(N) = N. En résumé, on a montré que B = D est diagonalisable. Soit P g Çf„(C) tel que On a I„=P~l exp(B)P = exp(P~1flP) = 0 donc pour tout j, ex> = 1, c'est-à-dire Xj Ç 2«7rZ. Réciproquement, si B est diagonalisable à valeurs propres dans 2:7rZ, on a facilement exp(fl) = /„. Les matrices B telles que exp(fl) = /„ sont donc les matrices diagonalisables à valeurs propres dans 2i7rZ. 2/ a) Le résultat de la question 1/a) nous assure l'existence d'une matrice M telle que A = exp(M). En posant B = exp(M/p), on a Bp = exp(M) = A. b) Non! Considérons une matrice nilpotente A dont l'indice de nilpotence est n, ». e. vérifiant A" = 0 ^ A"~l. Une telle matrice existe, par exemple le bloc de Jordan A = /01 0 \ : •• 1 \o 0/ Si A = Bp, alors A" = B"p = 0 donc B est une matrice nilpotente, donc B" = 0 (en effet, d'après la remarque 6 page 176, PB = (-l)"X" donc. B" = 0 d'après le théorème de Cayley-Hamilton). Or 0 ^ An~l = flp("-1), donc forcément p(n — 1) < n, ce qui est impossible dès que n > 2. 3/ Il suffit de montrer que Ç£n(C) est connexe par arcs. Soient P,Q 6 GAi(C). H existe deux matrices ^4 et B telles que P = exp(-A) et Q = exp(fl). Le chemin <p : [0,1] —* M„(C) t ►-► exp(tA + (1 — t)B) relie continûment Q = exp(fl) à P = exp(A). De plus, pour tout t 6 [0,1], <p(t) est l'exponentielle d'une matrice, donc, inversible. Finalement, <p relie continûment P et Q dans Çen(C), d'où le résultat.
5. Problèmes 203 5. Problèmes PROBLÈME 1. Soit K un corps commutatif, un entier n > 2 et / a b • M = w ••• b \ 6 a / € Af„(K), avec 6^0. a) Déterminer les valeurs propres de M et montrer que M est diagonalisable. b) Lorsque M est inversible, calculer l'inverse de M. c) Pour tout p € N, calculer Mp. Solution, a) La matrice M — (a — b)In n'est constituée que de b, elle est donc de rang 1. Autrement dit dimKer[M — (« — 6)/„] = n — 1, ce qui montre que « — 6 est valeur propre de M et que le sous espace propre correspondant est de dimension n — 1. Le polynôme caractéristique Pm de M s'écrit donc sous la forme PM = (-l)"[X-(a-b)]"-1(X-a), a€K On sait que (n — 1)(« — b) + a = tr M = na, donc a = a + (n — 1)6 ^ a — 6, et a est valeur propre de M. La somme des dimensions des sous espaces propres trouvés est égal à n, ce qui prouve que M est diagonalisable, semblable à ( a-b \ 0 V o a + (n-l)6 / Au passage, si b £ 0, le polynôme minimal de M est ÏIm = [X — (« — b)][X — (a + (n — 1)6)]. b) La matrice M est inversible si et seulement si il n'a aucune valeur propre nulle, autrement dit si et seulement si « — 6 ^ 0 et a + (n — 1)6 ^ 0. Dans ce cas, la relation nM(M) = 0 = M2 - (2« + (n - 2)6)M + (a - 6)(a + (n - l)6)/„ entraîne M[M - (2a + (n - 2)6)/,.] = (6 - «)(a + (n - l)6)/„, donc M-1 = 1 •[(2«+(n-2)6)/„-M]. (« - 6)(« + (n - 1)6) c) On commence par effectuer la division euclidienne de Xp par IIm- On sait que (3D € K[X],3«P,/ÎP € K), *p = nM(X)D(X) + (apX + /?p). Dans cette dernière relation, en donnant à X les valeurs « — b et a + (n — 1)6, on obtient (a-6)p = 0 + «p(«-6) + /?p et [«+ (n - 1)6]p = c*p(« + (n - l)6) + /?p, d'où _ (a + (n - 1)6)p - (a - 6)p _ n6(« - 6)p - (a + (n - 1)6)p(« - 6) + (« - 6)p+' a _ et /jp ■ , nb nb Finalement, on a M" = D(M)HM(M) + a„M + ppIn = cxpM + ppI„. Problème 2. Soit M € Af2(Z) telle qu'il existe un entier n € N* vérifiant M" = J2. Montrer que M12 = I-2.
204 IV. Réductions d'endomorphismes Solution. Regardons M comme une matrice de M-i{€). Par hypothèse, M" — /jj = 0, et donc le polynôme X" — 1 annule M. Ce polynôme n'ayant que des racines simples dans C, M est diagonalisable dans M^C) : 3P€0/a(C), P-lMP=(° l)=D avec o.jJeC Comme M" = h, on a D" = h, donc a" = fi1 = 1. En particulier, |<*| = |/?| = 1 (*). Onac* + /? = tr£> = trMeZ. De (*), on en déduit a + /3 € {-2,-1,0,1,2}. - Si a + /? = 2, de (*) on tire a = /? = 1. De même, si a + /? = -2, a = /? = -1. - Si a + P = 1, un peu de calcul montre grâce à (*) que (0,0) = (6-^8.^8) ou (a,P) = (tF'*te-iw'*). - Si a + P = —1, on a de même («,/*) = (e-W"/8,e2"/8) ou (0,0) = (6^^,6-2^8). - Si<*+/? = 0, on/? = -<*. Orc*/? = detM eZ.doncc*2 e Z, donc d'après (*), a2 € {-1,1}, d'où a 6 {—1,1, —i, i}. Donc (a, /?)€{(-l, 1),(1, -1),(.-, -•■),(-•■,•■)}■ Dans tous les cas, on voit que a12 = fi12 = 1, ce qui prouve que D12 = /„ et donc M12 = /2- Problème 3. Soit E un C-e.v de dimension finie n € N*. 1/ a) Soit / € C{E) tel que Vp, 1 < p < n, tr(/p) = 0. Montrer que / est nilpotente. b) Pour tout u,v 6 £(E), on note [m,u] = mu — vu (crvchet de Lie de u et u). Soient f,g € £(£) tels que [[/,0],/] = 0. Montrer que [f,g] est nilpotente. 2/ Soient f,g € £(£) tels que pour tout p € {1,... , n}, tr(/p) = tr(^). Montrer que / et g ont même polynôme caractéristique. (On pourra utiliser le résultat de la remarque de l'exercice 3 de la partie 4.3 du chapitre II, page 81.) Solution. 1/ a) Il suffit de montrer que toutes les valeurs propres de M sont nulles (voir la remarque 6 de la partie 2.3). Ecrivons le polynôme caractéristique de / sous la forme « Pf = TT(-^ — A,-)™', les Ai étant des nombres complexes distincts. En trigonalisant / dans une base B (on peut car C est algébriquement clos), on s'aperçoit que Vp,l<P<n, '£iaiXV = tv(fP) = 0 «=1 (en effet, les termes de la diagonale principale de [f\pB sont les puissances p-ième des termes de la diagonale principale de [/]b)- Raisonnons par l'absurde et supposons les Aj non tous nuls. Quitte à renuméroter les A,-, on peut supposer que les Ai non nuls sont A^ ... , Ar (avec r < q) de sorte que Vp,l<p<«, ^aiA? = 0. Si M désigne la matrice /A, A2 ... Ar \ A? Ai ... X2 \ aï k ■■■ K ) €Mr(Q,
5. Problèmes 205 "i on a donc Ml I = 0, ce qui entraîne, que M n'est pas injective et donc que detM = 0. Or det M = Ai • ■ ■ Ar 1 1 1 Ai A-2 ■ ■ ■ Ar Aï"' AS"1 = A, •■■A, J] (Ai"A0 (ce dernier déterminant est un Vandermonde). Comme detM = 0 et que les A,- (1 < i < r) sont non nuls, on en déduit qu'il existe i ^ j tels que A,- = Ay, ce qui est absurde car on avait choisis les Aj deux à deux distincts. Les valeurs propres de / sont donc toutes nulles, et donc / est nilpotente. b) La trace d'un crochet de Lie est toujours nulle car si u, v 6 C(E), tr[u, v] = ti(uv — vu) = tc(uv) — tr(vu) = 0. Ceci étant, d'après la question précédente, pour montrer le résultat il suffit de montrer que pour tout p, 1 < p < n, tr([/, </]p) = tr[(/<7 - gf)p] = 0. Fixons un tel entier p. On a (fg -gf)" = (fg -9f)p-l(fa - gf) = (fa - gfY~lfg ~ (fa ~9f)p-lgf, et comme / et (fg — gf) commutent par hypothèse, (fg - gf? = f(fg - gf)p~lg - (fg - gf)p~lgf = [/, (fg - gfTlg]- D'après la remarque précédente, on a donc tr[(/</ — gf)p] = 0, et ceci pour tout p, 1 < p < n, d'où le résultat. 2/ Notons Ai,... , A„ les valeurs propres de / (répétées avec leur ordre de multiplicité). Comme plus haut, on obtient, en trigonalisant/, quetr(/p) = Xp-\ hA^. D'après les formules de Newton (voir l'exercice 3 de la partie 4.3 du chapitre II, page 81), les <rp = J2 %i • • • Xp> polynômes symétriques élémentaires de C[XX,... ,X„], s'expriment en fonction des sommes de Newton Sp = £2?=i Xf (1 ^ P ^ ")■ C*n peut donc exprimer les coefficients du polynôme 11?= i(-^ — -^0 en fonction des SP (1 < P < n). On en déduit que les coefficients du polynôme caractéristique n?=i(-^ — A«) de / s'expriment en fonction des tr(/p) = Y17=i AP (1 £ P < ")• H en est de même pour g, et comme tr^) = tr(jfp) pour 1 < p < n, on a Pf = Pg. PROBLÈME 4 (Endomorphismes de C(E)). Soit E un K-e.v de dimension finie n. Si u,v € C(E), on note Lu € C(C(E)) l'endomorphisme défini sur C(E) pax Lu(f) = u o /, et on note Rv € C(C(E)) celui défini par Rv(f) = f o v. 1/ a) Calculer dim(KerZ„) et dim(Keri?.„) en fonction de dim(Keru) et de dim(Kerv). b) Montrer que « (resp. v) est diagonalisable si et seulement si Lu (resp. i?„) est diago- nalisable. c) Donner les matrices de L„ et Rv dans des bases commodes. 2/ On note A„,v = Lu - Rv € C(C(E)). a) Si u et v sont diagonalisables, montrer que A„iV est diagonalisable. b) On suppose que Pu, le polynôme caractéristique de u, est scindé sur K. Si A„iU est diagonalisable, montrer que u est diagonalisable. Solution. 1/ a) On a / € Ker(L„) •<=*• uo/ = 0 •<=*• Im/CKerw, on en déduit Ker(L„) = C(E,Keiu), d'où dim(KerLu) = ndim(Kerw). Pour Rv, on a / € Ker(iî„) <=> /ot)=0 <=> Im« C Ker/. Si S désigne un supplémentaire de Im» dans E, Ker R,, est donc isomorphe à C(S,E), d'où dimfKeriZv) = ndim5 = n(n — dim(Irnt))) = ndim(Ker v)..
206 IV. Réductions d'endomorphismes b) Si P 6 K[X], on vérifie facilement que P(LU) = Lpru). On a donc l'équivalence P(u) = 0 <É=* V/, P(u) o / = 0 <É=* Z,P(U) = 0 <É=* P{LU) = 0. On en déduit que u et Lu ont même polynôme minimal. Donc d'après le théorème 2 de la partie 2.1, (page 173), u est diagonalisable si et seulement si Lu est diagonalisable. On procède de même pour R„. c) Soit B = (ei,... ,e„) une base de E. On définit la base (e,i;)i<,-;<„ de £(E) Par e»',i(e*) = *;,*e»' (*;',* = 1 si j = fc, = 0 sinon). Ecrivons [u]b = (««,;')i<«',;'<n la matrice de u dans la base B. On a n n « ° ei„j„(ek) = $;■„,* w(e,-„) = 6ia>k ^ai:in e,- = ^«,-,,•„ ei,;n(et), donc Lu(e,j) = J2^=1 «t,,eti;-. Dans la base #i = (ci,i>- • • >en,i; ei,2, ■ • • ,e„i2;-.. ; elt„, ■ ■ ■ ,e„,n), la matrice de Lu s'écrit donc [L«]Bl = I M V M \ M J où M = [u]b- Si on écrit [v]b = (&«',;)i<«,;<n> un cal°ul analogue donne R,(eij) = 5Tt=1 &;,* e,-,*. Ceci entraîne que dans la base B-2 = (cl,l, • • • )el,n',e2,l, • ■ • , e2,n!- ■■ >en,l, • • • ,en,n)i la matrice de R» s'écrit / *N *N [Rv]b2 = 0 \ 0 où N = [v]B. 2/ a) On sait déjà que L„ et R, sont, diagonalisables d'après 1/b). Or V/ € C(E), Lu o R,(f) = u o f o « = R,(u o f) = R, o Lu(f), c'est-à-dire que Lu et Ru commutent. On peut donc les diagonaliser dans une même base, et cette base diagonalise Au,v = Lu — R». b) Comme Pu est scindé sur K, on peut écrire (décomposition de Dunford, voir la partie 4.2) u = d + n, d diagonalisable, n nilpotente, avec no d = don. Pour alléger les notations, on note, pour f€C(E), A}=Ajj. On a Au = Ai + A„. Or il existe p € N* tel que np = 0, ce qui entraîne (A„)p = Anr = 0, c'est-à-dire que An est nilpotent. D'après 2/ a), Ad est diagonalisable. Les endomorphismes d et n commutant, Ld, Rd, Ln et R„ commutent, donc Ad et A„ commutent. Au = Ad + A„ est donc l'unique décomposition de Dunford de Au. Au étant, diagonalisable, on a donc A„ = 0, c'est-à-dire que pour tout / 6 C(E), no f — /on = 0. En d'autres termes, n commute avec tous les éléments de C(E); c'est donc une homothétie. Or n est nilpotente, donc n = 0, et donc u = d est diagonalisable. Remarque. Une conséquence de 1/ a) est que pour tout A, dim(Ker(Z„ - Aid)) = ndim(Ker(u — Aid)). Cette égalité permet également de montrer 1/b). Avec 1/c), on aurait pu démontrer directement 1/a) et 1/b).
5. Problèmes 207 Problème 5 (Résultant de deux polynômes et application). 1/ Résultant de deux polynômes, a) Soient P et Q deux polynômes non constants de C[X]. Montrer que P et Q ont un facteur commun non constant si et seulement si (3A,B€€[X],AjL0,BjL0), AP = BQ avec deg(4) < deg(Q),deg(5) < deg(P). b) Pour tout r e E, on note Tr = {P € €[X] | deg P = r}. Pour tout m,n € N*, montrer qu'il existe une fonction continue R-. rmxr„^c {p,Q)»R[p,Q] vérifiant (P et Q sont premiers entre eux) •<=?• (R[P,Q] zfc 0). 2/ Soit n € N*. On note D l'ensemble des matrices diagonalisables de Af„(C). Quel est 0 / D, l'intérieur de D ? Solution. 1/ a) Condition nécessaire. Supposons l'existence de iî 6 C[X], deg(P) > 1, divisant P et Q. Soient P, et P, e €[X] tels que P = RPX et Q = PQ,. Si ,4 = Qx et fl = P,, on a AP = PPiQi = PQ avec deg(,4) = deg(Qi) < deg(Q) et deg(fl) = deg(P,) < deg(P). Condition suffisante. Supposons que P et Q n'aient aucun facteur commun non constant, c'est-à- dire que P et Q sont premiers entre eux. Si AP = BQ, d'après le théorème de Gauss, on a P | B. Comme B / 0, ceci entraîne deg(fl) > deg(P), ce qui est absurde. b)SoitP = a0 + alX + •■• + «„, Xm ÇTm et Q = bu + h X+ ■ ■ +bn Xn Ç Tn. D'après la question précédente, P et Q ont un facteur premier non constant si et seulement il existe A, B E C[X] non nuls, deg(j4) < deg(Q) et deg(fl) < deg(P) tels que AP = BQ, autrement dit si et seulement si les vecteurs P, XP,... , X"~lP et Q, XQ,... , Xm~lQ forment une famille liée de C[X], c'est-à-dire si et seulement si detB(P, XP,..., Xn~lP, Q,XQ,..., Xm-lQ) = 0, où B désigne la base (l,X,... , xm+"~1) de Cin+n-! [X]. En d'autres termes, P et Q ne sont pas premiers entre eux si et seulement si le déterminant 0 R[P,Q] = «Il 0 0 fcll «1 «Il «1 0 fcn-1 «m «Il bn 0 «m «1 0 0 bo 0 bu bn. 0 bn est nul (ce déterminant est appelé résultant de P et Q). Ainsi définie sur Tm x Tn, R est une fonction continue de P et Q (car polynomiale en les coefficients de P et Q), et vérifie : P et Q sont premiers entre eux si et seulement si R[P, Q] / 0. 0 2/ Un peu d'intuition nous guide. Nous allons montrer que D = T, où T désigne l'ensemble des matrices diagonalisables dont les valeurs propres sont toutes distinctes. 0 Montrons T C D- Soit M 6 T. Dire que MgT équivaut à dire que le polynôme caractéristique Pjif de M n'a que des racines simples, ou encore que Pj/ et P'M sont premiers entre eux, ou encore R[PM,P'M] / 0. L'application ? : Mn(Q - C M ~ R[PM, P'M] est continue. On vient, de voir que T = <p~l(C), et donc T est ouvert (image réciproque d;un 0 ouvert par une fonction continue). Or T C D, donc r C D-
208 IV. Réductions d'endomorphismes Montrons £) C T. Soit M 6 £) et supposons M $.T.La, matrice M est. diagonalisable et admet une valeur propre multiple A, de sorte qu'il existe P g Çf.n(C) telle que / A P~lMP = 0 \ Pour tout entier p > 0, on pose / A Mp = I p A Pour tout p, Mp n'est pas diagonalisable, sinon la restriction ( n ? ) de Mp aux deux premiers vecteurs de la base canonique de C" serait, diagonalisable, absurde car alors cette matrice serait semblable à A/2, donc égale à A/2- Or M = lim;,_+no PMVP~X, donc M est limite d'une suite de 0 matrices n'appartenant pas à D, donc M ¢. D- Ceci est absurde, et on a donc avoir M ÇT. D'où le résultat. Remarque. On peut montrer (voir la démonstration de l'exercice 1 de la partie 3.4) que T est dense dans M„(C). Problème 6 (Rayon spectral d'un endomorphisme continu). Soit E une algèbre de Banach sur C, munie d'une norme d'algèbre || • ||. 1/ Soit u € E, u ^ 0. Pour tout n € N% on note Un = ||w"||1/n. a) Soit m € N* fixé. Prouver que Ve > 0, 3N € N, Vn >N,Un< Um(l + e). b) En déduire que p(u) = lim„_+00 Un existe, et que p(u) = inf{?7„, n € N*}. c) Pour tout u,v € E, montrer que />(uw) = p(iyu). 2/ Soit J2anz" «ne série entière de rayon de convergence R € ]0,+oo]. Soit u € E. Si p(u) < R, montrer que ^a„w" converge dans E. Si p(u) > R, montrer que ^anun diverge. 3/ On considère ici le cas particulier où E = Mn(C). Soit A € Mn(C). Montrer que p(A) = sup{|A|, A valeur propre de A}. (Indication. On pourra utiliser le résultat a) de l'exercice 4 de la partie 3.4.) Solution. 1/ a) Pour tout n Ç N*, on considère n = q(n)m + r(n), 0 < r(n) < m, la division euclidienne de n par m. On a Vn € N*,U„ = \\u"\\^n = ||h»(">" • «r("'|| < ||«m||»("'/" • ||u|r(")/n. (*) Pour tout n, \r(n)\ < m donc lim„_+oo r(n)/n = 0 et lim„_+00 q(n)/n = 1/m. Le terme de droite de (*) tend donc, vers U,„ lorsque, n tend vejs l'infini, d'où a).
5. Problèmes 209 b) Soit / = inf{î/„, n € N»}. Soit e > 0. Par définition de /, il existe m e N* tel que î/m < / + e. D'après a), 3N e N, Vn > MN, U„ < Um(l + e)<(£ + e)(l + e) donc Vn>N, f. < U„ < (i + e)(l + e). On en déduit que lim„_+00 U„ = l, d'où le résultat. c) Si « = 0 ou v = 0, c'est évident. Sinon, l'égalité (uv)" = u(vu)"~lv entraîne ||(ti»)"||1/B = Heu)"-1»!!1'" < Htill'^lKH"-1!!1'"!!»!!1'"- (**) Or lim ||u||1/n= lim \\v\\1,n = l et lim IKt/w)""1 M1/" = lim (lirtm)"-1!!17*"-0)*"-07" = n-f+oo n—*+oo n—»+oo n—»+oo p(t)«). En faisant tendre n vers l'infini dans (**), on obtient donc. p(uv) < p(vu). Par symétrie, on a de même p(vu) < p(uv), d'où l'égalité recherchée. 2/Supposons p(u) < R. Nous allons montrer que £^ l"n| • llu||" converge, ce qui entraînera que la suite (Y^,k=o a* "*%eN* est de Cauchy donc converge. Soit n g E tel que p(u) < p. < R. Comme R est la rayon de convergence de la série entière 2„a„ z", Y2 l"n|/<" converge (voir le tome d'analyse sur les séries entières). Or il existe N 6 N*, tel que pour tout n> N, \\u"\\l/n < /j, et donc. ||«"|| < /i". On en déduit que £„>Ar \an\ \\un\\ converge et donc 5T„gm |«n| ||«"|| converge. Supposons maintenant p(u) > R. Alors la suite (|«„| p(u)n) n'est pas bornée. D'après 1/ b),p(u) = inflHu"!!1/"} donc pour tout n, ||u"|| > p(u)" et donc la suite (|«„| ||«"||) n'est pas bornée, ce qui entraîne la divergence de la série £^ rtn ""• 3/ Notons /i(A) = sup{|A|, A valeur propre de A). Remarquons ici que p(A) ne dépend pas de la norme d'algèbre choisie sur M„(<C) (en effet, en dimension finie, les normes sont équivalentes et pour tout x > 0, limp_+00 xllp = 1). Toute l'astuce va consister en le choix d'une bonne norme d'algèbre pour montrer notre résultat. Soit e > 0. Montrons qu'il existe une norme d'algèbre || • || sur M„(C) telle que \\A\\ < /i(A) + £. Munissons C" de la norme ||(xi,... , zn)||oo = sup,- \x(\. Pour tout M = ("i«,;)i<«,;<n € M„(C), ||M||oo = supiixii =1 IIMXUno défini une norme d'algèbre sur Mn(C). Un petit calcul donne d'ailleurs facilement, iimiu = sup(j3 \mi,j\y (***) i D'après la question a) de l'exercice 4 de la partie 3.4, il existe P. 6 Çf.n(C) telle que P~lAP = T = (Uj) soit triangulaire supérieure et vérifie V« < j, |i,-;| < e/n. Munissons M„(C) de la norme d'algèbre ||jtf|| = WP^MPW^. De (***), on tire facilement ||,4|| = \\TWn < sup,- \ti:i\ + e. Les iM étant les valeurs propres de T donc, de A, ceci s'écrit aussi \\A\\ < n(A) + e. Donc p{A) = {inf \\A"\\1/", p € W} < \\A\\ < n(A) + e. La matrice T = (Uj) étant triangulaire supérieure, les coefficients de la diagonale principale de la matrice Tp sont les iP,- et donc d'après (***), pour tout p, \\ap\\ = P*IU> sup MP = /'W> « ce qui s'écrit aussi ||J4p||I/p > (i(A). En faisant tendre p vers l'infini, on obtient p(^4) > (i(A). Finalement, on a montré que n(A) < p(A) < n(A) + e, et ceci pour tout e > 0, d'où l'égalité recherchée. Remarque. Les résultats de 1/ et 2/ restent vrais sur l'algèbre des endomorphismes continus CC(E) sur un espace de Banach E (on sait, en effet que CC(E) est une algèbre de Banach). On a ainsi généralisé le résultat du théorème 3 de la partie 3.3.
210 IV. Réductions d'endomorphismes Problème 7. Soit E un C-e.v de dimension finie n > 2. Soit A une sous algèbre de £(£), unitaire, (i. e. IdB € A) et transitive (i. e. les seuls s.e.v de E stables par tous les éléments de A sont {0} et E). a) Soit x € E, x r^ 0. Montrer que {u(x), u € A} = E. b) Soit u € A, rgu > 2. Montrer qu'il existe v € .4 tel que uvu et u forment une famille libre. c) Montrer qu'il existe A € C et z € Im u, z jt 0, tels que uv(z) = Xz. d) Montrer que A contient au moins un élément de rang 1. e) Conclure. Solution, a) On pose Fx = {u(x), u ç A}. Une sous algèbre est un s.e.v de C(E)t donc A est un s.e.v de C(E). On en déduit que Fx est un s.e.v de E. Pour tout v 6 A, v(Fx) = {vu(x), u Ç A) C Fx. En d'autres termes, Fx est stable par tous les éléments de C(E). Or Fx / {0} puisque r, e Fx (l'algèbre A est unitaire), et donc Fx = E. b) Comme rg u > 2, il existe deux vecteurs e\, e2 de E tels que u(ei) et u(e2) forment une famille libre. En particulier, u(e\) / 0 donc d'après a), il existe v 6 A tel que «[«(e!)] = e?. La famille formée par uvu et u est donc libre car l'égalité A(ut>u) + fiu = 0 entraîne A(ut>u)(ei) + ^"(^î) = 0 = Au(e2) + /iu(ei), et donc A = /i = 0 puisque par construction, la famille u(ex)t u(e2) est libre, c) Le corps C est algébriquement clos et E est de dimension finie, l'endomorphisme uv admet donc au moins une valeur propre A. On traite deux cas. Premier cas : l'endomorphisme uv admet au moins une valeur propre A ^ 0 associé à un vecteur propre z / 0. Alors z = ^uv(z) g Imu et le résultat est montré. Second cas : toutes les valeurs propres de uv sont nulles, uv est alors nilpotent. Soit r 6 N* tel que (uv)r = 0 et (uv)r-1 / 0. Soit z e Im(ui;)r-1, z / 0. Alors uv(z) = 0 car uv(z) € Im(ut>)r = {0}. Or r > 2 car d'après b), uv / 0. Donc z 6 Im(u«)r_1 C Imu. En résumé, on a trouvé z g Im«, z / 0, tel que uv(z) = 0. d) L'algèbre A étant unitaire, il existe u £ A tel que rg u > 2. On a alors trouvé v 6 A, v / 0 tel que uvu et u forment une famille libre, et tel que (3z elmu, z/0,3AeC), uv(z) = \z. Posons w = uvu — Au. On a w 6 A car A est une algèbre. On a w / 0 d'après b). On a Ker u C Ker w car w = (uv — A Id) o u, et par ailleurs si y £ E est tel que z = u(y), on a w(y) = uv(z) — Xz = 0. L'inclusion Ker u C Ker tu est donc stricte, car y £ Keru et y 6 Keru>. Donc dim(Ker u) < dim(Ker w), et on conclue avec le théorème du rang que rg w < rg u. Autrement dit, pour tout u g A, rg u > 2, il existe w £ A, l<rgti/<rgu—1. Ceci suffit pour conclure que A contient au moins un élément de rang 1. e) On va montrer que A = C(E). Pour cela, il suffit de montrer que A contient tous les éléments de C(E) de rang 1. Le lemme suivant nous sera utile. Lemme Soit u 6 C(E), rgu = 1. Alors il existe a e E, a / 0, et il existe ip 6 E* (dual de E), <p / 0, tels que Va; € E, u(x) = <p(x) • a. En effet. Soit a Ç E tel que Imu = Vecta. Pour tout x Ç E, u(x) 6 Imu donc il existe <p(x) Ç C tel que u(x) = <p(x) ■ a. La linéarité de u entraîne la linéarité de x *->■ <p(x). Autrement dit, ip est une application linéaire de E dans C, c'est-à-dire ip Ç E'. Ceci étant, la question précédente cissure l'existence de uu € A tel que rg u0 = 1. D'après notre lemme, il existe « 6 E, a / 0 et <p 6 E*, <p / 0, tels que u0 = ip ■ a. Soit v 6 C(E) un autre élément de rang 1. On veut montrer v 6 A. Ecrivons v = i> • b, où b 6 E et i/j 6 E*. On a a / 0 donc d'après a), il existe w 6 A tel que w(a) = b. Considérons G = {ip o u, u ç A}, s.e.v de E*. Soit x appartenant à l'orthogonal G" de G. Pour tout u g A, ((p o u)(z) = 0 donc pour tout u g A, u(x) 6 Ker^. En d'autres termes,
5. Problèmes 211 Fx = {u(x),u 6 A) C Ker^ / E1. D'après a), on doit donc avoir x = 0. Finalement, G0 = {0} et dcmcG=£'*. 11 existe donc t Ç A tel que ip o t = i/j. Alors pour tout x £ E, (wu0t)(x) = w[(ip o t)(x)a] = il>(x)w(a) = i{>(x)b = v(x), donc v = um(i< 6 A. L'ensemble A contient donc tous les éléments de rang 1. Ceci suffit pour conclure que A = C(E) (on montre en effet facilement que tout endomor- phisme est somme d'endomorphismes de rang 1). PROBLÈME 8. Soit E un C-e.v de dimension n € N", G un sous groupe fini de Çf-(E). Soit F = {x € E | Vff € G,g(x) = x}. Si q = Card(G), montrer q -dirn F =£>(</). Solution. Comme G est un groupe, pour tout h Ç G, l'application G —* G g t-> hog est bijective. Ceci entraîne v/ieG, ^ = ^bSl «eG jgG ce qui en posant / = J2QpG g s'écrit / = h o f, et ceci pour tout h Ç G. On a donc 9f=T,f=T,hof=(T,h^°f=f2- AeG /ieG /ieG Le polynôme X(X — q) annule donc l'endomorphisme /. On en déduit que / est diagonalisable et que ses valeurs propres sont éléments de {0,g}. Si Eq désigne le sous espace propre de / associé à la valeur propre q, on a alors qdimEq = tr/ = 52,gc tr</. L'exercice sera donc résolu si on prouve Eq = F. On a déjà F C Eq. En effet, VieF,Vs€G,s(i) = i donc f(x) = ^ g(x) = ^ x = qx. 9€G g€G L'inclusion réciproque est également vraie. En effet, si x Ç Eq et g g G, g o f(x) = g(qx) = qg(x). Or go f = f, donc (g o f)(x) = f(x) = qx, ce qui entraîne qg(x) = qx, et donc x Ç F, d'où le résultat. PROBLÈME 9. Soit E un C-e.v de dimension quelconque, et u,v € £(i?) vérifiant uw — vu = aldE, a € C a) Si E est de dimension finie, montrer a = 0. b) Si £ est norme et u et v continus, montrer a = 0. c) Si v admet un polynôme minimal, montrer a = 0. d) Exhiber deux endomorphismes u et v vérifiant uw — vu = Id^. Solution, a) Si ut> — «u = ald^, alors t,r(uv — vu) = <*tr(Id£;) = adirn/?. Or tr(ut> — vu) = ir(uv) — ti(vu) = 0, donc a dimE = 0, ce qui entraîne a = 0. b) Une récurrence facile donne la propriété VfceN*, «»*-«*«= kaldE. (*) Ceci étant, soit || ■ || la norme d'algèbre sur Cr,(E) issue de la norme sur E (\\u\\ = supi^n-! ||u(z)||). D'après (*), on a V* € N*, *|a| ||»*->|| < \\uvk\\ + ||V'u|| < 2||«|| ■ Hv'ii
212 IV. Réductions d'endomorphismes et donc V* e N*. fc|a| ■ ||»*|| < k\a\ ■ \\vk-l\\ ■ \\v\\ < 2||«|| • \\v\\ ■ \\vk\\. (**) Si pour tout k, vk / 0 alors (**) entraîne que pour tout k, k\a\ < 2\\u\\ ■ \\v\\, ce qui n'est possible que si a = 0. Sinon, il existe iir 6 N* tel que vk = 0 et vk~l / 0. La relation (*) entraîne alors ka = 0, donc <*=0. c) Soit P le polynôme minimal de v. Par linéarité, la relation (*) entraîne 0 = uP(v) - P(v)u = aP'(v). Or P'(v) / 0 car P est le polynôme minimal de v. Donc ex = 0. d) Les questions précédentes montrent déjà que l'on doit se placer en dimension infinie et considérer des endomorphismes non continus et n'admettant pas de polynôme minimal. On choisit u et v e C(€[X]) définis par u(P) = P' et v(P) = XP. Alors pour tout P e €[X], (uv - vu)(P) = u(XP) - v(P') = (P + XP') - XP' = P, donc uv — vu = Hqx] . Remarque. Il n'y a aucune relation entre la continuité et le fait d'admettre un polynôme minimal. Munissons par exemple R[X] de la norme || £2*=:(ia* xk\\ = siip*. \ak\. L'endomorphisme v de U[X] défini sur la base canonique de R[X] par v(X") = X"/(n + 1) est continu mais il admet une infinité de valeurs propres, donc pas de polynôme minimal. L'endomorphisme v de R[X] défini par v(X2n) = nX2n+1 et v(X2n+1) = 0 n'est pas continu mais admet un polynôme minimal car v2 = 0. PROBLÈME 10. Soit K un corps commutatif et E un K e.v de dimension n > 2. Soient u, v 6 C(E) et w = uv — vu tel que rg(w) =1. a) Soit x 6 Im w. Montrer que pour tout fcçN, uk(x) € Kerw. b) En déduire que le polynôme caractéristique Pu de u n'est pas irréductible dans K[A"]. Solution, a) Commençons par remarquer que w est nilpotent (ceci découle de l'exercice 2 de la partie 1.6, page 168, car rg(ti;) = 1 et tr(tu) = ti(uv) — tr(vu) = 0). Ceci étant, soit k 6 N. On a wuk = u(vuk) — (vuk)u donc tr(ti;u*) = 0. Si wuk = 0, alors wuk(x) = 0, c'est-à-dire uk(x) 6 Kerw. Sinon, rg(wu*) > 1. Or Im(um*) C Imin, donc rg(ttm*) < 1. On a donc rg(um*) = 1, de sorte que comme tr(um*) = 0, wuk est nilpotente. Comme x glmw, que wuk(x) Ç Imw et que dim(Imt«) = 1, on voit que x est, vecteur propre de wuk. L'endomorphisme wuk étant nilpotent, on en déduit que wuk(x) = 0, i. e. uk(x) 6 Ker w. b) Soit x e Imu/, x / 0. Soit F = {uk(x), k e N}. Le. s.e.v G = Vec.tF est stable par u. Comme i / 0, on a même G / {0}. Par ailleurs, d'après a), on a G C Ker w. On en déduit 1 < dimG' < dimKerip = n— rgw=n— 1. Soit (ex,... , ep) une base de G complétée, en une base (ex,... , e„) de E. On a Mb =(* Bc J , Ae MP(K), C e Mn-P(K), donc Pu = Pj\ ■ Pc n'est pas irréductible dans M[X].
5. Problèmes 213 Problème 11. Soient A et B € Mn(C). Montrer que (3PeA<„(C),P5éO), AP = PB si et seulement si .4 et B ont au moins une valeur propre commune. Solution. Avant de commencer, remarquons que si P est inversible, AP = PB s'écrit P~lAP — B, donc A et, B sont semblables et le résultat est évident. Le cas général est plus délicat. Condition nécessaire. Donnons deux méthodes. Première méthode. Par récurrence sur iir € N, on a facilement AkP = PBk, donc pour tout polynôme F € C[X], F(A)P = PF(B). (*) Ceci étant, supposons que A et B n'ont aucune valeur propre commune. Alors les polynômes caractéristiques PA et Pb de A et B n'ont aucune racine commune dans C et sont donc premiers entre eux. D'après le théorème de Bezout, il existe donc U, V 6 €[X] tels que UPa + VPb = 1. On a alors U(B)PA(B) = I„, et donc PA{B) est inversible. Or PA{A)P = P PA{B) d'après (*), donc P PA(B) = 0, et. comme PA(B) est inversible, ceci entraîne P = 0. Absurde, d'où la condition nécessaire. Seconde méthode. Soit (e\ e„) une base de. C qui triangularise la matrice B. Pour tout «', on a Se,- = Aj-e,- + ^2j<t bije.j. Soit i le plus petit indice tel que Pe,- / 0 (i existe, sinon P = 0). Alors APe{ = PBe{ = P I A,e, + ^6,je;- j = A,Pe,, donc A,- est valeur propre de A (un vecteur propre associé est Pe,), donc, valeur propre commune à A et B. Condition suffisante. Trigonalisons A supérieurement et B inférieurement, en supposant que AçC est valeur propre commune à A et B : il existe. Pi, P2 6 Ç£n(C) tels que T=P{-lAPi = (x 0 ^ o X X ... ... ._ 0 x \ X x ) et S=P~lBP2 = (x X l x 0 X ... ... .. X 0 \ 0 x } si y = 0 0 0 , on a TY = XY et. YS = XY. Avec. P = P17P2"1 / 0, on a donc \ 0 0 .. 0 / AP = AP1yP2"1 = PB. Problème 12. Soit 7; un nombre premier. On considère la matrice / «n A = a„- p-i "p-1 \ ap-2 «p-i «n \ «1 a„- ;p-i a« / avec pour tout i, a{ ç Z. Montrer que det A = a„ + «, + 1- ap_, (mod p).
214 IV. Réductions d'endomorphismes Solution. Cela ressemble à l'exercice 4 de la partie 2.4 (page 178). On commence de la même manière. Soit /01 0 ••• 0 \ 0 0 1 '•• : J= :' i '•. '•• 0 0 : ■'. 1 \10 0 / On avait montré à l'exercice 4 de la partie 2.4 que le polynôme caractéristique de J est Pj = (-I)p(Xp - 1). On a aussi A = Q{J), où Q = a0 + a, X + ■ ■ ■ + ap-XXp-1 € Z[X]. Regardons A et J comme des matrices à valeurs dans Z/pZ. Dans Z/pZ, Pj = (-I)p(Xp - i) = (-l)p(X - i)p. Comme A = Q(J), on a alors Pa = (—l)p[X — Q(l)]p (pour s'en rendre compte, trigonaliser J dans jMp(Z/pZ) — voir la remarque 1 de la partie 2.1, page 172), donc det A = Q(l)p = Q(l) = a0+ •+ap-i (modp). Problème 13. Le polynôme caractéristique PA d'une matrice A € Mn(C) peut s'écrire PA = (-1)" (Xn + h{A)Xn-x + ■■■ + fn-X(A)X + fn(A)) , où les fi(A) sont des polynômes en les coefficients de A. a) Montrer que pour toutes matrices A,B € Mn(C), on a fi(AB) = fi(BA) pour tout i. b) Réciproquement, soit Q : Mn(C) —► C A = («i,j)i<i,j<n •-> Q{A) une fonction polynôme en les coefficients a,j de A. Si pour toutes matrices A, B € Af„(C), on a Q(AB) = Q(BA), montrer qu'il existe un polynôme F € CfX,,... ,Xn] tel que VA € Af„(0, Q(A) = F(MA),...,fn(A)). Solution, a) Il s'agit de prouver que Pab = Pba pour tous A, B Ç M„(C), ce qui est précisément le résultat démontré dans l'exercice 2 de la partie 3.4 (page 184). b) C'est plus délicat. Commençons par noter que deux matrices semblables prennent la même valeur par Q (si B = P~lAP avec P € G4(Q, on a Q(B) = Q((P~lA)P) = Q(P(P-lA)) = Q(A)). Cette remarque va nous permettre de traiter aisément le cas des matrices diagonalisables, puis de toutes les matrices par densité (les matrices diagonalisables forment un ensemble dense dans jM„(C), voir l'exercice 1 de la partie 3.4, page 184). Pour tout n-uplet (Ai,... , A„) de C, on note D{\\,... , A„) la matrice diagonale dont le coefficient d'indice (j, «') est A,-. L'application V —»■ C (A1(... , A„) »-► Q(D(X\,... ,A„)) est une fonction polynôme en les A,- que l'on note II. Supposons maintenant A diagonalisable et notons Xi,... , A„ ses valeurs propres. Pour toute permutation <r 6 S„, A est semblable à la matrice diagonale Âa = D(\a(\),... ,Xa(n)), ce qui prouve que Q{A) = Q{Aa) = II(Aff(1),... , Aff(n)). Ceci étant vrai pour tout <r ç Sn et pour toute matrice diagonalisable A, on en déduit que II est un polynôme symétrique en ses n variables. On peut donc l'écrire comme un polynôme F en les polynômes symétriques élémentaires Ei,... , En (voir le théorème 1 de la partie 4.2 du chapitre H, page 78). On sait que la valeur <r,- prise par £,• au point (A!,... ,A„) est (—l)'<a,- où a,- est le coefficient de X* dans le polynôme nr=i(-^ — ^»)- Ce dernier polynôme étant égal à (—1)"Pa, on en déduit que <r,- = (—l)*/,-(A). Finalement, Q(A) = F(<ru ... ,<r„) = F{-h{A),... ,(-l)nfn(A)). (*) Cette égalité est vraie pour toute matrice diagonalisable A. Les matrices diagonalisables formant un ensemble dense dans Mn(C), les applications de l'égalité (*) étant des fonctions continues de A (ce sont des fonctions polynôme), on en déduit (pie (*) est vrai pour toute matrice A de Mn(C).
5. Problèmes 215 Problème 14 (Dérivée d'un déterminant, algorithme de Faddéev). Le but du problème est de proposer une méthode pratique efficace pour calculer le polynôme caractéristique d'une matrice. 1/ (Dérivée d'un déterminant). On considère A : R - Af„(») t w A(t) = (a,-,;(0)i<.-,i<n une application dérivable sur M. Montrer que l'application ip : 11-> det( A(t)) est dérivable sur E et que ip'it) = f>t(c,(o,..., Ci_,(«), ci(t), c,+1(0, • • •, c„(0), «=i où Ci(f),... , C„(<) désignent les vecteurs colonne de la matrice A(t). 2/ (Méthode de Faddéev pour le calcul du polynôme caractéristique d'une matrice). Soient K un corps commutatif et une matrice A € M„(K). On note Xa = det(A"J„ — A). a) Montrer que x'a = tr[com(Jf/„ — A)] où com(XIn — A) désigne la comatrice de XIn — A. b) On définit des matrices Bu,... , 5„_i € Af„(K) par B0 = J„ et Vfc, 1 < k < n - 1, Bk = ABk_x - tr^f*"^J„. k Montrer Xa(X) = X"- ti(AB0)X"-> - '-^ÏX^ M^n-,)] 2 n et si ^4 est inversible, A — 1 tr(AB„_i) Solution. 1/ L'expression <?(<) = detA(i) = £ ^00^0).1(0 -""(^."(O montre que ip est dérivable et permet d'obtenir, par dérivation, M) = J2 m 2_, w»(l),l(0 • • ' »<r(*-l).*-l(0 «^(t),*^) «<r(ifc + l),ifc+l(0 • • • «*(*),,.(<) <rgS„ Lfc = l ce qui, en échangeant l'ordre des signes sommes, est précisément le résultat, demandé. 2/a) Le résultat de la question 1/ reste valable pour les polynômes dérivés (la démonstration peut être reprise telle quelle). En l'appliquant au polynôme dérivé de Xa(X) = det(XI„ — A), on s'aperçoit que x'a{X) est la somme des cofacteurs des éléments diagonaux de XIn —A, autrement dit x'a(X) = tr[com(X/„ - A)]. b) Ecrivons xa = Xn + <lx Xn~l H 1- an-\ X + an. Chaque cofacteur de la matrice XIn — A est un polynôme en X de degré au plus n — 1, ce qui montre l'existence de matrices fl0, • • • , fln-i telles que 'com(X/„ -A) = Ba Xn~l + Bx Xn~2 + ■■■ + Bn_x. L'égalité x'a = tr[com(.X7„ — A)] = tr[*com(.X7„ — A)] entraîne (n - l)rtl = tr(fl,),... , 1 • «„_! = tr(fl„_i). (*) Ceci étant, la relation (XI„ — A)*com(XI„ — A) = det(XIn — A)In s'écrit B0 X" + (fl, - ABH)X"-X + ... + (fl„_! - ABn-2)X - ABn_x = Xa(X) /„, ce qui en identifiant les coefficients donne fl(i = In,Bi - AB„ = ailn,... ,fl„_i- AB„_2 = an-\In, -ABn-i = «„/„, (**)
216 IV. Réductions d'endomorphismes donc, en prenant la trace nai = ti(Bi) - tT(AB0),... ,na„_i = tr(fl„_i -ABn-2),nan = -tr(AB„_i). En retranchant à chacune de ces égalités celles de (*), on obtient l«i = -tr(ABo),... ,(n- l)a„_i = - tr(AB„_2),na„ = -tr(AB„_i). (***) Maintenant, (**) s'écrit R -T R-AR tl(ABo^ T R -AR to(^"-») j tfo — ln, t>\ = AtlQ 7„, . . . , tfn-ï — At>n-Ï ; ln- 1 n — 1 relations qui permettent de définir les matrices Bk par récurrence, et on obtient avec (***) la première partie du résultat. Lorsque A est inversible, la dernière égalité de (**) entraîne rt„ tr(AB„_i) Remarque. Cet algorithme permet en particulier d'obtenir le déterminant (—l)"a„ de A. C'est une méthode beaucoup plus rapide que celle consistant à calculer det A en développant récursivement les déterminants par rapport à une ligne ou une colonne, technique qui demande d'effectuer n! opérations (ce qui est très coûteux lorsque n est grand). PROBLÈME 15. 1/ Soit n G N* et il le sous ensemble de Af„(IR) des matrices M telles que Iljtf (polynôme minimal de M) égale, au signe près, Pm (le polynôme caractéristique de M). Montrer que il est ouvert dans Af„(IR). 2/ Soit M G il et (Mm)mgN une suite de matrices de Af„(IR) tendant vers M telle que pour tout m, Mm est diagonalisable dans Af„(E). a) Montrer qu'il existe f. G N tel que pour tout m > f., Mm a n valeurs propres distinctes deux à deux. b) Montrer qu'il existe K > 0 tel que pour tout m et pour toute valeur propre A de Mm, |A| < K. c) Pour tout m > f., on note A^m) < • • • < A„(m) les n valeurs propres de Mm. Pour tout i G {1,... , n} montrer que A,- = limm_OC) A,-(m) existe. Montrer également que A! < • • • < A„ et que PM = (-1)"(X - A,) • • -(X - A„). Solution. 1/ Dire que Um = (—1)".Pa/ équivaut, à dire que deg IIm = n (car Um divise Pm), ou encore que (/„, M,..., M"-1) forme une famille libre de Mn(M.). Soit, M 6 Q. La famille (7„,M,... ,M"_1) étant, libre, on peut la compléter en une base fl(l = (/„, M,... , M"-1, £„+,,... , En*) de Mn(R). Soit fl une base fixée de Af„(R). On définit l'application ip: À<„(M)^M Ar^det,B(/„,Ar,...,AT"-1,£;„+1,...,£;„3). L'application <p est continue et par construction, <p(M) / 0. Il existe donc, un voisinage V de M dans Afn(R) tel que pour tout, N € V, ip(N) / 0. Ceci entraîne que pour tout N € V, (/„, N,... , AT"-1) forme une famille libre de Mn(Ë.), et donc. 7Cfi. L'ensemble Q est donc, ouvert. 2/ a) On a M 6 fi et M est la limite de la suite (Mm). Comme fi est, ouvert, il existe / 6 N tel que pour tout, m > /, Mm € fi. Pour tout m, Mm est. diagonalisable dans Mn(M.) et, ÏÏMm est donc, scindé sur E, à racines toutes simples. Or pour m > /, deg IiAflrl = n, IIa/t„ a donc n racines distinctes qui sont les valeurs propres de Mm, d'où le résultat. b) Soit. ||. || une norme d'algèbre sur M„(M.). La suite (Mm)mgN converge donc est bornée, ». e. il existe K > 0 tel que pour tout, m 6 N, ||Mm|| < À'. D'après la proposition 1 de la partie 3.2, pour tout m 6 N et pour toute valeur propre A de Afm, on a |A| < ||Mm|| <Ç K.
5. Problèmes 217 c) Montrons d'abord que Pm est scindé sur E. La suite (X(m))m>t = [(Ai(m),... , Xn(m))]m>t prend ses valeurs dans le compact [—K, K]n. On peut donc, en extraire une sous suite convergente A(^(m))mgN. Soit A = (Ai,... , A„) = lim„_oo X{<p(n)). Pour tout m, PMv(m) = (-irf[[X-Xi(<p(m))} »=i donc Pm = limm_oo ^Wv(m) = (—1)" n"=1(-^ — ^«) est scindé sur E. Comme pour tout m, Ai(y>(m)) < • • • < X„(<p(m)), on obtient en passant à la limite Xx < ■ ■ ■ < A„. Montrons maintenant que la suite (A(m))m>< converge. Cette suite étant à valeur dans un compact, il suffit de montrer qu'elle n'admet qu'une seule valeur d'adhérence. Soit ^ = ((ilt,.. ,/i„) une valeur d'adhérence de (A(m))m>/. Il existe une sous suite (A(V>(m)) convergeant vers /i. On a Pi < • • ' < /'n et n pM = lim pM = (-1)" T[(x - m). t = l Des relations n n Y[(X - A,) = Y[(X - m), A, < • • • < A„ et tu < ■ ■ ■ < /i„, « = 1 i=l on tire ^ = X\,... ,/*„ = A„, «'. c. A = /j. L'élément A est donc, la seule valeur d'adhérence de (A(m))m><, donc, cette suite étant à valeur dans un compact, elle converge vers A. Pour tout », on a donc. Ai = lim„_OC) A,-(m) et on a vu que Pm = (—1)" 11^=1(-^ — ^«')> d'01'1 le résultat. Remarque. La méthode utilisée tout au long de 2/ est à retenir. On procède souvent ainsi lorsqu'un polynôme est limite d'une suite de polynômes. Problème ^6. Soit n e N* et T = {M e Mn(C) | 3p e N*,M? = /„}. Déterminer l'adhérence T de T dans Mn{C). Solution. Notons 7 = {M 6 Mn{€), pour toute valeur propre A de M, |A| = 1}. Nous allons montrer que T = 7. On aT C 7. En effet, soit M 6 T. On peut trouver une suite (Mp)pgp) de V telle que limp_oo Mp = M. Pour tout p, il existe g 6 N* tel que M' = /„, i. e. le polynôme X1 — 1 annule Mp. Toute valeur propre de Mp est donc, racine de ce polynôme, donc de module 1. Pour tout p, on note ^i(p)>- • ■ >^n(p) les racines de Pmp (polynôme caractéristique de Mp). Pour tout », on a vu que \\i(p)\ = 1, la suite A(p) = (Ai(p),... ,A„(p)) est, donc à valeurs dans le compact C", où C désigne le cercle unité complexe. On peut donc en extraire une 'sous suite convergente A(^>(p)) convergeant vers A = (A!,... , A„) 6 Cn. Pour tout », on a |A,| = linip-.oc |Aj(p)| = 1, et comme M = limp_oo M^p), n n PM = pHm PMrM = ton ]\[X - \i(<p(p))) = ("1)" J[(X ~ M- «=1 «=1 les valeurs propres de M sont donc, les Ai et ont leur module égal à 1. Donc. M € 7. Montrons maintenant l'inclusion réciproque 7 c T. Soit M 6 7. Il existe une matrice Q 6 £/„(C) telle que / Xi x ■■■ x \ Q~lMQ = 0 A2 •• : : '•• '•• x \ 0 ••• 0 A„ /
218 IV. Réductions d'endomorphismes Mp = Pour tout », A,- est valeur propre de M donc |A,-| = 1 car M € 7. En réfléchissant un peu, on voit qu'il existe une suite Ap = (Ai(p),... , A„(p)) de C vérifiant, pour tout pgN : — Pour tout j, il existe r € Q tel que Xj = exp(«7rr). — Les (Ai(p))i<i<„ sont distincts deux à deux. — Pour tout », limp_oo A,-(p) = A,-. Pour tout p, on pose ( A,(p) x ••• x \ 0 A2(p) •. x V 0 ... 0 A„(P) / (où la partie triangulaire supérieure est celle de Q~lMQ). Les A,-(p)i<,-<„ étant distincts, Mp est diagonalisable, donc semblable à la matrice diagonale Dp dont les éléments diagonaux sont ceux de Mp. Pour tout j, 1 < j < n, on peut écrire Aj(p) = exp(«Vrtj/bj) où Uj,bj 6 Z. Si q = 2 • ppcm(&!,... ,&„), on a Aj(p)» = 1 pour tout j, donc D* = /„, donc M* = /„, c'est- à-dire pour tout p, Mp 6 T. Or par construction, M = limp_oo QMpQ~l. Comme pour tout p, QMpQ'1 € T, on en déduit M € T. Problème 17 (Matrices positives de Frobenius). Si A = (at|J) e MPt,(R) est une matrice, on note A > 0 si a,j > 0 pour tout (t,j), A > 0 si A > 0 et A ^ 0, et on note A » 0 si a; j > 0 pour tout (*,j). Si i4 et 5 sont deux matrices, on note A > B (resp. A > B, A > B) lorsque ,4 - 5 > 0 (resp. A - B > 0, A - B » 0). On se donne une matrice A G Af„(IR) telle que i4 » 0. a) On note S l'ensemble des vecteurs colonnes X = I : J de E" tels que X > 0 et S"=i ^i = 1. Montrer que l'ensemble A = {A e E | (3X € S), AX > XX} est majoré et que sa borne supérieure A() est une valeur propre de A associée à un vecteur propre X > 0. b) Si A ^ A0 est une autre valeur propre de A, montrer que |A| < A0. c) Montrer que le sous espace propre E\„ de A associé à la valeur propre A„ est de dimension 1. Solution, a) L'ensemble A est évidemment majoré (par exemple par la somme des éléments de ,4). Par définition de An, il existe une suite (X„) de 5 et (yn) de A telle que lim 7„ = A„ et Vn, AXn >jnXn. n—*oo L'ensemble S est clairement un fermé borné de E", donc compact, de sorte que l'on peut extraire de la suite (X„) une sous suite convergente (Xv(„)). Notons X 6 S sa limite. Comme AX^ny > 7v>(n)-^v>(") Pour tout n, on obtient en passant à la limite sur chaque composante la relation AX > X0X. Si AX / XUX, on a AX > Xt,X. En composant par A à gauche, on obtient, du fait que A » 0, l'inégalité AY >• XuY, où Y = AX. Il existe donc e > 0 suffisamment petit tel que AY >• (A(i + e)Y, ce qui contredit la définition de A() car quitte à multiplier Y par une constante positive non nulle, on peut supposer Y Ç S. Ainsi, AX = XuX avec. X 6 S, donc. X > 0. Le fait que A » 0 entraîne AX >• 0, donc Xi,X » 0 et on en déduit X >• 0.
5. Problèmes 219 b) Supposons que A / An soit, une valeur propre de A, et notons Z Un vecteur propre associé. Les (2;) désignant les composantes de Z, on a n n Vl> ^2ai,iZî = Xzi donc V«> 53flij \zj\ > W lz«|- En d'autres termes, ^4|Z| > |A| \Z\ où |Z| désigne le vecteur dont les composantes sont les |z,|, ce qui prouve que |A| € A (car quitte à multiplier \Z\ par une constante non nulle, on peut supposer \Z\ 6 S), et donc |A| < Ao par définition de Ao. Il nous reste à prouver |A| < Ao. Supposons |A| = Ao- Comme A >• 0, il existe S > 0 suffisamment petit tel que As = A — SI„ ~^> 0. Comme Ao est la plus grande valeur propre réelle positive de A, Ao — S est la plus grande valeur propre réelle positive de As. En répétant l'argument précédent à la matrice As et à la valeur propre A — S, on obtient |A — S\ < Ao — S. Mais Ao = |A| = |A - S + S\ < |A - S\ + S < A„, de sorte que |A| = |A — S\ + S, ce qui n'est possible que si A est un réel positif. Donc A = |A| = A0, ce qui contredit le fait que A / X0. Donc |A| < A0. c) On sait qu'il existe X >• 0 tel que X 6 E\„. Supposons dimE^,, > 2, de sorte qu'il existe Y € E\0 tel que la famille (X, Y) soit libre. Il existe /i tel que X - fiY > 0 et X - /iY > 0 (on peut prendre /i = inf{x,-/|j/i|, j/i / 0}). Comme (X, Y) est une famille libre, X — fiY > 0 et comme A > 0, on a facilement A(X — ftY) >• 0, c'est-à-dire Xo(X — (iY) >• 0 (c'est le même argument que dans a)), ce qui est en contradiction avec, le choix de /j. D'où le résultat. Remarque. Ces résultats rentrent dans le cadre général de la théorie de Frobenius des matrices positives. On peut prouver d'autres résultats, par exemple : si A > 0 et si Am ^> 0 pour un entier m > 0, alors les résultats a), b) et c) subsistent. Dans ce cas, la suite (1/A0').4m converge, sa limite P est un projecteur. Des résultats un peu plus faibles existent également lorsque l'on suppose simplement A > 0. Problème 18 (Endomorphismes semi-simples). Soit E un K-e.v de dimension finie. On dit que / G C(E) est semi-simple si pour tout s.e.v F de E stable par /, il existe un supplémentaire S de F stable par /. Une matrice M G Af„(K) est dite semi-simple si l'endomorphisme / de K" dont M est la matrice dans la base canonique de K" est semi-simple. 1/ Soit / G C(E)- On note II/ son polynôme minimal. Soit II/ = M"1 • • • M"r la décomposition de Uf en facteurs irréductibles de K[X]. a) Soit F un s.e.v stable par /. Montrer que r F = ®[KeiMr(f)C\F]. «=i b) Si Tlf est irréductible, montrer que / est semi-simple. c) Dans le cas général, montrer que / est semi-simple si et seulement si II/ = MXM2 • • • MT est produit de polynômes irréductibles unitaires distincts deux à deux. d) Que dire si K est algébriquement clos ? 2/ Soit M e Mn(U). a) Montrer que M est semi-simple si et seulement si M est diagonalisable dans Ain(C). b) On suppose M semi-simple. Montrer que M est semblable dans Af„(K) à une matrice de la forme I _ R j, avec D diagonale et B constituée de blocs de la forme I „ j centrés sur sa diagonale principale.
220 IV. Réductions d'endomorphismes Solution. 1/ a) Pour tout. «', on note F,- = Ker M"'(f). On sait que E - F, © • • • © Fr. Pour tout i G {1,... , r}, on note p,- la projection sur F,- parallèlement à ©j ^,- Fj. On a vu à la proposition 1 de la partie 4.2 que pour tout «', p,- est un polynôme en /. Comme F est stable par /, F est donc stable par pi, ce qui s'écrit. pt(F) C F. On a aussi pi(F) C Pi(E) = Fi. Finalement, on a pi(F) C Fi DF, et comme Id^ = Pi + 1- pr> F C Pi(F) + • • • +pr(F) = pi(F) © • • • ©Pr(F) C (F, n F) © • • • © (Fr n F). L'inclusion réciproque est facile puisque pour tout «", FjOF C F donc (Fil~lF)©- • ©(FrnF) C F. b) Soit F un s.e.v stable par /. Il s'agit de montrer l'existence d'un supplémentaire 5 de F dans E stable par /. Si F = E, c'est terminé avec S = {0}. Sinon, soit x, 6 E x F. On considère £^, = {P(/)(xi), P € K[X]}. Le s.e.v EXl est stable par /. Nous allons montrer que EXl (~l F = {0}. Soit IXl = {P e 1(^,^(/)(1,) = 0}. C'est un idéal de K[X], non réduit à {0} car II/ € IXl, donc, il existe un polynôme unitaire UXl tel que IXl = (TlXl) = n^Kf.X']. Comme II/ 6 IXl, le polynôme III1 divise II/, et II/ étant irréductible, TLXl = II/. Le polynôme H*, est donc irréductible. Soit y Ç EXl ("I F. Il existe un polynôme P € K[X] tel que y = P(/)(x1). Si y / 0, alors P £ IXl = (lin), donc III1 ne divise pas P, et II,, étant irréductible, II,, et P sont premiers entre eux. D'après le théorème de Bezout, il existe donc. U, V € K[X] tels que UP + VUXl = 1, donc xi = U{f) o P(/)(x,) + V(f) o 11,,(/)(1,) = tf (/)(»). Or y 6 F et F est stable par /, donc, t.\ — U(f)(y) € F. Ceci est absurde par construction de *,. On a donc y = 0 et EXl (~l F = {0}. On vient de montrer que EXl et F sont, en somme directe et EXl stable par /. Si F oplusEXl = £, c'est terminé. Sinon, on choisit x-j € £ \ (F © £^,) et. on recommence en remplaçant cette fois ci F par F®EXl. Itérant ainsi le procédé, on voit, qu'au bout, d'un nombre fini d'itérations {E est de dimension fini), on aura trouvé des vecteurs X\ Xk tels que E = F © EXl © • • • © EXk et pour tout «', EXi stable par /. Le s.e.v S = EXl © • • • © EXk est donc stable par / et. vérifie F ®S = E. c) Condition nécessaire.. Supposons / semi-simple. Soit II/ = M"1 ■ ■ ■ M°r la décomposition de II/ en facteurs irréductibles unitaires de K[X]. Il s'agit, de montrer que pour tout, i, a,- = 1. Supposons au contraire que pour un «', ai > 2. Si M = Mi, on voit, qu'il existe N G M[X] tel que II/ = M2N. Soit. F = Ker M(f). Le s.e.v F est stable par / semi-simple donc il existe un supplémentaire S de F stable par /. Montrons que MN(f) s'annule sur 5. Si x € S, alors MN(f)(x) € F car M(f)[MN(f)(x)] = II/(/)(x) = 0, et MN(f)(x) € S car S est. stable par /. Donc. MN(f)(x) € F(~l S = {0}, et donc x = 0. L'endomorphisme MN(f) s'annule donc, sur S. Il s'annule aussi sur F car si y Ç F = Ker M(f), alors MN(f)(y) = AT[M(/)(j/)] = 0. Comme F®S = E, MN(f) s'annule sur E tout entier, i. e. MN(f) = 0. Ceci contredit la minimalité du degré, du polynôme minimal II/ = M2N. D'où la condition nécessaire. Condition suffisante. Supposons II/ = M, • • • Mr avec, les M,- irréductibles unitaires et distincts deux à deux. Soit. F un s.e.v de E stable par /. Pour tout i, notons Fj = Ker M,-(/). On a E = F, © • • • © Fr, et on a vu à la question a) que F = ©£_, [F (~l Fi]. Pour tout, i, Fi est. stable par /. Notons /,• € £(Fi) la restriction de / à F;. On a M,(/,) = 0 et M,- est irréductible, ce qui prouve que le polynôme minimal de fi est M,-. D'après b), fi est donc semi-simple. Or F (~l F,- est. stable par Fi, donc il existe un s.e.v 5,- stable par fi (donc par /) tel que (Fi n F) © 5,- = Fi. Si maintenant on pose S = S\ © • • • © Sr, on a r r r £ = F, © • • • © Fr = 0[(F; n F) © Si] = [0(F; n F)] © [05;] = F© 5, i=l « = 1 i = l et 5 est. stable par /. L'endomorphisme / est donc semi-simple. d) Si K est algébriquement, clos, les polynômes irréductibles de K[X] sont, les polynômes de degré 1. D'après c), / est. donc semi-simple si et. seulement, si II/ n'a que des racines simples dans K, i. e. si et. seulement si / est diagonalisable.
5. Problèmes 221 2/ a) Condition nécessaire. Supposons M semi-simple. D'après 1/c), TLm peut s'écrire IIm = Mi • • • Mr où les M; sont irréductibles dans K[.X], unitaires et distincts deux à deux. Montrons que IIm n'a que des racines simples dans C. Soit a 6 C une racine de Wm- Il existe i tel que Mi(a) = 0, par exemple M\{a) = 0. Comme M\ est irréductible dans IR[X], a est racine simple de M\ (en effet, Mi étant irréductible dans K[X], Mi et M[ sont premiers entre eux dans M[X] donc il existe U,V 6 R[X] tels que UM\ + VM[ = 1. Cette relation appliquée à a montre que M'l(a) / 0). Par ailleurs, si i zfc 1, M{{a) / 0 (en effet, Mi et M,- sont irréductibles dans E[X], unitaires et distincts, donc premiers entre eux dans R[X], donc il existe U, V 6 R[X] tels que UM\ + VMi = 1. Cette relation appliquée à a montre que M,-(a) / 0). En définitive, on a montré que a est racine simple de Iljvf. Condition suffisante. Soit Wm = M™1 • • • M°' la décomposition de IIjv/ en facteurs irréductibles unitaires de E[X]. D'après 1/c), il suffit de montrer que pour tout i, a,- = 1. Comme M est diagonalisable dans M„(<C), TLm n'a que des racines simples dans C (le polynôme minimal de M dans C[X] est la même que dans M.[X] car si Mp + <i\ Mp~l H \-«-vIn =0 avec les «,• 6 C, alors Mp + 5R(<ii) Mp_1 H 1- Sft(fip) /„ =0). Ceci suffit à montrer que pour tout », o< = 1. b) On regarde M comme un endomorphisme de E". Démontrons le résultat par récurrence sur n 6 N*. Pour n = 1, c'est évident. Supposons le résultat vrai jusqu'au rang n — 1 et montrons le au rang n. Si 11^ est scindé sur M, c'est immédiat car alors IIjv/ est à racines simples d'après 1/c) et donc M est diagonalisable dans Mn(M.). Sinon Il^f a au moins un facteur irréductible clans M.[X] de degré 2 de la forme [(X — a)2 + /?2], a 6 E et j3 > 0. On peut écrire UM = [(X - af + fi2] Q avec Q Ç R[X]. Posons E = Ker[(M - a In)2 +|82/„].OnaÊ/ {0}, sinon (M - a In)2 + fi2 In est inversible et donc Q{M) = 0, ce qui contredit la minimal»é du degré de IIjv/ . Soit ei € E, ex / 0. Les vecteurs t\ et Mei sont linéairement, indépendants. En effet, s'il existe A 6 E tel que Mei = Xeït alors 0 = (M - a /„)2(ei) + f e, = (À - r*)2e, + /?V = [(A - af + /?2] Cl / 0, ce qui est impossible. Si on pose C2 = i[Mf.i—«ei], la famille (e^tj) est donc libre. Remarquons que Mei = ae\+ /?e2 et Me2 = (M-«/„)(e2) + «f:2 = -(M-«/„)2(ei) + ae2 = -ficx +ae2. En résumé, F = Vect(ci,e2) est stable par M et Mei = aei +/?e2, Me2 = -/îei + ae2. (*) La matrice M étant semi-simple, on peut trouver un s.e.v G de E" stable par M tel que F©G = M.". Le restriction M|g de M à G est semi-simple (son polynôme minimal vérifie 1/c) car il divise Iljiif). Or dimG = n — dimF = n — 2, donc, d'après l'hypothèse de récurrence il existe une base B = (/i fn--i) de G dans laquelle la matrice de M\q ait la forme ( ft g ) avec D diagonale et B constituée de blocs de la forme ( £ ~6) centrés sur sa diagonale principale. Dans la base B' = flU(ei,e2), la matrice de M a donc, laforme ( B j,ohC= ( « ~f ) d'après (*). D'où le résultat. [Remarque. - On peut montrer facilement que la réciproque de 2/b) est vraie. -X)n aurait pu montrer 2/b) en diagonalisant M dans Af„(C) et en travaillant sur les parties réelles et imaginaires de ses vecteurs propres. - La notion de semi-simplicité est une sorte de prolongement de la notion de diagonal- isabilité an cas des corps non algébriquement clos. Dans cette optique, on peut montrer que si K est un corps commutât if quelconque, toute matrice M G Af„(K) peut s'écrire M = S + N avec SN = NS, S e Af„(K) seini-simple et N e Af„(K) nilpotente (résultat à rapprocher de la décomposition de Dunford, voir la partie 4.2).
CHAPITRE V Espaces euclidiens LA notion de forme quadratique naît avec l'étude des coniques par Fermât au dix- / septième siècle puis celle des quadriques par Euler au dix-huitième siècle. C'est Cauchy qui, en 1826 en vue de son enseignement à l'Ecole Polytechnique, unifie les résultats concernant, la réduction des formes quadratiques. C'est d'ailleurs sans doute à cette occasion qu'il se pose le problème de la recherche des valeurs propres d'une matrice symétrique (en langage moderne) et démontre la réalité des racines du polynôme obtenu. Ainsi est née la théorie des espaces euclidiens. Le passage à la dimension infinie s'effectue à la fin du dix-neuvième siècle notamment, grâce à Hilbert, puis par Schmidt et Fréchet en 1908. Les espaces euclidiens et hermitiens ont beaucoup de propriétés communes, et pour cette raison, nous les étudierons parallèlement. 1. Formes quadratiques - Formes hermitiennes Dans toute cette section, K désigne un corps commutatif. 1.1. Généralités On définit d'abord les formes bilinéaires. DÉFINITION 1 (FORME BILINÉAIRE). Soient E et F deux K-e.v et une application f.ExF^K (x,y)>--np(x,y). On dit que ip est une forme bilinéaire si pour tout x Ç. E, l'application <p(x, •) : yi-> f(x, y) est linéaire et si pour tout y £ F, l'application <p(-,y) : x »-•• <p(x,y) est linéaire. Les formes sesquilinéaires sont définies lorsque le corps de base est C. DÉFINITION 2 (Forme SESQUILINÉaire). Soient E et F deux C-e.v et une application <p : E x F -f C (x, y) •-► <p(z, y). On dit que ip est une forme sesquilinéaire si pour tout x G E, l'application <p(x,-) est linéaire et si pour tout y £ F, l'application <p(-, y) est antilinéaire (i.e. pour tout 11,3:2 G E, <p(zi + x-i,y) = ip(xx,y) + <p(x2,y) et pour tout A e C, pour tout x e E, ip(Xx,y) = Xip(x,y)). Remarque 1. — Dans toute la suite, les espaces E et F seront les mêmes. — Toute forme sesquilinéaire sur E X F est une forme bilinéaire lorsque les e.v E et F sont considérés comme des K-e.v.
224 V. Espaces euclidiens Exemple 1. Si E désigne le C-e.v des fonctions continues de [0,1] dans C, l'application Jo définit une forme sesquilineaire sur E'2- Dans toute la suite de cette section, E désigne un K-e.v Ecriture en dimension finie. Supposons E de dimension finie et fixons une base B = (ei,...,e„) de E. Alors pour tout x = Yl?=ix'e' et V = S7=i%ej dans E, la bilinéarité de <p entraîne V>(x,y)= ]C xiyj(p(ei,ei) = tXMY l<«,J<n où M est une matrice de Af„(K) définie par M = (y(e«> ey))i<« j<n et où X et Y sont les ("\ (Vl\ vecteurs colonne X = I : j, Y = I : j. La matrice M est appelée matrice de tp dans la base B. Avec les mêmes notations, si E est un C-e.v et ip une forme sesquilineaire sur E, on a <p(x. y) = 13 **%■v(e* > eî)= **My> l<«J<n où X désigne le vecteur conjugué de X (i.e. les composantes de X sont les conjuguées de celles de X). On dit que M est la matrice de tp dans la base B. L'application qui à ip associe sa matrice dans une base fixée de E est un isomorphisme. En particulier, l'ensemble des formes bilinéaires (ou sesquilinéaires) sur E est un K-espace vectoriel de dimension n'2 (où n = dim E). Changement de base. On suppose toujours que E est de dimension finie. Soient B et B' deux bases de E, P la matrice de passage de B à B'. Si y5 est une forme bilineaire (resp. sesquilineaire) sur E, et si M désigne sa matrice dans la base B, M' dans la base B', alors M' = *PMP (resp. M' = 'PMP). On dit que les matrices M et M' sont congrues. Les matrices M et M' sont alors équivalentes, donc de même rang. Ce rang s'appelle le rang de <p. Le rang de <p est aussi la dimension du s.e.v des formes linéaires ip(x, •) (x G E) dans le dual de E. Symétries dans les formes bilinéaires et sesquilinéaires. DÉFINITION 3. Soit (p une forme bilineaire sur E. On dit que — ip est symétrique si pour tout (x,y) G E'2, ip(x,y) = ip(y,x), — <p est antisymétrique si pour tout (x,y) G E'2, (p(x,y) = —(p(y,x). Remarque 2. — En caractéristique 2, Pantisymétrie équivaut à la symétrie. — Si E est de dimension finie et si B est une base de E, une forme bilineaire <p sur E est symétrique (resp. antisymétrique) si et seulement si sa matrice dans la base B est symétrique (resp. antisymétrique). — Si la caractéristique de K est différente de 2, si on désigne par Sn (resp. A„) le s.e.v des matrices symétriques (resp. antisymétriques) de Af„(K), on a Sn ®An = Af„(K). En effet, Sn n An = {0} car si A = *A = -A, alors *A = 0 donc A = 0. Sn + An = Mn(K) car VA G Af„(K), A = ^-^ + ^Y^ "
1. Formes quadratiques - Formes hermitiennes 225 De plus, dim5„ = n(n + 1)/2 et dim.4„ = n(n — 1)/2 (si Eij désigne la matrice dont tous les coefficients sont nuls sauf celui d'indice (i,j) qui vaut 1, la famille ((-E,\,)i<i<r., (Eij + ^f,i)i<i<y<n) est une base de Sn, la famille (Eij - £,\,)i <,<,<« est une base de An). — En conséquence, si la caractéristique de K est différente de 2, l'ensemble S (resp. A) des formes bilinéaires symétriques (resp. antisymétriques) sur E (avec dimE = n) est un K-e.v de dimension n(n + 1)/2 (resp. n(n — 1)/2). De plus, si B désigne le K-e.v des formes bilinéaires sur E, on a S (B A = B. DÉFINITION 4. Soit <p une forme sesquilinéaire sur un C-e.v E. On dit que y? est à symétrie hermitienne si pour tout (x,y) G E2, tp{x,y) = ip(y,x). Remarque 3. — Si ip est à symétrie hermitienne, alors pour tout x Ç. E, ip(x,x) G K (ceci car <p(x,x) = <p(x,x)). — Si E est de dimension finie sur C et si B est une base de E, alors une forme sesquilinéaire <p sur E est à symétrie hermitienne si et seulement si sa matrice M dans la base B vérifie *M = M. On dit alors que M est une matrice hermitienne. Toute matrice hermitienne M G Af„(C) peut s'écrire de manière unique sous la forme M — S + iA, où S,A £ Af„(IR) avec S symétrique et A antisymétrique. L'ensemble des matrices hermitiennes de Af„(C) forme un E-e.v de dimension n2 (mais attention, ce n'est pas un C-e.v). Formes quadratiques. On suppose ici que la caractéristique de K est différente de 2. DÉFINITION 5. On appelle forme quadratique sur E toute application q de la forme q : E —► K x t-> <p(x, x) où <p est une forme bilineaire sur E. PROPOSITION 1. Soit q une forme quadratique sur E. Il existe une unique forme bilineaire symétrique ip telle que pour tout x £ E, q(x) = ip(x, x). La forme bilineaire <p s'appelle la forme polaire de q et on a 1 1 V(x,y)€EJ, <fi(r.,y)= -[q(x + y)-q(x)-q(y)] = ~[q(x + y) - q(x - y)]. Exemple 2. — Si ip(x,y) = 52,.- a.-ya;.-?/,-, la forme quadratique associée à ip est 9(x) = J2 °i.i x'i + XXa«\y + ai.i) *i*i- « «<i — Réciproquement, si q(x) = ]£,. a,it- x'\ + ]£,-<y a.-j z.zy, alors q est une forme quadratique et sa forme polaire est <p(x, y) = J2 «.-,.• xiVi + ôE a«j (*••%• + ^)- DÉFINITION 6. Soit q une forme quadratique sur E, où E est de dimension finie, et B une base de E. On appelle matrice de q dans la base B la matrice de la forme polaire ip de q dans la base B, et rang de q le rang de cette matrice. Le rang de q est aussi le rang de sa forme polaire. Exemple 3. On se place dans E3 et on y définit la forme quadratique q par u = (x, y, z) i-t- q(u) = Zx? + y'2 + Ixy — 3xz.
226 V. Espaces euclidiens Alors la matrice de q dans la base canonique de E3 est A = 3 1 _3 2 1 1 0 _3 2 0 0 Formes hermitiennes. DÉFINITION 7. On appelle forme hermitienne sur un C-e.v E toute application de la forme $ : E —► E a; i-t- (y9(z,z) où (y2 est une forme sesquilinéaire à symétrie hermitienne. PROPOSITION 2. Soit $ une forme hermitienne. Il existe une unique forme sesquilinéaire à symétrie hermitienne ip telle que pour tout x G E, $(x) = ip(x, x). La forme tp s'appelle la forme polaire de $, et on a V(z, y) g E'\ <p(x, y) = -[$(* + y) - $(* - y) + *$(* - iy) - &(*■ + iy)]- DÉFINITION 8. Soit $ une forme hermitienne sur un C-e.v E de dimension finie et B une base de E. On appelle matrice de $ dans la base B la matrice de sa forme polaire <p dans B, et rang de $ le rang de cette matrice. Le rang de $ est aussi le rang de sa forme polaire. Exemple 4. Sur C2, si $ : u = (x,y) t-> xx — lyy + \yx + |î/x, alors $ est une forme hermitienne de forme polaire 3 3 ip{ux, u2) = xTz2 - 2y[y2 + -j/T^ + ^îfe, et la matrice de $ dans la base canonique de E2 est I 3 2 j, son rang est 2. 1.2. Orthogonalité E désigne toujours un K-e.v (ou un C-e.v lorsque l'on parle de forme hermitienne). On se fixe une forme quadratique (resp. hermitienne) $ de forme polaire ip. DÉFINITION 9. On appelle cône isotrope de $ l'ensemble C$ = {x e E \ $(x) = 0}. On dit que $ est définie si C# = {0}. Un vecteur x G E est dit isotrope (pour $) si $(z) = 0, i.e. x G C$. DÉFINITION 10. Deux vecteurs x et y de 22 sont dit orthogonaux selon $ (ou selon (p) si 9^(^)2/) = 0 (ce qui équivaut à (p(y,x) = 0). Soit A C E. On appelle orthogonal de A selon $ (ou (p) l'ensemble Ax = {y e E | Vz G 4,(^,2/) = 0}. Deux sous ensembles A et 5 de E sont dit orthogonaux selon $ (ou selon y?) si pour tout x e A et pour tout y E B, (p(x,y) = 0. On note alors A ± B. Remarque 4. — Si A C E, AL est un s.e.v de E et on a AL = (Vect A)x. — Si B désigne le sous ensemble de E* (dual de E) défini par B = {<p(x, •) | x G A}, A1 est l'orthogonal (au sens dual) de B, i. e. AL = B" (voir la partie 4.3 du chapitre III). PROPOSITION 3. On parle d'orthogonalité au sens de $. (i) Si F CE, F C FLL (ii) Si A C B C E, BL C AL.
1. Formes quadratiques - Formes hermitiennes 227 DÉFINITION 11. On appelle noyau de $ le s.e.v de E noté Ker$ défini par Ker $ = EL = {x e E \ My e E, p(x,y) = 0}. La forme $ est dite non dégénérée si Ker$ = {0}, dégénérée si Ker$ ^ {0}. PROPOSITION 4. On a Ker$ C C#. En particulier, si $ est définie, alors $ est non dégénérée. Remarque 5. La réciproque est fausse. Par exemple, si $(u) = $(x,y) = x2 — y2, $ est non dégénérée mais n'est pas définie puisque pour tout x, $(x,x) = $(:r, — x) = 0. Notation. Pour unifier les notations, pour toute matrice M à coefficients dans K, on note M* la transposée de M. Lorsque le corps de base est C et que l'on parle de forme hermitienne, la notation M* désigne la transconjuguée de M (i.e. M* = *M). Ainsi en dimension finie, si A désigne la matrice de ip dans une base B de E, on a A* = A et pour tout x,y, <p(x,y) = X*AY. Cette notation est avantageuse puisqu'elle permet de traiter en même temps le cas des formes quadratiques et des formes hermitiennes. PROPOSITION 5. Supposons E de dimension finie. Soit B une. base de E. En identifiant les vecteurs de E et leur représentation en vecteurs colonne dans la base B, on a Ker $ = Ker A, où A désigne la matrice de. $ dans la base B. Démonstration. On a x € Ker $ <£=> Vy € E, <p{x,y) = 0 <£=> \/Y,X*AY = 0 <£=> X*A = 0 <=> (X*A)* = A*X = AX=ti <=> X€ Ker A. D Bases $-orthogonales. DÉFINITION 12. Une base B de E est dite $-orthogonale, si pour tout couple d'éléments distincts (e,e') de 5, on a ip(e, e') = 0. Remarque 6. En dimension finie, si B = (eh... ,e„) est une base $-orthogonale, alors \i=l / «=1 Autrement dit, la matrice de $ dans la base B est diagonale. ThÉorÈme 1. Si E est de dimension finie, il existe une base $-orthogonale de. E. Démonstration. On procède par récurrence sur la dimension n de E. Pour n = 1, il n'y a rien à montrer. Supposons le résultat, vrai an rang n — 1 et montrons le au rang n. Si $ est identiquement nulle, alors toute base de E est $-orthogonale. Sinon, il existe v 6 E tel que $(t>) / 0. Dans ce cas, l'application / = <p(v, ■) définie par /(x) = ip(v,x) est une forme linéaire non mille sur E. Son noyau H est un hyperplan de E, et comme v $. H, on & E = H ® Vect(t>). Comme dim/f = n — 1, d'après l'hypothèse de récurrence, il existe une base (ex,... ,e„-i) de H orthogonale pour $|j/- On voit alors facilement, que (ex en-i, ") est une base $-orthogonale. D COROLLAIRE 1. Soit A G Af„(K) telle que. A* = A. Il existe une. matrice inversible P telle que P*AP soit une. matrice diagonale. Démonstration. L'application $ définie sur W par $(X) = X*AX est une forme quadratique (resp. hermitienne) dont la forme polaire est. ip : (X,Y) >-* X*AY. D'après le théorème précédent, il existe une base B de K" qui est $-orthogonale. La matrice M de $ dans B est. diagonale, et si P désigne la matrice de passage de la base canonique de W à B, on a M = P*AP, d'où le résultat. D
228 V. Espaces euclidiens Si $ est une forme quadratique, le théorème 1 assure en dimension finie l'existence d'une base (e,,... ,e„) $-orthogonale. En posant A, = $(e,), on a V. € E, $(*) = $ (X>î(*)e4) = f>(e*(.))2. \.=i / «=i En d'autres termes, on a écrit $ comme combinaison linéaire de carrés de formes linéaires indépendantes. Dans la pratique, ces formes linéaires peuvent être calculées grâce à la méthode qui suit. Méthode de Gauss. Donnons nous une forme quadratique n «=l i<t'<;'<" En procédant par récurrence, nous allons écrire $ comme combinaison linéaire de carrés de formes linéaires indépendantes. Il y a deux cas. Premier cas. Il existe au moins un indice i tel que ati, ^ 0, par exemple a = a,_, ^ 0. On peut écrire $ sous la forme ¢(.,,... , .„) = a .2 + 3:,5(3:2,..., xn) + C(x2,... , xn), où B est une forme linéaire en (2:2,... , xn) et C une forme quadratique en (x2, ■ ■ ■ , xn). On réécrit $ comme *(« ,..)=.(«,t*^)'+[C|., ,.,-a^]. En d'autres termes, on a écrit $ comme la somme d'une constante multipliée par le carré d'une forme linéaire (ici a[x,i + B/(2a)]2) et d'une forme quadratique en x2,... ,xn (ici, C — B2/(4a)). On itère alors la méthode de Gauss en partant cette fois de C — B2/(4a), et on obtient finalement la réduction souhaitée. Second cas. Pour tous les indices i, «,,■ = 0. Si $ est nulle, c'est terminé, sinon il existe au moins un atj non nul (avec i < j), par exemple a = al2 ^ 0. On peut écrire $ sous la forme $(*!,... , xn) = a xxx2 + z, B(x3,... ,xn) + x2 C(x3,... ,xn) + D(x3,... , xn), oh B et C sont des formes linéaires et D une forme quadratique en (x3,... , xn). On réécrit $ comme ¢(.,,...,.,.) = 0(., + ^)(.,+ 1) + (^-^) V B + C\2 ( C-B\ + b-S£ a Les deux premiers termes du dernier membre de cette égalité sont les carrés de formes linéaires, et on itère la méthode de Gauss en partant cette fois de D — BC/a, forme quadratique en (.3,... , .„). Remarque 7. — Il existe bien sûr d'autres moyens d'écrire une forme quadratique comme combinaison linéaire de carrés de formes linéaires. L'avantage de la méthode de Gauss est qu'elle assure l'indépendance des formes linéaires obtenues (résultat non démontré ici, mais facile à obtenir).
1. Formes quadratiques - Formes hermitiennes 229 — Le cas des formes hermitiennes se traite de manière analogue, en remplaçant les carrés par les carrés des modules. Par exemple la forme hermitienne $(x,y) = xy + xy se réduit en $(x,y) = -(\x + y\2 - \x - y\2). La forme hermitienne $(z, y, z) = xx + yy — 2ixy + 2ixy + lyz + 2yz se réduit en $(x,y,z) = (x-2iy)(x + 2iy)-3yy + 2yz + 2yz = \x-2iy\2-3 2z 2 4 y~T + 3^ Propriétés des orthogonaux selon $. La lettre $ désigne toujours une forme quadratique (resp. hermitienne) sur E et lorsque l'on parlera d'orthogonal, ce sera par rapport à $. PROPOSITION 6. Supposons E de dimension finie. Tout s.e.w F de E vérifie (i) dim F + dim FL = dim E + dim(F n Ker $). (ii) FLL = F + Ker$. Démonstration, (i). On considère l'application ip : F —* E* x t-+ <p(x,). Cette application est linéaire, donc dim(Ker ip) + dim(ImV>) = dimF. Or KerV> = F (~l Ker$ et (Im^)0 = Fx (voir la remarque 4). Comme d'après le théorème 3 de la partie 4.3 du chapitre III (page 128), on a dim(ImV')0 = dim 2? — dim(ImV>), on en déduit. dimFx = dim£'-(dimF-dim(KerV')) = dimE- dimF + dim(F l~l Ker $), d'où (i). (ii). On a F C F1-1- et Ker$ C F11, donc F + Ker$ C F1"1. Pour prouver l'égalité, nous allons prouver l'égalité des dimensions. En appliquant (i) à Fx, on a dimFx + dimF11 = dimE + dimKe.r(Fx (~l Ker $) = dimE + dim(Ker $) (comme Ker$ C F1-, F1- (~lKer$ = Ker$). En retranchant (i) à cette égalité, on obtient. dim Fxx - dim F = dim(Ker $) - dim(F l~l Ker $) donc dimF1-1- = dim(F + Ker$) et le résultat. D PROPOSITION 7. Si $ est définie et si F est un s.e.v de dimension finie de E (mais E de dimension quelconque), alors (i) F@FL = E (ii) F = FLL. Démonstration. Si t. 6 F (~l FL, alors <p(x, x) = 0 et comme <p est. définie, on a x = 0. Autrement dit, F (~l Fx = {0} . (*). D'après le théorème 1, il existe une base (ei,... , ep) de F orthogonale pour la restriction de $ à F. Soit x £ E. On cherche à écrire x = y + z avec y 6 F et z 6 F1-. Ecrivons y = Yli=i ^«e«- Alors z = x — y 6 Fx si et seulement si pour tout j Ç {1,... ,p}, <p(ej, z) = 0, i.e. si pour tout j, ip(ej, x) — Xjip(ej, e;) = 0. En choisissant A,- = ) *'—-, on voit donc que x = y + z, avec y 6 F et zÇF1-. Donc F + Fx = E d'où (i) avec (*). On sait (voir proposition 3) que F C Fxx. Montrons l'inclusion réciproque. Soit x 6 Fxx. D'après (i), il existe y Ç F et z Ç F1- tels que. x = y+z. Or ip(x, z) = 0 = <p(y, z)+tp(z, z) = <ç(z, z), donc z € C* et $ étant définie, z = 0. Donc x = y e F, d'où F11 CF. □
230 V. Espaces euclidiens Loi d'inertie de Sylvester. Dans toute la suite, $ représente soit une forme quadratique sur un E-e.v E, soit une forme hermitienne sur un C-e.v E. Supposons E de dimension finie n. D'après le théorème 1, il existe une base (el5... ,e„) qui est $-orthogonale. Ceci entraîne que pour tout x = Yl?=i xieii n n *(z)=£M2$(e') = £A<K-(*)|2> où Ai = $(ei)GR. «=i «=i Chaque A,- est soit positif, soit négatif, soit nul. Supposons par exemple A1,... , Xq > 0, Ap+i,... , Ap+Î < 0 et Ap+^+i = • • • = A„ = 0. Pour i, 1 < i < p, on peut écrire A,- = uf et pour i, p + 1 < i■ < p + q, on peut écrire A, = —w2, où les w, sont réels non nuls. En posant /, = «,-eJ, on a $(*) = 1/,(:,)12 + • • • + |/p(z)|2 - |/p+i(z)|2 |/P+Î(*)|2, (*) et fi,... ,/p+î sont des formes linéaires linéairement indépendantes. THÉORÈME 2 (Sylvester). Quelle que soit la décomposition de $ du type (*) $(*) = |ffl(z)|2 + • • • + |ffp,(*)|2 - |ffp-+i(*)|2 |ffP'+î'(*)|2, (**) où ffi,..., ffp'+f' son< «/es formes linéaires linéairement indépendantes, on a p' = p et q' = q. Le couple (p, q) s'appelle la signature de $, et le rang de $ est égal à p + q. Démonstration. Supposons p / p't par exemple p' > p. Complétons g\, • • • ,gp'+q' en une base 9\, ■ • ■ , 9n de E*. Les formes linéaires /i,... , /p, <7p'+i,... ,gn sont au nombre de p + n — p1 < n, et donc 3x / 0, /,(*) = • • • = fp(x) = gp.+l(x) = ■■■ = gn(x) = 0. Ceci entraîne $(a;) < 0 d'après l'expression (*) de $. Au moins l'un des <7,(*) pour 1 < i < p1 est non nul, car sinon on aurait, gi(x) = ••• = gp'(x) = <7p'+i(:n) = ••• = gn(x) = 0 et donc x = 0 car (<7i)i<«'<n ^ une ^^6 de E*. Donc $(*) > 0 d'après l'expression (**) de $, ce qui est contradictoire. Ainsi p = p'. On montrerait de même que q = q'. Quant au rang de $, il suffit de remarquer que la matrice de $ dans la base $-orthogonale //, o o\ (ex e„) est ( o -/, o j, donc de rang p + q. O \ o o o/ Remarque 8. Si on trouve trois s.e.v F+,F~,F° de E qui sont $-orthogonaux deux à deux, tels que F+ ® F~ ® F° = E, $(*) > 0 sur F+ \ {0}, $(z) < 0 sur F~ \ {0} et $(z) = 0 sur F0, alors la signature de $ est (dim.F+,dim.F-). En effet, si (e,,... ,ep) (resp. (ep+1,... , ep+1), (ep+î+1,... , e„)) est une base orthogonale pour la restriction de $ à F+ (resp. à F~, à F0), alors (el5... ,e„) est une base de E, et on peut écrire p p+« $(*) = £$(,<) K(*)|2+ £ $(e0|e,-(z)|2 •=i «=p+i avec $(ej) > 0 pour 1 < i < p et $(e,-) < 0 pour p+l<i<p + q- 1.3. Formes quadratiques et hermitiennes positives Ici aussi, $ désigne une forme quadratique sur un E-e.v E ou une forme hermitienne sur un C-e.v E, associé à la forme polaire ip. On dira que $ est positive si pour tout x G E, $(z) > 0. En dimension finie, la signature d'une forme positive est de la forme (p, 0). Théorème 3 (Inégalité de Schwarz). 5i$ est positive, alors V(x,y)eE\ M*,î/)|2<$(*)$(2/). (*) Si de plus $ est définie, il y a égalité si et sexdement si x et y forment une famille liée.
1. Formes quadratiques - Formes Jierm/t/ennes 231 Démonstration. Même si $ est. une forme hermitienne, on peut, supposer <p(x,y) € E, quitte à multiplier x par c'* avec 6 6 E bien choisi. On a VA € E, $(Az + y) = A2$(x) + 2\<p(x, y) + $(y) > 0. (**) Si $(x) = 0, pour tout A € E, (**) s'écrit 2\<p(x, y) + $(y) > 0, ce qui entraîne <p(x, y) = 0. Sinon $(x) / 0, et le trinôme du second degré (**) en A a un discriminant négatif, ce qui s'écrit ¥>(*> y)2 — $(x)$(i/) < 0, d'où l'inégalité. Supposons $ définie et x / 0 (le cas a; = 0 est trivial). Alors $(a;) / 0, de sorte que (*) est une égalité si et seulement si le discriminant de (**) est nul, c'est à dire si et seulement s'il existe A0 € E tel que $(A()x + y) = 0, ce qui équivaut, à X0x + y = 0 puisque $ est définie, c'est-à-dire que la famille (x, y) est liée. D Conséquence. Si $ est positive, alors C# = Ker$, C# désignant le cône isotrope de $. En particulier, une forme positive $ est définie si et seulement si elle est non dégénérée. Remarque 9. Si E est norme, l'inégalité de Schwarz entraîne la continuité de la forme bilinéaire (ou sesquilinéaire) ip (résultat indépendant de la dimension de E). Corollaire 2 (Inégalité de Minkowsky). Si $ est positive, alors V(x,y)£E2, J${x + y)< yfi(x~) + ^¾). L'inégalité de Minkowsky est une conséquence immédiate de l'inégalité de Schwarz. Elle exprime que si $ est positive, S(x) = \/$(x) définit une semi-norme. Si de plus $ est définie, S est une norme (on dit alors que <p est un produit scalaire, voir la section 2). 1.4. Exercices Exercice 1. Décomposer sous forme de somme de carrés les formes quadratiques ou hermitiennes suivantes ; en déduire leur signature et leur rang. a) $(z, y, z, t) = xy + yz + zt + tx, (x, y, z, t) e E4. b) $(>, y, z) = x2 - 2y2 + xz + yz, (x,y, z) G E3. c) $(x,y,z) = xx + yy + zz + xy + xy-yz-yz, (x,y,z) e C?. Solution. On va appliquer la méthode de Gauss, garantissant ainsi l'indépendance linéaire des formes linéaires obtenues, ce qui nous permettra de calculer la signature de la forme correspondante. a) Il suffit d'écrire $(x, y,z,t) = (x + z)(y + t) = -[(x + z + y + t)2 - (x + z - y - t)2]. La signature de $ est donc (1,1), son rang 1 + 1 = 2. b) On a $ix,y,z)=(x+Z-y-Ç-2y2 + yz=(x+Z-y-2(y-Z-y + j-ZT La signature de $ est. donc (1, 2), son rang est. 3. c) On a $(x, y, z) = (x + y)(x + y) + zz-yz-yz = (x + y)(x + y) + (z- y)(?-y) - yy = \x + y\2 + \z- y\2 - \y\2. La signature de $ est donc (2,1) et son rang est 3.
232 V. Espaces euclidiens Exercice 2. Soit n G N*. On note C„[X] = {P G C[X] | deg(P) < n}. Démontrer que l'application $:C„pf]->C P"- [ P{x)P{-x)dx est une forme hermitienne et calculer sa signature. Solution. La forme sesquilinéaire <p : Ç, [X]2 -» C (P,Q)~J Plx)Q{-x) dx est à symétrie hermitienne (on le vérifie facilement en effectuant le changement de variable x —* —x dans l'intégrale), et $ est. sa forme hermitienne associée. Notons P (resp. I) le s.e.v des fonctions paires (resp. impaires) de C^,[X]. On a P ©I = Q, [X] puisque si PGP ni, P(-X) = P(X) = -P(X) donc P = 0, ainsi P ni = {0} et VP6Q.M, W=Mi_M+W^l, donc V+X = Qt[X\. Si P G P, P / 0, est. une fonction paire, alors $(P)= / Pjx)P(x)dx = I \P(x)\2dx>0, et si P G ï, P / 0, est impaire, $(P)= / Pjx)(-P(x))dx = - j |P(*)|2rfz<0. De plus, P et X sont $-orthogonaux car V(P,Q)ePxI, I ~P(x)Q(-x)dx = I P{-x)(-Q(x))dx = - j Pjx)Q(-x)dx, donc tp(P,Q) = 0. Avec la remarque 8, on en conclue que la signature de $ est (dimP,dimJ) = ([n/2] + l,[(n +1)/2]). Exercice 3 (Quelques formes quadratiques sur Af„(R)). Montrer que les applications suivantes sont des formes quadratiques et calculer leur signature. a) 9i : Af„(R)-> R A •-► (tiA)2. b) ?2 : Mn(U) -» R ,4 •-► tr(VU). c) ç3 : Af„(R) — R /1 •-► tr(42). d) ç4 : Af„(R) —» R A >-> tr(5/lVl), où S G Af„(R) est une matrice symétrique fixée. Solution. Tout au long de l'exercice, nous aurons besoin du résultat suivant : Si P = (Pi,;)i<;,;<„ et Q = (qij)i<i,j<n G A*„(R), on a tr(PQ) = ^ P.\;9;,i- (*) 1 <«',;<" La preuve est simple, il suffit de remarquer que l'élément d'indice («', «') dans la produit PQ est égal àE"=i PiJ ?;•,•• a) L'application qx est bien une forme quadratique, sa forme polaire étant <p\ : (A, B) >-> tr(,4)tr(fl).
1. Formes quadratiques - Formes hermitiennes 233 L'application trace est une forme linéaire sur Mn(M.). Son noyau H est donc un hyperplan de Mn(M.). Soit S un supplémentaire de H dans Mn(R), de sorte que dimS = 1 et VA 6 S, A / 0, tr^4 / 0. Ainsi, WAeH, qi(A) = 0 et VflG 5,5/0, gi(fl) >0. (**) De plus, pour tout couple (^4, B) £ H x S, <pi(A,B) = tr(j4)tr(5) = 0, donc H et S sont qi- orthogonaux. Avec (**) et d'après la remarque 8, ceci suffit pour conclure que la signature de q\ est (1,0). b) On a bien affaire à une forme quadratique, la forme polaire associée étant tp2 '■ (A, B) i—► ti^AB). Maintenant, en appliquant le principe (*), on voit que toute matrice A = (a,,;)i<i,;<„ G <M„(IR) vérifie q2(A) = 52,-,1,^,-, ce qui suffit à prouver que q^ est une forme définie positive, donc de signature (n2,0) (en d'autres termes, c'est un produit scalaire sur Mn(M)). c) La forme polaire associée à q3 est ip3 : (A, B) i-+ ti(AB). La relation (*) prouve que si A G S (s.e.v des matrices symétriques de jM„(IR)), q3(A) = 52« ,• af,; donc la restriction q3is de q3 à S est définie positive. Si A G A (s.e.v des matrices antisymétriques), (*) montre que q3(A) = — 52i ,- al,j > ce (lui prouve que q3iA est définie négative. De plus, S © A = .Mn(IR) (voir la remarque 2) et S et A sont y>3-orthogonaux puisque si 5 G S et A G A, <p3(S,A) = ti(SA) = tr('(5.4)) = tr(U'S) = ti(-AS) = -ti(SA) = -<p3(S,A), donc <p3(S, A) = 0. D'après la remarque 8, ceci suffit pour conclure que la signature de q3 est (dimS, dim.4) = (n(n + 1)/2, n(n - 1)/2). d) Remarquons tout d'abord que ¢4(^4) = ti(SA*A) = ti(*ASA). Sa forme polaire est ip4 : (A, B) >-> tr^SS). La matrice 5 est symétrique. L'application M" —» M. X >-* iXSX est une forme quadratique. Si fh ° °\ on note (p, q) sa signature, on s'aperçoit que S est congrue à la matrice J = I 0 -/, 0 ], autrement \ 0 0 0/ dit ( Ip 0 0 \ 3P e G/„(R), *PSP = J = 0 -/, 0 . \ 0 0 0 / Maintenant, on se donne B G ,M„(IR) et on écrit B = PA avec A = (a.jOK.j^n G jM„(M). Un peu d'attention montre que P n p+q n q4(B) = q4(PA) = tT(tAtPSPA) = tT(tAJA) = J2J2ah- E Ea'V (***) ; = 1 .=1 j=P+l «=1 Les applications ftj : B 1—► «,-j où «<;■ est le coefficient, d'indice (*', j) dans A = P~1B formant une famille libre de formes linéaires de jM„(IR)*, l'expression (***) montre que la signature de 54 est (np,nq). Exercice 4. Soit E un E-e.v de dimension finie et $ une forme quadratique sur E. Si $ est définie, montrer que $ est soit positive soit négative. Solution. Soit (p, g) la signature de $ (au passage, on a p + q = dim E1 car $ étant définie, $ est non dégénérée, c'est à dire rg$ = p+ q = dirn/?). Il s'agit de montrer que p = 0 ou q = 0. Nous allons raisonner par l'absurde en supposant p / 0 et g / 0. On peut écrire «=i «=i où y>i,... ,tpp,ipi,... ,ipq sont des formes linéaires (on peut même les supposer linéairement indépendantes, mais nous n'en aurons pas besoin).
234 V. Espaces euclidiens Les formes linéaires tpi —ipi, tp2, • • • ><PP, V"2> • • • t V"» sont au nombre de p+ q — 1 < dirn/?, donc si F désigne le sous espace de E* (dual de E) engendré par ces formes linéaires, on a dim F < n, et donc l'orthogonal F" de F (au sens dual) est différent de {0}. En particulier, il existe x € E, x / 0, tel que <Pi{?) - il>\{?) =¥>2(*) = ■••=ipP(x) = ^2(3:)= •••= ^(^) = 0, ce qui entraîne <pi(x) = V"i(^) et $(x) = ^,(x)2-Vi(x)2 = 0, ce qui est contraire aux hypothèses puisque $ est définie. Remarque. Un autre moyen de faire est d'utiliser la continuité de $. L'expression de $ en termes matriciels ($(X) = *XAX) montre en effet qu'en dimension finie, toute forme quadratique est continue. Supposons maintenant $ ni positive ni négative. Alors il existe x ^ 0 et y ^ 0 tels que $(z) > 0 et $(y) < 0. On considère alors l'application /: [0,1]-»» X » $(Xx + (1 - X)y). L'application / est continue et /(0) = ¢(2/) < 0, /(1) = $(z) > 0 donc d'après le théorème des valeurs intermédiaires, il existe A G ]0,1[ tel que /(A) = 0 = $(Az + (1 — X)y\ et $ étant définie, on a \x + (1 — X)y = 0, donc y = /3x avec /3 = — A/(l — A). Ceci entraîne $(?/) = $(/3x) = /32$(x) > 0, ce qui est absurde. Le tour est joué. Cette dernière démonstration montre qu'en dimension infinie, le résultat de l'exercice est vrai dès que $ est continue. - Le même type de résultats vaut pour les formes hermitiennes. Exercice 5 (Sous espaces totalement isotropes). Soit $ une forme quadratique sur un K-e.v E de dimension finie n G N*. On appelle sous espace totalement isotrope (en abrégé SETI) un s.e.v F de E tel que pour tout x e F, $(x) = 0, ce qui équivaut k F C Fx. On appelle SETI maximal (en abrégé SETIM) un SETI F tel que pour tout SETI G vérifiant F C G, on a G = F. 1/ a) Soit F un SETI. Montrer que dim F < n — r/2, où r est le rang de $. b) Montrer que tout SETI est inclus dans un SETIM. 2/ On suppose dorénavant que $ est non dégénérée. a) Soient F\ et F2 deux SETIM. On pose F = Fi n F2, Si un supplémentaire de F dans Fïf S2 un supplémentaire de F dans F2, de sorte que F® Si = Fx et F(BS2 = F2. Montrer que Si n S£ = Sf C\S2= {0}. En déduire dim F, = dim F2. Les SETIM ont donc tous même dimension ; cette dimension est appelée indice de $. b) On suppose ici K = E et $ de signature (p, q). Quel est l'indice de $ ? Solution. 1/ a) On a F C Fx, donc dimF < dimFx, et avec la proposition 6, 2 dim F < dim F + dim Fx = n + dim(F l~l Ker $) < n + dim(Ker $) = 2n - r, d'où le résultat. b) Soit F un SETI et T l'ensemble des SETI contenant F. On pose m = sup{dimG, GeT). Par construction, il existe un SETI G tel que F C G et dim G = m. Le s.e.v G est alors un SETIM (si H est un SETI et si G C H, alors F C H de sorte que H £ T et donc dim H < m, ce qui entraîne dim# = m = dimG et G = H). 2/ a) Soit x e SiHSï-
1. Formes quadratiques - Formes hermitiennes 235 On a déjà x G F2X. En effet, comme F2 = F © S2, on a F2X = Fx ("I 5^, et. il suffit de montrer que x G Fx. Ceci est vrai car x G Fi C F^ C Fx (la première inclusion provient du fait que Fi est un SETI et la seconde est une conséquence de ce que F C F\). Poursuivons. On a x G Si C Fi donc x est isotrope. Considérons le s.e.v G = F2 + Kx. Soit z = y + kx G G (y G F2, k G K). En notant. <p la forme polaire de $, on a $(z) = $(y) + *2$(z) + 2M*>2/)- (*) On a y G F2 donc $(y) = 0 ; on a vu que $(x) = 0, et on a montré plus haut que x G F2, de sorte que <p(x,y) = 0, et donc (*) entraîne $(z) = 0. Ceci étant vrai pour tout z G G, on en déduit que G est un SETI. Comme F2 C G et que F2 est un SETIM, ceci entraîne G = F2 et. donc x G F2. Or iGSiCfi, donc x e FinF2 = F, donc x G 5! (~l F = {0}, ce qui entraîne x = 0. - Nous venons de montrer Si (~l S^ = {0}> c'est à dire que Si et S2 sola^ en somme directe, ce qui entraîne dimSi + dimS^ < dimE = n. La forme quadratique $ étant, non dégénérée, la proposition 6 entraîne dimS^ = n — dim.S'2, donc finalement. dimS! + n — dimS2 < n, i.e dimS! < dimS2. Par symétrie, on a également. dimS2 < dim5i, d'où dimSi = dimS2 et dimFi = dim(F © 5,) = dimF + dimS, = dimF + dimS2 = dim(F © 52) = dimF2. b) La non dégénérescence de $ entraîne p+ q = n. Notons k = inf{p, q}. Il existe une base (ei,... , e„) de E dans laquelle la matrice de $ a la forme I * _ j. Posons F = Vect(ei + ep+i, • • • ,et + ep+k). Pour tout. «', 1 < i < k, $(c,- + ep+i) = $(e.) + $(ep+i) = 1 - 1 = 0. Les vecteurs e; étant de plus deux à deux orthogonaux, on en déduit que F est. un SETI. Soit G un SETI tel que F CG. Donnons nous x G G, et écrivons x = ]£,. Aje,. On a «k*)=o=£a?-£ a?. (**) i=l .=p+l En désignant toujours par tp la forme polaire de $, on a Vi, 1 < i < *, y(x, e,- + ep+,-) = - [$(* + e,- + ep+i) - $(x) - $(e,- + ei+pj\ = 0 = A, - Ai+P, ce qui entraîne A,- = Ap+j pour 1 < i! < k. Avec (**) on a donc x = £2,=1 Aj(e,- + ep+t) G F, et ceci pour tout SETI G contenant F. Le s.e.v F est donc un SETIM et l'indice de $ est dimF = k = inf{p,g}. EXERCICE 6. Soit E un K-e.v de dimension finie, soit ip : E X E -* K une forme bilinéaire telle que si (p(x,y) = 0 pour un quelconque couple (x,y) G E2, alors tp(y,x) = 0. Montrer que f est symétrique ou antisymétrique. Solution. Supposons dans un premier temps tp non dégénérée (i.e pour tout, x / 0, f{x, ■) / 0). L'hypothèse sur tp entraîne que pour tout z Ç E, les formes linéaires tp(x,): y>-*tp(x,y) et. tp(-,x): y>-+<p{y,x) ont même noyau. Comme elles sont non nulles, il existe At GK tel que tp(x, ■) = \xtp(-, x) (voir la proposition 5 page 129). On considère maintenant les applications /: E-+E* x-+tp(x,) et g: E-* E* x >-* tp(-, x). Ces applications sont linéaires, injectives (car tp est non dégénérée), donc bijectives (car dimE1 = dim£*). Or, comme on a vu plus haut, pour tout x E E, f(x) = Xxg(x), ou encore fog~l(x) = \xx
236 V. Espaces euclidiens avec Ar 6 K. D'après la proposition 3 page 113, / o g 'est. donc une homothétie, autrement dit il existe A G K tel que / o g~l = A Id ou encore / = Xg. Ceci s'écrit aussi V*G£, <p(x,) = \<p(;x) et donc Vz, y£E, ip(x, y) = Xip(y, x) = X2ip(x, y). On en déduit que A2 = 1, donc que A 6 {—1,1}. La forme bilinéaire tp est donc symétrique ou antisymétrique. - Traitons maintenant le cas général. On considère Keitp = {x G E,ip(x, ■) = 0}. Soit F un s.e.v de E tel que Ker tp © F = E. Comme F (~l Ker <p = {0}, la restriction de <p à F est non dégénérée, de sorte que l'on peut appliquer ce que l'on vient de montrer : ' (3e G {-1,1}), W(x,y)eF2,tp(x,y) = etp(y,x). Ceci étant, on se donne (x,y) G E2 et on écrit, x = x\ + x2, y = yi +y2 (^1, Vi G Ker tp, x2,3/2 é F)- On a <p(x, y) = <p(xuyi + y2) + tp(x2, y\ + y2) = <p(x2, yi + y2) = ip(x2, y2) = e<p(y2,x2) = ap(y, x), d'où le résultat. 2. Espaces préhilbertiens 2.1. Généralités Soit $ une forme quadratique (resp. hermitienne) sur un E-e.v (resp. un C-e.v) E. On dit que $ est positive si pour tout x e E, $(x)>0. Supposons $ définie positive. Sa forme polaire (p s'appelle un produit scalaire (resp. un produit scalaire hermitien). On note souvent <p(x,y) = x ■ y ou (x\y). On a x • y = y • x (resp. x • y = y • x). On écrit souvent x2 pour x -x. Dans ce cas, l'inégalité de Minkowsky (voir le corollaire 2 de la partie précédente) montre que \\x\\ = ^/$(3:) = y/x • x définit une norme sur E. Cette norme s'appelle norme euclidienne (resp. norme hermitienne) et fait de E un e.v norme. Un E-e.v muni d'un produit scalaire s'appelle un espace préhilbertien réel (s'il est de plus complet — pour la norme issue du produit scalaire — on dit que c'est un espace hilbertien réel). S'il est de dimension finie, on l'appelle également espace euclidien. Sauf mention explicite, la norme utilisée sur un espace préhilbertien est la norme euclidienne. Un C-e.v muni d'un produit scalaire hermitien s'appelle un espace préhilbertien complexe. S'il est de dimension finie, on l'appelle également espace hermitien. L'inégalité de Schwarz s'écrit Vx,yeE, |s-y|<IMHI»||. Ainsi, si E est un espace préhilbertien réel, Vs,y G E,x ? 0,2/^ 0, 3\9 G [O,ir],cos0 = *'y ... \\x\\-\\y\\ Le réel 6 s'appelle l'écart angulaire de x et y. Remarque 1. On ne définit pas l'écart angulaire dans un espace préhilbertien complexe. Dans toute la suite, nous utiliserons ces notations.
2. Espaces préhilbertiens 237 2.2. Orthogonalité L'orthogonalité définie pour une forme quadratique ou hermitienne subsiste pour un produit scalaire. Ainsi, deux vecteurs x et y sont dit orthogonaux si et seulement si x-y = 0 (ou encore si et seulement si y • x = 0). Une famille de vecteurs non nuls (e,),e/ est dite orthogonale si elle vérifie e< -e;- =0 dès que i jt j (et c'est alors une famille libre). Si de plus on a 11e^ 11 = 1 pour tout i G /, la famille est dite orthonormale (ou orthonormée). On peut ainsi parler de base orthogonale ou orthonormale. Si E est un espace euclidien (resp. hermitien) et si (e,,... , e„) est une base orthonormée de E, alors n n n n Mx = ^ *iei £ E, My = Y^Vi^i e E, x-y = ^, *iVi (resp. x ■ y = ]T) *72/,). Par ailleurs les coordonnées (x.i) de x dans la base orthonormale (e<) de E vérifient x,- = PROPOSITION 1. 5t(ej)<6/ es< une famille finie orthogonale de vecteurs de E, on a l'égalité ll£,-e,e,.||2 = £<e,IM|2. Remarque 2. Dans un espace préhilbertien réel, si ||x + y\\2 = \\x\\2 + \\y\\2, alors x et y sont orthogonaux. Ceci est faux dans un espace préhilbertien complexe (par exemple, si x ^ 0, H* + ix||2 = |1 + îHMI2 = 2||z||2 = ||z||2 + ||iz||2 et pourtant x et ix ne sont pas orthogonaux). Théorème 1 (de la médiane). Pour tout couple (x,y) e E2, on a ll^+2/||2 + lk-î/||2 = 2(||x||2 + ||2/||2). Remarque 3. — On peut montrer réciproquement que si une norme vérifie cette relation, c'est une norme euclidienne (resp. hermitienne) — voir l'exercice 9. — Le théorème de la médiane est encore appelé identité du parallélogramme Procédé d'orthogonalisation de Schmidt. Nous allons construire, en partant d'une famille libre finie (e,,... ,e„) de vecteurs de E, une base orthogonale («i,... ,u„) de Vect(e1,... ,e„) telle que pour tout k, m* G Vect(e1,... ,et). On procède par récurrence. • On prend «i =6,. • On cherche u2 s°us la forme e2 + A1Z m,. On veut que «i • u2 = 0, ce qui sera réalisé si et seulement si _ "i -e2 1,1 ""INF' • Les vecteurs «i,... , m*_i étant construits, on cherche u* sous la forme ek + Altt ut + h At_ltt Ujc-i- On veut que ut ■ uk = 0 pour 1 < i < k — 1, ce qui sera réalisé si et seulement si on prend i - "»' 'e* "*~ ll-.il»- En normant les vecteurs u,-, on obtient même une base orthonormée. Remarque 4. La matrice de passage de la famille (e,) à la famille (uj) est de la forme /1 X ••• x \ 0 1 •• : P = \ 0 ••• 0 1 / ThÉorÈME 2. Sbi< E un esjmce préhilbertien (réel ou complexe) et F un s.e.v de E. Alors
238 V. Espaces euclidiens (i) F C F^ (ii) Si F est de dimension finie, on a E = F (B FL et F = FLL. Démonstration. L'assertion (i) résulte de la proposition 3 de la section 1 et la (ii) est. une application de la proposition 7 de la section 1. D Remarque 5. L'assertion (ii) reste vraie en dimension infinie si F est complet mais est fausse dans le cas général (voir l'exercice 10). projection et symétrie orthogonale. DÉFINITION 1. Soit E un espace préhilbertien et F un s.e.v de E de dimension finie. Le théorème précédent dit que F ® FL = E. — On appelle projection orthogonale sur F la projection sur F parallèlement à FL. — On appelle symétrie orthogonale par rapport à F la symétrie par rapport à F parallèlement à FL. PROPOSITION 2. Soit E un espace préhilbertien et F un s.e.v de E de dimension finie. Soit x G E etp la projection orthogonale sur F. La distance de x à F, définie par d(x, F) = infyeF H* - y\\, vérifie d(x,F) = \\x - p(x)\\. Démonstration. Soit y G F. On &x — y = (x — p(x)) + (p(x) — y). Or x — p(x) 6 Fx et p(x) — y G F, donc ||z - y||2 = ||x - p(x)||2 + \\p(x) - y\\2, donc. infy€F ||x - y||2 = ||x -p(x)\\2, d'où le résultat. D 2.3. Isométries et endomorphismes unitaires DÉFINITION 2. Soit E un espace préhilbertien et / G C(E) telle que pour tout x e E, ll/(*)ll = 11*11- — Si E est préhilbertien réel, / est appelé isométrie (on dit aussi endomorphisme orthogonal). — Si E est préhilbertien complexe, / est appelé endomorphisme unitaire. Proposition 3. Soit E un espace préhilbertien et f une application de E dans E. Alors f est une isométrie (resp. un endomorphisme unitaire) si et seulement si V(x,V)€E*, f(x).f(y) = x.y. (*) Remarque 6. Noter que la relation (*) implique la linéarité de /. Proposition 4. Si f G C{E) est une isométrie (resp. un endomorphisme unitaire) alors f est injective. Si de plus E est de dimension finie alors f est bijectwe. Proposition 5. — L'ensemble des isométries d'un espace euclidien E est un groupe (muni de la loi o de composition), appelé groupe orthogonal de E et noté G(E). — L'ensemble des endomorjihismes unitaires d'un espace hermitien E est un groupe appelé groupe unitaire de E et notéU(E).
2. Espaces préhilbertiens 239 Propriétés matricielles des isométries et des endomorphismes unitaires. Proposition 6. Soit E un espace euclidien (resp. hermitien) et f e C(E). Alors f est une isométrie (ou un endomorphisme unitaire) si et seulement si l'image d'une base orthonormale de E par f est une base orthonormale de E. Conséquence. Soit B une base orthonormale de E et / G C(E) une isométrie (resp. un endomorphisme unitaire). Si on désigne par A la matrice de / dans B (A = [/]b), alors *AA = A*A = J„ (resp. <A~A = A'Â = /„). On en déduit que det('A)det(A) = 1 = (det(A))2 (resp. det('Â)det(A) = 1 = | det(A)|2). — Si / est une isométrie, on a donc (det /)2 = 1, ou encore det / € {—1,1}. — Si / est un endomorphisme unitaire, on a | det/|2 = 1, donc | det/| = 1. DÉFINITION 3. - Si A € Af„(IR) vérifie *AA = J„, A s'appelle une matrice orthogonale. — Si A 6 Af„(C) vérifie *AA = I„, A s'appelle une matrice unitaire. — L'ensemble des matrices orthogonales de Af„(IR) constitue un groupe noté On, celui des matrices unitaires de Af„(C) est un groupe notéW„. DÉFINITION 4. — Soit / une isométrie d'un espace euclidien E. On dit que / est une isométrie directe si det/ = 1, une isométrie indirecte si det/ = — 1. — L'ensemble {/ G 0(22),det/ = 1} est un sous groupe distingué de O(E) appelé groupe spécial orthogonal de E et noté 0+(E) (on le note encore SO{E)). — Si E est hermitien, l'ensemble {/ 6 U(E), det f = 1} est un sous groupe distingué de U{E) noté SU{E). — Pour les matrices, on note également SOn = 0+ = {A e On | det A = 1} et SUn = {AeUn\ det A = 1}. L'ensemble SOn est un sous groupe distingué de On, SUn un sous groupe distingué deW„. La réduction des endomorphismes orthogonaux ou unitaires fait l'objet de la partie 3.1. 2.4. Endomorphismes adjoints DÉFINITION 5 (Adjoint). Soit E un espace euclidien (resp. hermitien) et / et g e C(E). Les endomorphismes f et g sont dits adjoints si V(x, y) e E2, f(x) y=x- g(y). (*) L'endomorphisme / étant donné, il existe au plus un endomorphisme g vérifiant (*). Lorsqu'il existe, on l'appelle adjoint de / et on le note /*. Lorsque / = /*,/ est dit autoadjoint. Remarque 7. — L'adjoint /* d'un endomorphisme / n'existe pas toujours (nous verrons cependant qu'en dimension finie, et plus généralement dans un espace hilber- tien lorsque / est continu, l'adjoint de / existe). — Lorsque /* existe, (/*)* = /** existe et on a /** = /.
240 V. Espaces euclidiens Etude en dimension finie. Notation. Nous utiliserons la notation introduite dans la partie 1.2 : si M désigne une matrice complexe, on note M* = XM sa transconjuguée. Ainsi, lorsque M est une matrice réelle, M* désignera tout simplement la transposée de M. Soit E un espace euclidien ou hermitien, B une base orthonormée de E. Soit / G C{E), M la matrice de / dans la base B : M = [/]b- On cherche un endomorphisme g qui soit l'adjoint de /. En notant N = [</]B, on voit que la relation (*) est vérifiée si et seulement si pour tous vecteurs X, Y, (MX)*Y = X*(NY) ou encore X*M*Y = X'NY. L'endomorphisme g est donc l'adjoint de / si et seulement sa matrice N dans la base B vérifie N = M. En résumé, pour tout / G C(E), f* existe et [/*]b = [f]*B. Remarque 8. - Attention, ceci n'est vrai que lorsque B est une base orthonormée de E. - Si E est euclidien, un endomorphisme / G C(E) est autoadjoint (on dit encore symétrique) si et seulement si la matrice de / dans une quelconque base orthonormée de E est symétrique. - Si E est hermitien, / est autoadjoiut si et seulement si sa matrice M dans une base orthonormée de E est hermitienne (i.e si elle vérifie XM = M). Réduction des endomorphismes autoadjoints. Nous aurons besoin de la proposition suivante. Proposition 7. Soit E un espace euclidien ou hermitien, et f € £(E) un endomorphisme autoadjoint. Si F est un s.e.v de E stable par f, alors Fx est stable par f. Démonstration. Il suffit d'écrire que VxeF.Vyef1, x •/(y) =/(x) • y = 0. D THÉORÈME 3. Soit E un esjtace euclidien (resp. hermitien) et f e C(E) un endomorphisme autoadjoint. Alors il existe une base orthonormée de vecteurs propres pour f (et de plus ses valeurs propres sont réelles). Démonstration. On procède par récurrence sur la dimension n de E. Pour n = 1, c'est évident. Supposons le résultat vrai jusqu'au rang n — 1 et, montrons le au rang n. On considère l'application $ : E —» E x i-+ x • f(x). C'est une forme quadratique (resp. hermitienne), de forme polaire ip(x,y) = x ■ f(y). Comme on est en dimension finie, la sphère unité S = {x 6 E, \\x\\ = 1} de E est compacte, et $ étant continue (toujours parce que l'on est, en dimension finie), il existe x0 G S tel que $(z0) = sup^es $(x) = A. Ceci étant, on considère la forme quadratique (resp. hermitienne) définie par #i(x) = A||x||2 — #(x). La forme $i est, positive par construction de A. Or #i(xo) = 0, i.e $i n'est, pas définie, et donc $x est dégénérée (rappelons qu'une forme positive est, définie si et, seulement, si elle est non dégénérée, voir la conséquence de l'inégalité de Schwarz, partie 1.3). La forme polaire de #i étant <pi(x,y) = x ■ g(y) avec g = Aldfj—/, la dégénérescence de #i entraîne l'existence de x ^ 0 tel que pour tout y € E, <pi(x,y) = 0 = x -g(y). L'application g n'est, donc pas surjective (x n'est pas atteint), donc non injective (g est, un endomorphisme en dimension finie), ce qui entraîne l'existence d'un vecteur norme e\ tel que g{e{) = 0 = Aei — f(e\). Autrement, dit, A G E est, valeur propre de / associée au vecteur propre e^ Posons H = (Vectei)-1-. D'après la proposition précédente, H est stable par /. La restriction de f k H étant, autoadjointe, l'hypothèse de récurrence assure l'existence d'une base orthonormée (e2,... , e„) de H qui diagonalise f\H (à valeurs propres réelles). La base (ei,... ,e„) est alors une base orthonormée qui diagonalise /, et, les valeurs propres de / sont toutes réelles. D
2. Espaces préhilbertiens 241 La version matricielle de ce théorème est la suivante. ■*■ Corollaire 1. Soit M e Mn(R) (resp. M e Mn(C)) une matrice symétrique (resp. hermitienne). Alors il existe une matrice C orthogonale (resp. unitaire) telle que ClMC = CMC = D, D étant une matrice diagonale réelle. Démonstration. On note E = E" (resp. E = C). Munissons E du produit scalaire (resp. du produit scalaire hermitien) usuel : n n (*i x„)-(yi,... ,y„) = ^2r.iyi (resp. = ^5¾). Soit / 6 £(E) dont la matrice dans la base canonique B de E est M : [/]b = M. Comme / est autoadjoint (car M est symétrique, resp. hermitienne), il existe d'après le théorème précédent une base B' orthonormée de E telle que [/]b< = D soit diagonale réelle. Si on désigne par C la matrice de passage de la base B à la base B', C est une matrice orthogonale (resp. unitaire) et C'^MC = CMC = D. D Remarque 9. On rappelle qu'une matrice symétrique (resp. hermitienne) M est positive si la forme quadratique (resp. hermitienne) X i-> X*MX est positive. Elle est dite définie positive si cette forme quadratique est définie positive. Le corollaire montre que M est positive (resp. définie positive) si et seulement si toutes ses valeurs propres sont positives (resp. strictement positives). Corollaire 2. Soit $ une forme quadratique (resp. hermitienne) sur un espace euclidien (resp. hermitien) E. Alors il existe une base orthonormée de E dans laquelle la matrice de $ est diagonale réelle. Démonstration. Soit B une base orthonormée de E et soit M la matrice de # dans la base B. La matrice M est symétrique (resp. hermitienne), et d'après le corollaire précédent, il existe une matrice C orthogonale (resp. unitaire) telle que CMC = D est diagonale réelle. La matrice C défini un changement de base orthogonal qui fait passer de la base B h une base orthonormée B', et la matrice de $ dans la base B' est D, d'où le résultat. D Remarque 10. Notez bien la différence entre ce dernier corollaire et le théorème 1 de la page 227. Ici, la base qui diagonalise $ a en plus la propriété d'être orthonormée pour le produit scalaire de l'espace E. ■*- Corollaire 3. Soient M,N deux matrices symétriques (resp. hermitiennes), telles que la matrice M soit définie positive. Alors il existe une matrice C inversible telle que CMC = J„ et CNC = D, où D est une matrice diagonale réelle. Démonstration. Sur E = E" (resp. sur E = C), l'application $ : (X,Y) i-> X*MY défini un produit scalaire, et 9 : X h-► X*NX une forme quadratique (resp. hermitienne). D'après le corollaire précédent, il existe une base B orthonormée (pour le produit scalaire ¢) telle que la matrice D de $ dans B soit diagonale réelle. En désignant par C la matrice de passage de la base canonique de E1 à la base B, on a CMC = /„ et CNC = £>, d'où le résultat. D Remarque 11. Ce dernier corollaire rend parfois de précieux services. On peut le voir comme un résultat de pseudo-réduction simultanée. Prenez garde au fait que la matrice C n'est en général pas orthogonale (ou unitaire).
242 V. Espaces euclidiens 2.5. Exercices Exercice 1 (Racine carrée d'une matrice hermitienne positive). Soit H g Af„(C) une matrice hermitienne positive. Montrer qu'il existe une unique matrice R hermitienne positive telle que H = R2. Solution. Existence. La matrice H étant hermitienne, il existe une matrice unitaire C telle que /A, 0 ••• 0 \ 0 A2 tCHC = C~1HC = 0 = D, \ « D étant diagonale réelle. Comme H est positive, tous les Xi sont, positifs donc pour tout. «', il existe /i,- > 0 tel que A,- = fi2. En posant D' = ( /'i 0 0 /«2 V o ••• 0 A„ / \-x sont, 0 \ 0 /in / on a D'2 = D de sorte que .R = CiyC*1 = CDliC est. hermitienne positive et, vérifie iî2 = CE/^CT1 = cdc-1 = H. Unicité. Soit R hermitienne positive telle que R2 = H. Soient h et r les endomorphismes de V dont i/ et. R sont les matrices dans la base canonique de C. Comme H est hermitienne, h est autoadjoint.. Ses valeurs propres Ai,... , Xp sont, positives car H est, positive. Notons Ex,, • • • , -Ea, les sous espaces propres correspondants. Comme r commute avec r2 = h, chaque E\t est stable par r (voir la proposition 7 page 164). On note r,- = r^.. On a r2 = A,- Id^., et. r,- est autoadjoint positif; toute valeur propre fi de r,- vérifie /i2 = A,-, donc /i = y/X~î est. la seule valeur propre possible de r,- (car les valeurs propres de rt, qui sont, des valeurs propres de r donc de R, sont, positives). Comme r,- est de plus diagonalisable (car autoadjoint), on en déduit, r,- = \A7ldd . Résumons. Si r2 = h, alors forcément, pour tout, «', r^ = i/X~ïld\Ex , ce qui définit, r de manière unique, d'où l'unicité de R. Exercice 2. Soit E un espace hermitien et / et g deux endomorphismes autoadjoints de C(E) tels que fg = gf. Montrer que / et g sont diagonalisables dans une base commune de vecteurs propres orthonormés. Solution. Les endomorphismes / et. g étant autoadjoints, on sait, déjà qu'ils se diagonalisent chacun dans une base orthonormée. Il nous reste à montrer que l'on peut, prendre la même base pour les deux. Notons Ai,... ,Ar les valeurs propres (distinctes) de /, Ex,,... ,E\r les sous espaces propres correspondants. Les E\i sont, deux à deux orthogonaux (pour s'en persuader, diagonaliser / dans une base orthonormée). Comme / et, g commutent, les £^ sont, stables par g. La restriction de g à E\{ étant autoadjointe, il existe une base orthonormée. fl,- de E\t diagonalisant g\Ex . Les E\t étant deux à deux orthogonaux, on en déduit, que B = fli U • • • U Br est, une base orthonormée. Cette base diagonalise g par construction ainsi que / puisque chaque vecteur e de fl,- vérifie /(e) = A,-e. Remarque. De la même manière que dans l'exercice 4 de la partie 1.6 du chapitre IV, ce résultat se généralise à toute famille (/,)ig/ d'endomorphismes autoadjoints commutant deux à deux.
2. Espaces préhilbertiens 243 Exercice 3. Soit E un espace hermitien et. / 6 £(E). a) Montrer que / est trigonalisable dans une base orthonormée de E. b) Si / et g G C(E) commutent, montrer qu'il existe une base orthonormée de E trigo- nalisant à la fois / et g. Solution, a) Nous allons donner deux moyens de procéder. Première méthode. Le corps C étant algébriquement clos, / est trigonalisable dans une base B = (ei,... , e„) de E, et donc pour tout k, /(et) G Vect(elt... , e*). Soit («i,... ,u„) la base orthonormée de Schmidt associée à B. Pour tout k, on a Vect(ui,... , «*) = Vect(ei,... , et), et donc V*,l < k<n, /(ut)e/(Vect(ei,... ,ek)) C Vect(elt... , e*) = Vect(«i,... ,ut). Ceci prouve que la matrice de / dans la base orthonormée («i,... , w„) est. triangulaire supérieure. Seconde méthode. On procède par récurrence sur la dimension n de E. Si n = 1, c'est, évident. Supposons maintenant, le résultat vrai au rang n — 1 et. montrons le au rang n. Soit A 6 C une valeur propre de /* et e un vecteur propre norme associé. Alors Vx € (Vect.e)1, /(x) • e = x ■ f*(e) = x • Ae = A(x • e) = 0, autrement dit l'hyperplan H = (Vect e)x est. stable par /. On peut, donc appliquer l'hypothèse de récurrence à /|j/, ce qui montre l'existence d'une base orthonormée (ei,... ,e„_i) de H qui trigonalise /|#. La matrice de / dans la base orthonormée (ej,... ,e„_i,e) (elle est. orthonormée car e est orthogonal à H) de E est. donc de la forme ' X • 0 0 • x X • 0 x , X X ; donc triangulaire supérieure, d'où le résultat. b) Nous allons ici aussi donner deux méthodes. Première méthode. D'après le théorème 5 de la partie 1.5 du chapitre IV (page 164), il existe une base B = (ei,... , e„) de E trigonalisant, / et. g. Pour les mêmes raisons que dans la première solution de la question a), la base de Schmidt. orthonormée associée à B trigonalise /, ainsi que g, d'où le résultat. Seconde méthode. Procédons par récurrence sur la dimension n de E. Pour n = 1, c'est évident. Supposons le résultat vrai au rang n — 1 et. montrons le au rang n. Dans une base orthonormée de E, les matrices de /* et g* sont, les transposées de celles de / et. g donc elles commutent, ce. qui entraîne que /* et. g* commutent. Il existe donc un vecteur propre e norme commun à /* et g*. Pour les mêmes raisons que dans la deuxième solution de la question a), H = (Vect e)x est un hyperplan de E stable par / et g. Comme f\jj et <7|j/ commutent, l'hypothèse de récurrence entraîne l'existence d'une base orthonormée (ei,... ,en-i) de H trigonalisant /|# et. g\H. Il n'est alors pas difficile de voir que la base (ci,... ,e„_i,e) est orthonormée et. qu'elle trigonalise / et g. Remarque. De la même manière qu'à l'exercice 4 de la'partie 1.6 du chapitre IV (page 170), le résultat b) se généralise à une famille quelconque (/,),g/ d'endomoiphismes commutant deux à deux. ■*- Exercice 4 (Caractérisation des matrices positives). Soit M = («,-,j)i<,,j<„ e ,M„(IR) une matrice symétrique. a) Pour tout k 6 {1,... ,n}, on note M* = (a,j)i<.j<t € -Mt(E). Montrer que M est définie positive si et seulement si pour tout k g {1,... , n}, det M* > 0.
244 V. Espaces euclidiens b) Pour tout I C {1,. • • ,n}, on note M/ = (a,^-)^-^/». Montrer que M est une matrice positive si et seulement si pour tout I, det M/ > 0. Solution, a) Condition nécessaire. Soit q la forme quadratique dont M est la matrice dans la base canonique (ei,... , e„) de E". Pour tout k, M* est la matrice de la restriction de g à Vect(ei,... ,et). Cette restriction est, comme q, définie positive, donc M* est une matrice définie positive, d'où on tire det M* > 0, et ceci pour tout k. Condition suffisante. Raisonnons par récurrence sur n 6 N*. Pour n = 1, c'est évident. Supposons le résultat vrai jusqu'au rang n — 1 et montrons le au rang n. Notons H = Vect(ei,... , en-\). D'après l'hypothèse de récurrence, la restriction q\jj de q à H est définie positive. Il existe donc une base (e'lt... ,e'„_l) de H orthonormée pour q\n, de sorte que dans la base (e[,... ,e'n_lten) de E", la matrice de q est de la forme \ / 1 0 V «i • 0 î • «n-l ai ' «n-l «n y On cherche maintenant un vecteur e'n de la forme e'n = e„ + 5T"=i A,-eJ qui soit g-orthogonal aux e't (1 < «' < n — 1). Notons <p la forme polaire de q. On a ^>(e;,e„) = 0 si et seulement A,- = — <p(e'i,e„) = —«j. Ceci montre qu'en choisissant e'„ = e„ — Y17=i aieo la base (e'lt... ,e'n) est g-orthogonale. Dans cette base, la matrice de q est de la forme P = ( 1 0 0 \ / Le signe de det P est celui de det M, c'est à dire det P > 0, donc a > 0, ce qui prouve que q est définie positive. La matrice M est, donc définie positive. b) Condition nécessaire. On désigne toujours par q la forme quadratique de E" dont M est la matrice dans la base canonique (ei,... , e„) de E". Pour tout /, M/ est la matrice de la restriction de g à Vect(ej),-e/, qui est positive. La matrice M/ est donc positive, ce qui entraîne det M/ > 0. Condition suffisante. Commençons par montrer Vx > 0, det,(M + xl„) > 0. (*) On sait que det(M + x.In) = x" + Ax""1 + • • • + /?„_!X + /?„, où pour tout «', fii est la somme des mineurs principaux d'ordre «', i.e Pi = ]Ccard/=i ^e' Ml > 0. La positivité des /î,- entraîne alors (*). On applique maintenant le résultat, (*) à chacune des matrices Mk (on peut, les hypothèses sont vérifiées), ce qui donne Vx > 0,V* € {1,... , n), det(Mt + xlk) > 0. En appliquant le résultat de la question a), On en déduit que pour tout r > 0, la matrice M + xl„ est définie positive. Autrement dit, pour tout r > 0, on a VX G E", *X(M + xIn)X > 0. En fixant X et en faisant tendre r vers 0, cette inégalité entraîne *XMX > 0, et ceci pour tout X G E", donc M est positive. Remarque. Le résultat de la question a) peut s'avérer utile ; il est donc souhaitable de savoir le redémontrer.
2. Espaces préhilbertiens 245 Exercice 5. a) Soit une application continue M : [0,1] -► Af„(») 11-> M(<) = [aij(0]i<«,i<n, telle que pour tout t G ]0,1[, M(t) est symétrique définie positive. Montrer que la matrice A = ( M(t)dt= ( [ Oij(t)dt) est symétrique définie positive. b) Application. Montrer que la matrice est définie positive (on pourra utiliser le résultat de la question a) de l'exercice précédent). Solution, a) Il est clair que A est symétrique. Maintenant réfléchissons. Une somme finie de matrices (Mi)i<,-<p symétriques définies positives est définie positive. Pour cela, il suffit d'écrire que pour tout vecteur colonne X ^ 0 de E" Vi, *XMiX > 0 donc j^ *XMiX = *X(]>3 Mi)x > °- «=i «=i Ceci étant vrai pour tout X ^ 0, on a prouvé que J^t- M,- est définie positive. - Ici, on a affaire non pas à une somme finie, mais une somme continue. On procède de la même manière. Fixons un vecteur colonne X de E", X ^ 0. Pour tout t 6 ]0,1[, on a *XM(t)X > 0, donc par continuité de t i-* iXM(t)X, I *XM(t)X dt > 0 ou encore ' X ( j M(t) dt\ X = *XAX > 0. Ceci étant vrai pour tout X ^ 0, A est définie positive. b) On remarque que l = /\lWI,ft 1 + 1«'"il l D'après a), le résultat sera prouvé si on montre que pour tout t € ]0,1[, la matrice symétrique M(t) = (t''~^)i<i,j<n est définie positive. Pour tout f, 1 < r < n, on pose Dr(t) = det(t^~^)i<ij<r. Nous allons prouver que Dr(t) = (1 — t2)r~l ce qui prouvera, en vertu de la question a) de l'exercice précédent, que M(t) est définie positive pour t 6 ]0,1[. On procède par récurrence sur r. Pour r = 1, c'est évident. Supposons le résultat vrai au rang r et montrons le au rang r + 1. On écrit Dr+i(t) = r-1 '•• -1 1 t r r-1 t i = i t r-1 tr t i r-1 0 1-i2 = (l-t*)Dr(t) (on a retranché t fois l'avant dernière colonne à la dernière, puis on a développé par rapport à la dernière colonne), d'où le résultat.
246 V. Espaces euclidiens —*■ Exercice 6 (Décomposition polaire). Soit A e -M„(C)- Montrer qu'il existe un couple de matrices (U, H), U étant unitaire et H hermitienne positive, tel que A = UH. Si A est inversible, montrer que le couple (U,H) ainsi défini est unique. Solution. C'est très classique. Existence. Si A = UH, alors A* = HU~l donc A*A= H2 (on rappelle que la notation A* désigne la matrice *A). Nous allons par conséquent commencer par chercher une matrice hermitienne H vérifiant A*A = H2. La matrice A*A est hermitienne car (A* A)* = A* A** = .4M. Par ailleurs, pour tout vecteur colonne X, on a X*(A*A)X = (AX)*AX = \\AX\\2 > 0 (||. || désignant la norme hermitienne standard sur C ), ce qui prouve que .4M est positive. D'après l'exercice 1, il existe donc une matrice hermitienne H positive telle que .4M = H2. Supposons maintenant A inversible. Alors H est inversible, et en posant U = AH~l, on a U*U = H-1 A*AH'1 = In, donc U est. unitaire et A = UH, d'où l'existence. Si A n'est pas inversible, c'est un peu plus délicat. Nous allons donner deux méthodes, la première étant de nature constructive, la seconde de nature topologique. Première méthode. Notons a et h les endomorphismes de C dont les matrices dans la base canonique de C sont A et H. Comme «*a = h2 avec h autoadjoint, on a Vz € C\ ||a(x)||2 = a(x) • «(x) = x ■ «*«(x) = x ■ h2(x) = h(x) ■ h(x) = \\h(x)\\2, donc Ker h = Ker«. Ceci entraîne dim(Im«)-L = dimKer/i, de sorte qu'il existe un isomorphisme unitaire Mo envoyant Ker h sur (Ima)^. En diagonalisant h autoadjoint, on s'aperçoit que /i|imA est un isomorphisme envoyant Im/i sur lui même, et que (Ker/i)-1- = Im/t. On définit maintenant l'endomorphisme u par Vxelm/i, *(*) = «°ftfiJnh(!c) Vx € Ker /», «(x) = u0(x) On a ainsi a = u o h, car Vx 6 Im/i, u o h(x) = a(x) Vx 6 Ker h, u o h(x) = 0 = a(x) Il nous reste à montrer que u est unitaire. Pour cela, donnons nous un vecteur y, et écrivons y = j/(, + z, yQ 6 Im/i, z 6 Ker h. Soit x 6 Im/i tel que yQ = h(x). Alors u(y) = u(/i(x)) + u(z) — a(x) + Uo(z), et comme Uq{z) 6 (Im«)x, IK»)II2 = IK*)II2 + IM*)II2- Par construction de u0, on a ||u0(.z)|| = ||z||. Par ailleurs, ||a(z)||2 = a(x) • «(x) = x • «*«(x) = x ■ h2{x) = h(x) ■ h(x) = \\h(x)\\2 = \\y0\\2, donc finalement IKy)ll2 = IWI2 + lkll2 = ||y||2. Notons U la matrice de u dans la base canonique de C. On a « = « o h donc A = UH, avec U unitaire, d'où le résultat. Seconde méthode. L'ensemble des matrices inversibles étant, dense dans M„(C) (voir la proposition 2, page 181), on peut écrire A comme une limite de matrices inversibles (Ap)pçtt. Le cas A inversible nous permet d'affirmer que pour tout p 6 N, il existe deux matrices Up unitaire et Hp hermitienne positive telles que Ap = UpHp. L'ensemble des matrices unitaires étant compact (c'est un fermé borné de Mn(C), fermé comme image réciproque de {/„} par l'application continue U *-> U*U, borné car tous les vecteurs colonnes d'une matrice unitaire sont de norme 1), il existe une sous suite (^(p)) de (Up) qui converge. Notons U sa limite (U est. unitaire) et. H = U* A. Pour tout p, Hyfj,) = U*, -.A est. hermitienne positive, et. en passant à la limite lorsque p —♦ +00, on en conclue que H = U*A est hermitienne positive (en effet, une limite H de matrices hermitiennes positives (Hp) est clairement, hermitienne, et. positive car pour tout X 6 C fixé, on a X*HpX > 0,
2. Espaces préhilbertiens 247 donc X* HX > 0 — faire tendre p vers l'infini — et ceci est vrai pour tout X). Finalement, on a A = UH avec U unitaire et H hermitienne positive. Unicité (lorsque A est inversible). D'après l'exercice 1, il existe une unique matrice H hermitienne positive telle que A* A = H2 (rappelons que A*A est hermitienne positive), ce qui prouve l'unicité de H, donc de U car U = AH~l. Exercice 7 (Décomposition d'Iwasawa). a) Soit A e M„(C) une matrice hermitienne définie positive. Montrer qu'il existe une unique matrice triangulaire supérieure T à coefficients diagonaux positifs, telle que A = T*T. b) Soit A € Mn(C) une matrice inversible. Montrer qu'il existe un unique couple de matrices (U, T), avec U unitaire et T triangulaire supérieure à coefficients diagonaux positifs, tel que A = UT. Solution, a) Comme A est. hermitienne définie positive, A est la matrice d'un produit scalaire hermitien dans la base canonique B = (c\,... , c„) de C. Écrire A = P*P, c'est dire que P est la matrice de passage d'une base B' orthonormée pour ce produit, scalaire à la base B. U s'agit par conséquent de déterminer les bases B' = (e[,... , e'n) orthonormées pour ce produit scalaire telles que la matrice de passage P de B' à B soit triangulaire supérieure et à coefficients diagonaux positifs, ce qui s'écrit V*€{l,...,n}, ( VectW ei) = Vect(e,,...,et) Le procédé d'orthonormalisation de Schmidt assure l'existence et l'unicité d'une telle base, d'où l'existence et l'unicité de T. b) Comme on l'a vu à l'exercice précédent, la matrice A*A est hermitienne positive. Commet est inversible, A* A est inversible, et. c'est, donc, une matrice hermitienne définie positive. D'après la question a), il existe une matrice T triangulaire supérieure à coefficients diagonaux positifs telle que A*A = T*T. Soit U = AT~l. Alors VU = (V^A+AT-1 = I. Donc U est unitaire et A = UT, d'où l'existence du couple (U,T). Unicité. Si A = UT, alors A*A = T*T, donc d'après a), T est. déterminée de façon unique; il en est de même pour U = AT~l. Remarque. On peut montrer que le résultat reste vrai lorsque A n'est pas supposée inversible, mais il n'y a plus unicité du couple (U, T). (On peut par exemple procéder en utilisant des critères de nature topologique comme dans la seconde méthode de la preuve de l'existence dans l'exercice précédent). Exercice 8. On définit la norme euclidienne standard || • ||2 sur M" par : VA" = ( : J € »", \\X\\2 = y/x{ + ■ • ■ + xl = y/WX. On norme ensuite Mn{*) en posant, pour tout A e M„(U), \\A\\2 = supi^n^, ||AA"||2. Montrer que ||A||2 = \/p(A*A), où p(A*A) = sup{|A|, A valeur propre de A*A). Solution. On remarque déjà que pour tout. X 6 E", ||A"||2 = VX*X, de sorte que \\A\\l= sup (,4^)^^-= sup X*{A*A)X. ||X||3 = 1 ||X||3 = 1 La matrice A* A est symétrique positive (c'est toujours pareil, elle est symétrique car (^4*^4)* = A*A" = A* A, positive car VA" e E", X*(A*A)X = (AX)*AX = \\AX\$ > 0). Il existe donc une
248 V. Espaces euclidiens matrice orthogonale P telle que / Aj 0 A* A = P~lDP = P*DP, avec D = \ 0 A„ les A; étant positifs (car A*A est positive). On a ||1= sup X*(P*DP)X= sup (PXyD(PX). II*IU=1 11*113=1 L'application X i-> PX étant une isométrie de E", ceci s'écrit aussi |L4||2= sup Y*DY. (*) imi=.=i Soit Y = [ : € E" tel que ||y||2 = 1. Alors o < y*dy = £ W < p(D) J2vf = P(D), . = 1 i=l donc d'après (*), ||^4.||2 < p(D). Or, si k est choisi tel que A* = |At| = p(D), alors Y désignant le fc-ième vecteur de la base canonique de E", on a \\Y\\-2 = 1 et Y*DY = Ai = p(D). Finalement, on a montré ||A||2 = p(D), et comme A*A et D sont semblables, p(D) = p(A*A), d'où le résultat. EXERCICE 9. Soit E un E-espace vectoriel norme et vérifiant V(z, y) € E\ \\x + y\\2 + \\x - y\\2 = 2\\x\\2 + 2\\y\\\ (*) Montrer que E est préhilbertien réel (i.e la norme est issue d'un produit scalaire). Solution. Il s'agit de montrer qu'il existe un produit scalaire (x, y) >-+ <p(x, y) sur E tel que pour tout x e E, <p(x, x) = ||x||2. On raisonne par conditions nécessaires. Si un tel produit scalaire existe, alors Vx,y€ E, 4ip(x,y) = <p(x + y, x + y) - <p(x - y,x - y) = \\x + y\\2 - \\x - y\\2. On définit donc <p par <p: ExE-*M (x,y)^i||x + y||2-i||x-?/||2. Nous allons montrer que ij> = 4<p est un produit scalaire, ce qui montrera le résultat pour <p. Montrons que ij> est bilinéaire. Comme i/j est symétrique en ses arguments, il suffit de démontrer la linéarité pour l'un d'entre eux, par exemple le premier. - Montrons que r/j est additive par rapport à son premier argument. Pour tout x, y, z 6 E, on a 2(V(x, z) + 1>{y, z)) = (2||x + z\\2 + 2||y + z\\2) - (2||x - z\\2 + % - z\\2) et par (*) = ||x + y + '2z\f + \\x - y\\2 - ||x + y - '2z\f - ||x - y||2 = 4>{x + y, '2z). Posons alors xo = x + y : V(x0, 2z) = ||x„ + 2z||2 - ||x„ - 2z||2 = (||x„ + 'Lztf + ||x„||2) - (||x„ - 2z||2 + ||x(l||2) = (2||x„ + z\\2 + 2||z||2) - (2||x„ - z||2 + 2||z||2) = 2V(x„, z). Finalement, on a 2(V-(x, z) + xp(y, z)) = rl)(xu, ê2z) = '2i/>(x0, z) = 2xp(x + y, z)
2. Espaces préhilbertiens 249 donc V(x, z) + V-(y, z) = i/j(x + y, z). (**) - Il nous reste à montrer que pour x, z 6 E et A 6 E, V"(Ax, z) = AV>(x, z)- C'est classique ! - Si p € N*, alors V(px,z) = V>(x + ■■■ + x,z) = p V>(x,z) d'après (**). Or V(0,z) = 0 = V>(x — x, z) = i/j(x, z) + i/j(—x, z), donc ip(—x, z) = —i/j(x, z). Finalement, pour tout p € Z, i/j(px,z)=pi/j(x,z). - Soit î€N*. Alors r(>(x,z) = Mq ■-x,z) = qr(>(-x,z) donc ip(-x,z) = - ip(x,z). 11 11 - Pour tout r 6 Q, r = *, on a ■4>{rx,z) = ip(p- -x, z) = pi/j(-x, z) = p - i/j(x, z) = ri/j(x,z). (***) Par construction, ip est continue, et comme Q est dense dans E, (***) entraîne VA € E, V(Ax, z) = AV>(*, ■*)■ (****) Les relations (**) et (****) assurent la bilinéarité de r/j. Comme r/j est symétrique et définie positive (on a 4>(x, x) = 4||x||2), xp définit bien un produit, scalaire. Il en est donc de même de tp = ^i/j, et comme ||x||2 = ^>(x,x), || • || est bien une norme euclidienne. *- Exercice 10 (Projection orthogonale dans un espace préhilbertien réel). E désigne un espace préhilbertien réel et F un s.e.v de E. 1/ Pour tout x 6 E, on note F, = {y € F, \\x - y\\ = d(x, F) = inf ||x - z\\}. zçr a) Montrer que y € Fx si et seulement si x — y € FL. b) Montrer que Fx a au plus un élément. 2/ On suppose ici que F est complet. a) Pour tout x € E, montrer que Fx a exactement un élément. On le note xF. b) Montrer que F @FL et que x t-> Pf(%) = %f s'identifie à la projection orthogonale sur F. c) Montrer que F = FLL. 3/ On considère ici E = C([0,1],E) (fonctions à valeurs réelles continues sur [0,1]), muni du produit scalaire (f\9)= f f{i)g{t)dt. Soit F = {/ €E, /(0) = 0}. Que représente FL ? Conclure. Solution. 1/ a) Condition nécessaire. Soit y Ç Fx. Posons z = x — y et considérons w 6 F. Pour tout p 6 E, on a \\z + pw\\ > ||z|| car z + pv> = x — (y — pw) et y — pw 6 F. On réécrit ceci en Vp € E, \\z + pw\\2 = \\z\f + 'lp{z ■ w) + p2\\w\\2 > \\z\\2. Cette inégalité exprime que la fonction p i-+ ||z||2 + 2p(z ■ w) + p'WwW2 atteint, son minimum en p — 0, donc sa dérivée par rapport à p en 0 est nulle, ce qui s'écrit z ■ w = 0. Ceci étant, vrai pour tout w Ç F, on en déduit que z = x — y € F^. Condition suffisante. Soit y Ç E tel que x — y Ç Fx. On a Wz€F, ||x-z||2 = ||(x-y) + (?/-z)||2 = ||x-y||2 + ||z-y|r2 (*) (car x — y 6 Fx et z — y Ç F). La relation (*) entraîne ||x — y|| = inf^gF ||x — z\\, donc y 6 Fx.
250 V. Espaces euclidiens b) Supposons que Fx ait deux éléments y et z. Alors x — y et x — z 6 Fx d'après a), et donc y- z = (x- z)-(x-y) € Fx. Or y-z € F. CommeFflF1 = {0}, on en déduit y- z = 0, d'où le résultat. 2/ a) L'idée est d'utiliser le fait que F soit complet. Nous allons construire une suite de Cauchy, et montrer que sa limite vérifie la condition requise. Soit S = infjgF \\x — z\\. Par définition de S, il existe une suite (y„)„eN de points de F telle que limn-oo \\x - yn\\ = S, et donc limn-oo ||x - y„||2 = S2. Dans un e.v.n général, cette relation n'entraîne pas la convergence de (y„). C'est le caractère préhilbertien de E qui va nous permettre de montrer qu'elle converge. Nous allons pour cela montrer que (y„) est une suite de Cauchy. Nous allons utiliser le théorème de la médiane (voir le théorème 1) : Vp,g€N, ||yP-yî||2 + ||(x-yP) + (x-yî)||2 = 2||x-yp||2 + 2||x-yî||2, donc 2 |2 _ o||_ .. I|2 , oi|_ .. M2 ||3/p-3/î||^ = 2||x-yp||2 + 2||x-»,||J -4 Soit e > 0. Il existe N 6 N tel que pour tout n> N, \\x — y„\\2 < S2 + e, donc , yp + Vi 2 Vp, g > N, \\yp - t/,112 < 2(*2 +e) + '2(S2 + e)-4 2 Or 2*±2* € F, donc ||x - ^^^H > 6, d'où Vp, q > N, \\yp - y,\\2 < 2(62 +e) + 2(62 + e) - A62 = 4e. Ceci suffit à prouver que (y„) est une suite de Cauchy. Comme F est complet, cette suite converge vers une valeur y 6 F. La continuité de la norme assure le fait que ||x — y|| = lim„_oo ||x — y„|| = S, donc y € Fx. L'ensemble Fx est donc non vide, et a donc un seid élément d'après 1/ b). b) On sait que F (~l Fx = {0}. Il reste à montrer E = F + Fx, ce qui découle du fait que pour tout x 6 E, x = xf + (x — xf) avec xf € Fx C F et. x — xf € Fx d'après 1/ a). Pour tout x 6 E,\& décomposition de x selon F © Fx est x = xp + (x — xf), ce qui prouve que x h-► xf est la projection orthogonale sur F. c) On sait que F C Fxx. Il reste à montrer F11 C F. Soit x € Fxx. Comme F © Fx = E, il existe (y, z) 6 F x Fx tels que x = y + z. Or z 6 Fx donc Q = xz = y-z + \\z\\2 = \\z\\2, donc z = 0, donc x = y € F. Finalement, on a montré. F = Fxx. 3/ Nous allons montrer que Fx = {0}. Soit / 6 Fx. Soit jr : x i-+ x/(x). On a jr 6 F, donc (/1-7)= / x/2(x)rfx = 0. Comme x h-► x/2(x) est continue et positive, ceci entraîne que pour tout x € [0,1], x/2(x) = 0, donc pour tout x 6 ]0,1], /(x) = 0, donc / = 0 car / est continue. On a donc F^F^ ^ E, ce qui montre que le résultat 2/ b) est, faux lorsque F n'est pas supposé complet. Remarque. Ces résultats font des espaces hilbertiens (espaces préhilbertiens complets) des espaces vectoriels très maniables, même en dimension infinie. Une étude plus approfondie de ces espaces fait l'objet d'une annexe au tome d'analyse. Exercice 11 (Produit de Schur de deux matrices). Soient A = (a,iJ)1<,iJ<„ et B = (^«',j)i<«',j'<n ^ M„(M) deux matrices symétriques. On définit le produit de Schur de A et B comme étant la matrice symétrique A o B = (aijbitj)i<i,j<n- a) Si A et B sont positives, montrer que la matrice A o B est positive.
2. Espaces préhilbertiens 251 b) Si de plus A et B sont définies, montrer que A o B est définie. c) Si i4 est positive, montrer que la matrice E — (eai,,")i<,j<„ est positive, et qu'elle est définie si A est définie. Solution, a) On montre d'abord le résultat lorsque rg^4 = rgfl = 1. La signature des formes quadratiques X >-+ X*AX et X >-* X*BX est (1,0), donc il existe deux formes linéaires f(X) = Ê"=l *i*i et 9(X) = £"=1 KXi telles que X*AX=f(X) et X*BX = g'i(X). En développant /2 et g2, on s'aperçoit, alors que A — (^i^j)i<i,j<n et B = (A*iAfj)i<«',.;'<"■ Donc .A o B = [(A,-jJ,-)(Ajjf,-)]i<,-j-<„, donc cette matrice est positive car n X*(.4 o B)X = h\X) > 0 avec h(X) = ^(A,A*,)^- •=i Traitons maintenant le cas général. L'entier r désignant le rang de A, on peut écrire r X*AX = YdMXf, 1=1 où /i,... ,/P sont des formes linéaires indépendantes (ceci parce que la signature de A est (r,0)). Pour tout «', 1 < i < r, notons Ai la matrice de la forme quadratique /?, de sorte que A"*.A,-A" = f'i(X). Les matrices ^4,- sont symétriques positives et de rang 1 (leur signature est (1,0)) et A = ]C;=i -A{. On écrirait de même B sous la forme fl = Yij=i fy ou * = rgfl et où les Bj sont des matrices symétriques positives de rang 1. Donc AoB = 2^{ • Ai »Bj, somme de matrices positives, est positive. b) Les matrices A et B étant définies positives, on peut écrire n n X*AX = YdïHX) «t X*BX = J29](X), .=i i=i où les formes linéaires (/;)i<,-<„ sont linéairement, indépendantes, ainsi que les (gj)i<j<n- Si on note n n /*(*) = !>*,.*.• «* </<(*) = !>,;*;> .•=1 i=i les matrices des formes quadratiques f\ et, g'j sont At = (^Jt.iAjt,j)i<j,y<n et fl< = (ni,iHi,j)\<ij<n, et on a A = Z!i=i-^t et ^ = !C"=i^<- Ainsi, ^4 o B = J2klAk o Bi. Maintenant, l'égalité X*(A o B)X = 0 entraîne J2t i X*(Ât o Bi)X = 0, et les matrices ^4¾ o Bi étant positives, b,/, X*(AkoBi)X = 0=rf2Xk^t<iXij . V*,/, A* (.4* o fl,)A = 0=(^ Ati,Wiin ) . (*) Fixons /. L'égalité (*) entraîne n VA,^Atii(/i<,,x,) = 0, i=i et les n formes linéaires (/t)i<t<„ étant linéairement indépendantes, ceci entraîne /ii^Xi = 0 pour tout i, et par sommation gi(X) = 0. Ceci étant vrai pour tout /, comme les formes linéaires (9i)i<Kn sont linéairement indépendantes, on a nécessairement X = 0, ce qui prouve que A o B est définie. c) En utilisant le résultat de la question a), on a facilement par récurrence sur m 6 N que la matrice Am = («ij)i<«,j<n est positive. Maintenant, pour tout entier M positif, on a (M \ M . VA € R", X* Y. —,Am \X=Yt —.X*AmX > 0. \ *—' m! / *—' m! \m=0 / m=(l
252 V. Espaces euclidiens En passant à la limite lorsque M tend vers l'infini, on obtient X* EX > 0, et ceci pour tout X, ce qui prouve que E est positive. Si de plus A est définie, alors E est définie car VX^O, X* EX > X* AX > 0. 3. Compléments de cours Cette section propose quelques études complémentaires très classiques, et souvent utiles dans les exercices ou les problèmes. 3.1. Réduction des isométries et des endomorphismes unitaires Nous allons voir que les isométries (resp. les endomorphisme unitaires), bien que n'étant pas des endomorphismes autoadjoints, se diagonalisent sympathiquement dans une base orthonormale. Nous commençons par les isométries. Proposition 1. Soit E un espace euclidien (resp. hermitien) et u € £{E) une isométrie (resp un endomorphisme unitaire). Si F est un s.e.v de E stable par u, alors FL est stable par u. Démonstration. Il s'agit de montrer que pour tout x € F1- et pour tout y € F, u(x)y = 0. Comme U|f est une isométrie, u\F est bijective (on est en dimension finie), donc il existe j/ € F tel que y = u(t/). On a maintenant u(x) ■ y = u(x) ■ «(t/) = x ■ v/ = 0. Ceci étant vrai pour tout x 6 Fx et pour tout ;/ 6 F, Fx est bien stable par u. O Réduction des isométries. THÉORÈME 1. Soit E un espace euclidien et m € C(E) une isométrie. Alors il existe une base orthonormale B de E dans latjuelle la matrice de u a la forme ( £i \ Mb = 0 Rel (*) où pour tout i, £i € {—1,1} et pour tout j, 3 \ smdj cosdj ) Rg R». I 0j € M, 0j ^ 0 (mod n). Démonstration. On procède par récurrence sur n = dimE. Pour n = 1, c'est évident. Supposons le résultat vrai jusqu'au rang n — 1 et montrons le au rang n. Nous traitons deux cas. Premier cas. L'isométrie u admet au moins une valeur propre réelle e. Soit x un vecteur propre associé. On a ||u(x)|| = ||£x|| = \e\ \\x\\ et comme ||u(x)|| = ||x||, \e\ = 1. De plus £ e E, on en déduit alors £ 6 {—1,1}. Maintenant, comme F = Vec.t(x) est stable par u, Fx est stable par u d'après la proposition 1. En appliquant, l'hypothèse de récurrence à uiF±, on trouve une base orthonormale flo de Fx dans laquelle la matrice de U|Fx a la forme (*). En ajoutant x a la base Bu, on obtient une base orthonormale B de E dans laquelle la matrice de u a la forme (*).
3- Compléments de cours 253 Second cas. L'isométrie u n'a aucune valeur propre réelle. On considère l'endomorphisme v = u + u*. Comme v est symétrique, v admet une valeur propre réelle A associée à un vecteur propre x. On a (u + u*)(x) = Ax donc u(u + u*)(x) = u2(x) + x = Au(x), d'où u2(x) = Au(x) — x (**)• Par ailleurs, la famille (x, u(x)) est libre puisque u n'admet pas de valeur propre réelle. En posant F = Vect(x, u(x)), on voit que dimF = 2 et que F est stable par u (d'après (**)). Soit N = I , , 1 la matrice de u\F dans une base orthonormale B\ de F. Comme u\F est, une isométrie, N*N = ïn = NN*. Parmi les équations issues de ces égalités, on trouve a1 + i2 = a2 + c2 = 1 et ab + cd = 0. (**) La première assertion de (**) entraîne c = ±b. On ne peut pas avoir c = b car N serait symétrique ce qui est impossible car u n'admet pas de valeur propre réelle. Donc c = — b ^ 0, et d'après la deuxième assertion de (**), d= a. Comme de plus a2 + i2 = 1, il existe 6 6 E tel que a = cos 6 et b = sin 6. Finalement, la matrice N est, de la forme r — ( cos" sinô \ K)- y -sinô cos0 ) ' Maintenant, d'après la proposition 1 le s.e.v F"1- est, stable par u, et, uiF± est, une isométrie donc il existe d'après l'hypothèse de récurrence une base ort.honormale fl(> de F^ qui diagonalise u<F±. La base B = Bq U B\ est, orthonormale et, dans cette base, la matrice de u a la forme voulue, d'où le théorème. □ Remarque 1. On retrouve ainsi la forme des isométries du plan et de l'espace : — Les isométries directes du plan sont des rotations d'angle 0 (elles ont pour matrice Re = ( _c°fn'# cô"»))) les isométries indirectes des symétries par rapport a des droites (matrice ( J i'i))- Notez d'ailleurs l'utile relation ReRe, = Re+e1, <l'ii entraîne la commutativité des rotations dans le plan. — Les isométries directes de l'espace sont des rotations d'angle 9 autour d'un axe . / cos9 sinfi 0\ , . (matrice I -sine cose o j, le dernier vecteur de la base étant 1 axe de rotation), Lorsque 0 = ir, on parle de retournement. , . / cos9 si,,e ° \ Les isométries indirectes de 1 espace ont pour matrice ( -sine cose o ]. Lorsque 6 = 0, on a affaire à une symétrie par rapport à un plan et on parle alors de reflexion. Remarque 2. La version matricielle de ce théorème est la suivante. Soit M € Af„(IR) une matrice orthogonale. Alors il existe une matrice orthogonale P telle que P~lMP = P*MP ait la forme (*). Réduction des endotnorphistnes unitaires. THÉORÈME 2. Soit E un esjmce liermitien et u € £{E) un endomorphisme unitaire. Alors il existe une base orthonormale qui diagonalise u, et toutes les valeurs propres de u ont leur module égal à 1. Démonstration. La preuve est, plus simple que la précédente. Il est d'abord clair que toute valeur propre A de u vérifie |A| = 1, car si «(x) = Ax avec x ^ 0, on a ||x|| = ||u(x)|| = |A| ||x||. On procède ensuite par récurrence sur n = dimE. Le cas n = 1 est, trivial, et, le passage du rang n— 1 au rang n se fait comme suit,. Le corps de base C étant, algébriquement, clos, u admet, au moins une valeur propre complexe A. Soit x un vecteur propre associé, ||x|| = 1. La droite F = Vect(x) est, stable par u, donc d'après la proposition 1, l'hyperplan F^ est, également, stable par u. L'endomorphisme u<Fx est, unitaire, et, d'après l'hypothèse de récurrence, il existe une base ort.honormale Bu de F^ qui diagonalise mFx.
254 V. Espaces euclidiens / e*"' 0 V 0 \ e"- ) En ajoutant x à Bo, on obtient, une base orthonormale de E qui diagonalise u et le théorème est prouvé. □ Corollaire 1 (Version matricielle). Soit U € M„(C) une matrice unitaire. Alors il existe une matrice unitaire P telle que P-1UP = P*UP = où les 9i sont des nombres réels. 3.2. Endomorphismes normaux Les endomorphismes normaux généralisent les endomorphismes autoadjoints. Comme nous allons le voir, ils sont caractérisés par la propriété de diagonalisation dans une base orthonormée. Dans cette section, sauf mention explicite, E désigne un espace hermitien (on rappelle qu'un espace hermitien est nécessairement de dimension finie). DÉFINITION 1. Soit u € C(E). On dit que u est normal si u et u* commutent. Une matrice M € Af„(C) est dite normale si M et M* commutent. Proposition 2. Soit u € C(E) un endomovphisme normal. Alors pour tout x € E, \\u(x)\\ = \\u*(x)\\. Démonstration. Il suffit d'écrire que Vx € E, \\u(x)f = u(x) ■ u(x) = x ■ u*[u(x)] = x ■ u[u*(x)] = u*(x) ■ u*(x) = |K(x)||2. Nous allons montrer qu'un endomorphisme est normal si et seulement s'il se diagonalise dans une base orthonormée. Les quelques résultats qui suivent nous serviront de préliminaires à la démonstration de ce théorème. LEMME 1. Soit u € C(E) et F un s.e.v de E stable par u. Alors FL est stable par u*. Démonstration. Soit x € F. Par hypothèse, u(x) € F donc VySF1, (i = u(x)y = xu*(y). Ceci étant vrai pour tout x 6 F, on a u*(y) 6 F1-. Or on peut choisir y comme l'on veut dans Fx, et donc Fx est stable par u*. O Remarque 3. Notez que ce résultat n'est pas spécifique aux endomorphismes normaux. LEMME 2. Soit u € £(E) un endomorphisme normal. Si Ex est un sous espace propre de u (associé à une valeur propre X), alors E^ est stable par u. Démonstration. Comme u et u* commutent, Ex est stable par u* (voir la proposition 7 de la partie 1.5 du chapitre IV, page 164), donc d'après le lemme 1, E^ est stable par (u*)* = u. D Nous pouvons maintenant énoncer et démontrer notre résultat principal. THÉORÈME 3. Soit u € £{E). Les assertions (i), (U) et (iii) sont équivalentes. (i) u est normal. (ii) m se diagonalise dans une base orthonormale de E. (iii) u et u* se diagonalisent dans une base orthonormale commune.
3. Compléments de cours 255 Démonstration. Nous montrerons (i) => (ii), (ii) =*■ (iii) et, (iii) => (i). - (i) => (ii). On procède par récurrence sur n = dimE. Pour n = 1, c'est évident. Sinon, supposons le résultat vrai jusqu'au rang n— 1 et montrons le au rang n. Le corps de base de E est C, donc u admet au moins une valeur propre A. Soit Ex le sous espace propre correspondant. Le sous espace F = E£ est stable par u (lemme 2) et par u* (lemme 1). Comme u\F et ("|f)* = («*)|F commutent et que dimF < n— 1, il existe d'après l'hypothèse de récurrence une base orthonormale B\ de F qui diagonalise u\F. Si maintenant B-i désigne une base orthonormale de Ex, on voit, que B = B\ U B? est une base orthonormale de E diagonalisant, u. - (ii) => (iii). Soit, B une base orthonormale diagonalisant, u, M la matrice de u dans B. La matrice de u* dans B est M* ■ La matrice M est, diagonale donc M* est diagonale, ce qui entraîne que la base B diagonalise u et u*. - (iii) => (i). Soit B une base orthonormale diagonalisant u et u*. Les matrice M = [u]b et M* = [u*]b étant, diagonales, elles commutent, donc u et, u* commutent. □ Corollaire 2 (Version matricielle). Soit M € M„(C) une matrice. Alors M est normale si et seulement s'il existe P € Mn(C), P unitaire, telle que P*MP = P~XMP est diagonale. Démonstration. Notons B la base canonique de C. On muni C du produit, scalaire hermitien usuel, et on désigne par u l'endomorphisme de C tel que [u]b = M. On montre la condition nécessaire. Si M est, normale, alors u est, normal donc il existe une base B' orthonormale qui diagonalise u. Si P désigne la matrice de passage de B à B', P est, unitaire et P~1MP est diagonale. La réciproque est immédiate, car si D = P*MP, D est diagonale, donc D et, D* commutent, d'où (P*M*P)(P*MP) = (P*MP)(P*M*) donc P*M*MP = P*MM*P, ce qui entraîne que M et, M* commutent. D Remarque 4. Attention, à la différence du cas autoadjoint, la matrice diagonale obtenue n'est pas forcément à coefficients réels. Cas des matrices réelles. Lorsque M est une matrice normale à coefficients réels, il est intéressant d'avoir une réduction de M dans Af„(IR). C'est le but de ce qui suit. Nous commençons par un petit lemme. Lemme 3. Soit E un espace euclidien de dimension 2. Soit u € £{E) un endomorphisme normal n'admettant pas de valeurs propres réelles. Dans toute base B orthonormale de E, la matrice de u a la forme i«i-(: ■.')■ Démonstration. Ecrivons M = [u]B=(i ;). On a b ^ 0 puisque u est sans valeur propre réelle. Comme u est normal, M*M = MM*. Parmi les équations découlant, de cette égalité, on trouve a2 + c2 = a2 + b2 et, ab + cd = ac + bd. (*) La première assertion de (*) entraîne b = c ou b = — c. Si b = c, alors M est symétrique, ce qui est, impossible puisque u est, sans valeur propre réelle. Donc b = —c. Maintenant, la deuxième assertion de (*) s'écrit 2(a — d)b = 0, et comme i ^ 0, on a a = d. Finalement, on a w-(; :')■ D
256 V. Espaces euclidiens THÉORÈME 4. Soit E un espace, euclidien, et u € £{E) un endomorphisme normal. Alors il existe une base orthogonale B de E telle que /A, [«]« = o (*) où pour tout i, A,- çM. et pour tout j, Tj = I J J 1 £M2 Démonstration. On procède par récurrence sur n = dimE. Pour n = 1, c'est évident. Supposons le résultat vrai jusqu'au rang n — 1 et, montrons le au rang n. Nous nous servirons des lemmes 1 et 2 qui restent vrais lorsque E est, euclidien. Si u admet au moins une valeur propre réelle A, on pose E\ = Ker(u — A Id^). Le s.e.v F = EJ; est stable par u (lemme 1) et, par u* (lemme 2). Comme U\p et, ufF commutent, et, que dimF < n—1, il existe d'après l'hypothèse de récurrence une base orthonormale B\ de F telle que [u|f]b, a la forme (*). Si B-i désigne une base orthonormale de E\, on voit, alors que B = BxUB? est une base orthonormale de E dans laquelle [u]b a la forme (*). Sinon u est sans valeur propre réelle. Soit, Q = X2 — 'laX + fi un facteur irréductible dans M.[X] (on a donc a2 — fi < 0) du polynôme caractéristique de u, et N = Ker Q(«). OnaTV ^ {0}. En effet, comme Q est irréductible dans E [X], on peut écrire Q = (X — X)(X—X) où A € C. Soit M la matrice de u dans une base de E. Le nombre complexe A est racine de Q, et comme Q divise le polynôme caractéristique de M, on a det(M — A/„) = 0. Donc detQ(u) = det Q(M) = det(M - A/„)det(M -X/„) = 0, ce qui prouve que N = KerQ(u) ^ {0}. Il est clair que N est stable par u. N est également stable par u* car u*Q(u) = Q(u)u* (ceci découlant du fait que uu* = u*u). Posons v = u\n. On a v* = uTN, de sorte que l'endomorphisme v*v = (u*u)|jv est, symétrique et admet donc une valeur propre /i 6 E. Soit x 6 N, x ^ 0, tel que v*v(x) = /ix. Posons F = Vect(x, u(x)). Comme u n'admet pas de valeur propre réelle, x et u(x) forment une famille libre donc dimF = 2. Le s.e.v F est stable par u puisque comme x 6 N, u2(x) = 2au(x) — fix (**). Nous allons montrer que F est également stable par u*. Remarquons tout d'abord que la relation (**) entraîne F = Vect(u(x),u2(x)) (ceci car fi £ 0, Q étant irréductible sur E[A"]). On écrit maintenant u*[u(x)] = t)*t)(x) = fix 6 F et comme u et u* commutent, u*[«2(x)] = u o u*[u(x)] = u(fix) = fiu(x) e F, ce qui achève de montrer que F est stable par u*. Comme ("|f)* = («*)|F, «|f es* "n endomorphisme normal. D'après le lemme 3, dans une base orthonormée B-i de F, la matrice de u\p est de la forme -(:")■ Maintenant, on a vu que F est stable par u*, donc Fx est stable par u** = u d'après le lemme 1. Le même lemme montre que, F étant stable par u, F^ est stable par u*. Donc (u|fj-)* = (u*)|fj-, ce qui prouve que U|Fx est normal. Comme dimFx = n — 2 < n, l'hypothèse de récurrence assure l'existence d'une base B\ orthonormale de Fx clans laquelle la matrice de u a la forme (*). La base B = B\ U B-j est alors une base orthonormale clans laquelle la matrice de u a la forme (*)■ □
3. Compléments de cours 257 Remarque 5. En termes de matrice, ce théorème s'exprime comme suit. Soit M € Af„(E) une matrice normale. Alors il existe une matrice orthogonale P € Af „(E) telle que P~1MP ait la forme (*). Réduction des matrices antisymétriques. Les matrices réelles antisymétriques sont normales. Il est donc possible de leur appliquer les résultats précédents. Plus précisément, nous avons le théorème suivant. THÉORÈME 5. Soit M € Mn(C) une matrice vérifiant M* + M = 0. Alors il existe une matrice unitaire U telle que U~1MU = U*MU = D soit diagonale, et les coefficients de D sont imaginaires purs. Démonstration. Comme M* = —M, M est une matrice normale, et d'après le corollaire du théorème 3, il existe une matrice unitaire U telle que / Ai 0 D = U~lMU = U*MU = \ 0 A„ avec pour tout i, A,- 6 C Comme /Aj+AT 0 \ £>* + £>= ■.. \=U*M*U+U*MU = U*(M* + M)U = 0, \ 0 Xn + K ) on a A,- + A,- = 0 pour tout », ce qui prouve que les A,- sont, imaginaires purs, d'où le résultat. D Remarque 6. Ce résultat est vrai en particulier pour les matrices réelles antisymétriques. Si on veut rester dans E, on utilise le résultat qui suit. Théorème 6 (Version réelle). Soit M € M existe une matrice orthogonale P telle que I 0 P~lMP = P*MP = une matiice antisymétrique. Alors il \ 0 0 T> I où les r,- sont des matrices de M2(E) de la forme I , n ) ; où b € M. Démonstration. Comme M* = —M, M est, une matrice normale. On peut, donc utiliser le théorème 4 qui assure l'existence d'une matrice orthogonale P telle que /Ai P~1MP = P*MP = \ n r. I où les A; € E et où t} = f _^ h[ \ e Af2(R). Comme D* = P*M*P = -P*MP = -D, D est antisymétrique. Ses termes diagonaux sont, donc nuls, c'est-à-dire A,- = 0 pour tout i et a,- = 0 pour tout j, d'où le résultat. D
258 V. Espaces euclidiens Remarque 7. Lorsqu'on applique le théorème pour M € Af „(E) antisymétrique avec n est impair, on voit qu'il doit y avoir au moins un zéro sur la diagonale de P~1MP. La matrice M n'est donc pas inversible. On peut retrouver directement ce résultat en écrivant que det M = det('M) = det(-M) = (-1)" det(M) = - det M, ce qui entraîne det M = 0. Les endomorphismes unitaires et les isométries sont aussi des endomorphismes normaux. En appliquant les théorèmes 3 et 4, on retrouve facilement les réductions obtenues à la section 3.1. H est possible d'obtenir la réduction des matrices antisymétriques par des moyens plus directs, en utilisant des méthodes du même type que celles de la section 3.1. Faites le, cela constitue un excellent exercice. 3.3. Inégalité d'Hadamard Nous nous proposons de montrer le théorème suivant. Théorème 7. Les vecteurs colonnes X\,... ,X„ d'une matrice M € Af„(C) vérifient |detM|< 11^,11---11^.11, (*) où pour tout i, || AT,-1| = y/X*X{ désigne la norme hermitienne standard. Si pour tout i, Xi ^ 0, l'inégalité (*) est une égalité si et seulement si la famille (Xi) est orthogonale. Démonstration. Si det M = 0, l'inégalité est évidemment vérifiée. Sinon, (X\,... ,X„) forme une base de C. En utilisant le procédé d'orthonormalisation de Schmidt (voir la partie 2.2 de ce chapitre), on construit une hase orthogonale (Y\,... , Y„) de C telle que VA, n = Xk + A1|tYi + ■ • • + Xk-i,kYk-u Ai|t e C On ne change pas un déterminant en retranchant à une colonne une combinaison linéaire des autres, ce qui prouve det M = det N, où N = (Yi | ■ ■ ■ \Yn) est la matrice dont les vecteurs colonnes sont les Yj. Posons D = N*N = (4j)i<ij<n- On voit facilement que dij = YfYj. Les Y; étant orthogonaux deux à deux, on a dij = 0 dès que j ^ j. Par ailleurs, dij = Y*Y{ = ||Y,-||2, d'où / IOT « \ N*N=\ \ « ll^ll2 / et donc n det(N*N) = det(N*)det(N) = \det(N)\2 = ^11^11^ •=1 ce qui entraîne | detN\ = 117=1 ll^îll- Or Polir tout *> Xt =Yt — Aij.Yi — ^k-i.kYk-i, donc ll**ll2 = ll^ll2 + l*i.*lalinn2 + • ■ ■ + |At_1|t|2nn_,iia. (*) Cette égalité entraîne ||yfc|| < \\Xk\\, donc n |detAf| = |detJV|<IIll*ill- (**) •=1 Cas d'égalité. Si les Xi sont orthogonaux entre eux deux à deux, on a Xi = Y; pour tout «', et d'après ce que l'on a vu plus haut, | det M\ = \ detN\ = ||Yi|| ■ ■ ■ ||Y„|| = ||A"i|| • ■ • ||X„||. Réciproquement, supposons qu'il y ait égalité, et que pour tout », Xi ^ 0. Alors det M = 0. Il faut alors que (**) soit une égalité, c'est à dire ||Yi|| ■ ■ ||Y„|| = ||Xi|| ■ ■ H^H ^ 0. Or, pour tout •> ll^«'ll < ll-^«'ll> on doit donc avoir ||X,-|| = ||Yj|| pour tout j. Ceci entraîne avec (*) que tous les Xjtic sont nuls, donc que Y* = Xk pour tout k. Les X{ sont donc deux à deux orthogonaux. D Remarque 8. Le théorème reste vrai dans Mn(M.) C Mn(C).
3. Compléments de cours 259 3.4. Matrices de Gram DÉFINITION 2. Soit E un espace préhilbertien (réel ou complexe) et Zj, ■ • -xn n vecteurs de E. On appelle matrice de Gram de x\,.. ■ ,x„ la matrice [(a;,- ■ ij)]i<ij-<„ et déterminant de Gram le déterminant de cette matrice, noté G(x\,... , x„). Proposition 3. Toute matrice de Gram est hermitienne positive. Réciproquement, toute matrice hermitienne positive est une matrice de Gram. De plus, la matrice de Gram de n vecteurs x\,... ,x„ est définie si et seulement si la famille (a:j)i<,-<„ est libre. Démonstration. Soient x\,... ,xn des vecteurs d'un espace préhilbertien E et M leur matrice de Gram. Ces vecteurs étant au nombre de n, il existe un s.e.v F de E1 de dimension finie n les contenant. Fixons nous une base orthonormée B de F, et pour tout i notons Xi le vecteur colonne des coordonnées de X{ dans B. On a x.i ■ Xj = X* Xj, de sorte que M = N* N où N désigne la matrice nx n dont les colonnes sont les X{. Ceci montre que M est hermitienne (M* = N*N" = N*N = M) et positive (car pour tout vecteur colonne X, X*MX = (X*N*)(NX) = (NX)* (NX) = \\NX\\2, || • || désignant la norme euclidienne (resp. hermitienne) standard). Réciproquement, si M = (»i,j)i<i,j<n est une matrice hermitienne positive, d'après l'exercice 1 de la partie 2.5, il existe une matrice hermitienne H telle que M = H2 = H*H. Si on désigne les vecteurs colonne de H par X\ X„, on voit facilement que la relation M = H* H entraîne Uij = X*Xj = Xi ■ Xj. La matrice M est bien une matrice de Gram. Cas défini. Soit M une matrice de Gram. Comme elle est positive, elle est définie si et seulement si det M ^ 0, ou encore, avec les notations précédentes, si et seulement si det N ^ 0, ce qui équivaut à ce que les vecteurs z,- forment une famille libre. □ L'intérêt principal des déterminants de Gram réside dans le théorème suivant. THEOREME 8. Soit E un espace préhilbertien, V un sous espace de E muni d'une base (ej,... ,e„) (pas forcément orthonormale). Soit x € E. Alors la distance d de x à V (d = iniyçv \\x - y\\) vérifie d2 _ G(eu... ,e„,x) G(eu...,en) Démonstration. D'après la proposition 2 de la partie 2.2 (page 238), on a d = ||z|| où z — x — y, y étant la projection orthogonale de x sur V. On a alors et ||.||' = ||3,||3 Vi, et ■ y = a ■ x 112 + INI2, ce qui entraîne M = / ei ei • e„ • ei • \ I'«l • • ei • e„ Cn ' €n x -e„ e-l-x \ e„ x x ■ x ) ( ei ei e„ t\ t\ -e„ ei y y NI a + IMIa \ yci ■■■ ye„ La linéarité du déterminant par rapport à la dernière colonne entraîne det M = det P + det Q, où ( t\e\ ■■■ t\ e„ ei y \ I t\ ■ e\ ■■■ e\ ■ e„ 0 \ P = ei \ yei ye„ en y et Q = •ei \ yei y e„ 0 W f Or det P = G{e\,... , e„, y) = 0 car y 6 Vect(ei,... , e„) et det Q = ||z||2G(ei,... , e„). Finalement G(ei,... , e„, x) = det M = det Q = \\z\\2G(ei,. ■ ■ , e„) = d2G(ei,... , e„). Remarque 9. Ce théorème peut s'avérer utile pour déterminer la borne inférieure d'une certaine classe d'intégrales (voir l'exercice 5).
260 V. Espaces euclidiens 3.5. Exercices Exercice 1. Soit A = (0,-,,-)1^,,-^ € Mn(M) telle que 3c>0,V(t,j), h„|<c. Montrer que | det M\ < cnn"/2. Solution. Il suffit d'utiliser l'inégalité d'Hadamard (qu'il faut, au besoin, savoir redémontrer). Notons Ai,... , A„ les vecteurs colonnes de A. D'après le théorème 7, on a | det M\ < \\Ai\\ ■ ■ ■ \\An\\ où pour tout j, On en déduit | detM| < (v^c)" = cnnnl2. = y/nc. Exercice 2. Soit E un espace euclidien de dimension n € N*. a) On suppose qu'il existe n + 1 vecteurs «i,... , m„+i de E de norme 1, vérifiant 3« € K, a ^ 1, tel que Vi ^ j, ut ■ u, = a. Déterminer a. (Indication. On pourra utiliser les matrices de Gram.) b) Démontrer qu'il existe effectivement de tels vecteurs dans E. Solution, a) Notons M la matrice de Gram des vecteurs ui,... , u„+i (voir la partie 3.4). On a M = ( 1 \ « « \ a 1 / e Mn+i(U). Par ailleurs, la famille («i,... , u„+i) est liée (n + 1 vecteurs en dimension n), donc d'après la proposition 3, det M = G("i,... , "n+i) = 0. Nous allons maintenant exprimer det M en fonction de a. On peut procéder de deux façons. La première est de montrer directement detM = (l-a)"(l + na). (*) Ce résultat peut s'obtenir également à partir du résultat décrit dans le problème 1 du chapitre IV (page 202) donnant la liste des valeurs propres de M. Comme det M = 0, la relation (*) montre a = —l/?i car a ^ 1 par hypothèse. b) Notons M la matrice symétrique M = / 1 \ -î n 1 \ €M„+i( D'après le problème 1 du chapitre IV, les valeurs propres de M sont 0 et l + ~. Elles sont donc positives, ce qui prouve que M est une matrice positive. D'après la proposition 3, M est une matrice de Gram, c'est-à-dire qu'il existe n + 1 vecteurs U\,... , U„+\ de K"+1 tels que M soit la matrice de Gram des U{. Ainsi, les vecteurs U{ vérifient la condition de a) avec a = —~. Comme det M = 0 = G(U\,... , Un+i), la famille (£/;)i<«'<n+i est liée. Autrement dit, il existe un s.e.v F de K"+1 de dimension n contenant les Ui.
3. Compléments de cours 261 Résumons. Nous avons trouvé un espace euclidien de dimension n (ici F) et n + 1 vecteurs de cet espace vérifiant la condition de la question a). Par isomqrphisme d'espace euclidien, on peut donc trouver dans E n + 1 vecteurs ui,... , un+i vérifiant cette condition. Exercice 3. Soit E un espace hermitien et u € C(E). Montrer que Pendomorphisme u est normal si et seulement s'il existe P € C[A"] tel que u* = P(u). Solution. Tout polynôme en u commutant avec u, la condition suffisante est claire. Montrons maintenant la condition nécessaire. Supposons u normal. D'après le théorème 3, u se diagonalise dans une base B orthonormée de E. Autrement dit, il existe des nombres complexes distincts Ai,... , Ar tels que / Ai/„, 0 Mb = \ 0 Ar/„r où les a,- sont des entiers naturels non nuls. La hase B étant orthonormée, on a \ 0 Ar/„r Les (Aj)i<,-<r étant deux à deux distincts, on peut trouver un polynôme P 6 €[X] tel que P(A,) = A,- pour tout i (voir la partie 2.4 du chapitre II). On voit, alors que P([u]b) = [m*]b, donc P(u) = u*. Exercice 4. a) Soit A = ((ii,j)i<i,j<n € M„(C) une matrice hermitienne définie positive. Démontrer que det A < aiti •••«„,„. Donner une condition nécessaire et suffisante pour que cette inégalité soit une égalité. b) On écrit A sous la forme = (£ £)' A^MP{€). Montrer que det A < det Ai -det A2 (on pourra utiliser les déterminants de Gram). Retrouver le résultat de la question a). Solution, a) D'après la proposition 3, on peut voir A comme la matrice de Gram de n vecteurs U\,... , Un de C . Si M désigne la matrice dont les vecteurs colonnes sont U\,... , Un, on a A = M*M. D'après l'inégalité d'Hadamard (théorème 7), on a |detM| < Yi?=i ll^«ll> ou Pour tout '"> \\Ui\\2 = U*Ui = (lij. Finalement, on peut écrire n n det A = | det M\2 < J] Wif = H *t,t. «=1 i=i L'égalité se produit lorsque la matrice M vérifie | det. M\ = Y[?=i ll^«'ll> c'est a c^Te lorsque les Ui sont orthogonaux entre eux deux à deux (voir le théorème 7), ce qui équivaut à dire que Vi ^ j, Ui ■ Uj = (i{j = 0, ou encore que A est diagonale. b) Rappelons que A est la matrice de Gram de n vecteurs U\,... , U„ de C. Ainsi, Ai est la matrice de Gram deUi,... ,UP et A2 la matrice de Gram de Up+i,... ,U„. Pour tout (», j), 1 < » < j < n, on pose Vij = \ect(Ui,... , Uj). En utilisant le théorème 8, on écrit det A = G(Ult... , Un) = d{UuV2,nfG{U2, ...,Un) = d(UuV-2,n)2d(V2, V3in)2G(U3, ...,Un) = ■■■ = d(UuV2,n)2 ■ -d(Uv, VP+1,nfG(UP+l>... , Un). (*)
262 V. Espaces euclidiens De même, on a det A, = d{UuVi<p)2--d{Up-i,VPtP)2\\Up\\2. (**) Or pour tout » € {2,... ,p- 1}, VilP C Vi,„, donc d(Ui-i,Vï,n) < d(Ui-i,VitP). On a aussi d(Up, Vp+i,n) < \\UP\\. En comparant maintenant (*) et (**), on obtient det A < det Ai ■ G(Up+i,... , U„) = det Ai ■ det A2. Par récurrence sur n en utilisant ce dernier résultat, cette inégalité permet de montrer celle de la question a). Exercice 5. Soit n un entier naturel non nul. On considère l'application <p: E" ->R («i,... ,«„) •-► / (1 + ajx H + a„xn )2dx. Ju Montrer que <p admet un minimum /t, atteint en un point unique de E", et calculer /x. (Indication. On pourra utiliser les déterminants de Gram.) Solution. Munissons le E-e.v E = C([0,1],E) des fonctions continues de [0,1] dans E du produit scalaire Vf,geE, (f\g)= f f(t)g(t)dt. Ju Par commodité de notation, pour tout entier i on désigne par x' la fonction [0,1] —♦ E ih x'. En notant En = Vect(a;,... , x"), on remarque que n ^(ai,...,«„) = ||l-P||2, où P = -J2aixi, «=1 et où ||. || désigne le norme issue du produit scalaire ( | ). Déterminer fi = inf„gR» vi^1), c'est donc rechercher d(l, Enf = 'mïP€En ||1 - -P||2 = ^- La proposition 2 de la page 238 assure l'existence et l'unicité d'un point Pu de E„ tel que ||1 — Po|| = d(l, En) (de plus, P« est la projection orthogonale de 1 sur En). Le minimum de ip est donc atteint en un point unique de E". D'après le théorème 8 sa valeur /i est donnée par 7/1 E* \2 G(l,x,...,x") , = d{l,En) = G{x> rn) . (*) Comme (ï'|ï;') = l/(» +j + 1), on a G(l,g,...,g") = det( ? ) et G(x,...,x") = det(—i—- ) Ces déterminants sont des déterminants de Cauchy (voir l'exercice 8, page 144) que l'on sait calculer. Ils valent respectivement an t xn\ - ni<»<;-<n+i('-j) , C( „s _ rii<,-<;<«(' ~ J) ça,.,...,. )-ni^n+l(,-+i_i) ^'■■■'^-n^^ii+j+iy En utilisant l'égalité (*), on a donc ni<,-<„['-(n+l)]2 n!2 1 /* = (n + l)!2 (n + l)!2 (n + l)2 Remarque. On pourrait de même calculer f + CU /■ + CXJ inf / e-'fl+o,! + --- + anxn)2dx. («i «»)eK"Jo
4. Problèmes 263 - Cet exercice est à rapprocher du problème du tome d'analyse portant sur le théorème de Miïntz. 4. Problèmes Problème 1 (Théorème de Fisher-Cochran). Soit E un espace euclidien de dimension n et «i,... ,up des endomorphismes symétriques de E. On suppose que (i) rg «i + • • • + rg up = n. (ii) qi(x) -\ h qp{x) = x ■ x, où q{ désigne la forme quadratique <fc(z) = «i(z) • x pour tout i. Montrer que E = Imu, © • • • © lmup, que les Imiij sont orthogonaux entre eux deux à deux, et que pour tout z, uj est le projecteur orthogonal sur Imuj. Solution. La relation (ii) s'écrit aussi V* € E, (u, + - - • + tip - Id*)(*) • x = 0. (*) L'endomorphisme v = u\ + 1- up — IdB étant symétrique, (*) entraîne v = 0 (en effet, v est diagonalisable et (*) montre que la seule valeur propre de v est 0). Donc ui + - - • + up = Id^, d'où on tire E = Im«i H 1- Im«p. Comme de plus Y11=i dim(Im«,-) = dimE d'après (i), on a E- Im«i e --©ImtJp (**) (voir la proposition 6 du chapitre III). En appliquant maintenant, l'égalité Id^ = u\ + ■ ■ ■ + up au vecteur «*(*), on obtient. Vfc.Vze.E, Mt = «iMt(x)H \-upuk(x). (***) D'après (**), la décomposition d'un élément, de Imw* se fait de manière unique dans ©?=1 Imi/j, d'où on déduit, avec (***) que «*(*) = n'{(x) et V/ ^ k, Ukui(x) = 0. Ceci étant vrai pour tout x 6 E, on en tire uj. = uj; et V/ ^ k, Uk»i = 0. Les endomorphismes ut sont donc des projecteurs, orthogonaux puisqu'ils sont, symétriques (ses sous espaces propres sont orthogonaux, et. ce sont ici Kern* et Imu*). Il nous reste à montrer que les Im «t sont orthogonaux entre eux deux a deux. Pour iir ^ /, on a vu ufcu< = 0, ce qui entraîne Im«< C Kern*. L'endomorphisme uj. étant un projecteur orthogonal, onaKerut = (Irnuk)1, donc Imu/ C (Imt**)-1-, ce qui prouve que Imui et Im«t sont orthogonaux. Ceci est vrai dès que le couple (k,f.) vérifie k ■£ t, d'où le résultat. Problème 2 (Polynômes orthogonaux). Soit / : [0,1] -* E une fonction continue, non nulle, positive. a) Montrer que l'application tp: E[X]2->E (P,Q)~ I f(t)P(t)Q(t)dt Ju définit un produit scalaire sur M.[X]. b) Montrer qu'il existe une base (P„)„ew de E[A"] telle que Vi',jeN, (p(Pi,Pj) = t>itj (6iti = 1 si z' = j, = 0 sinon) et Vn € N,deg(P„) = n. c) Montrer que pour tout n € N*, Pn a n racines simples réelles dans ]0,1[.
264 V. Espaces euclidiens Solution, a) On voit facilement que <p est une forme bilinéaire symétrique positive. Il reste à montrer qu'elle est définie. Supposons <p(P,P) = /0 f(i)P2(i)di = 0. La fonction i h-> f(i)P2(i) étant continue et positive sur [0,1], ceci entraîne fP2 = 0. Le polynôme P n'ayant qu'un nombre fini de racines, on a donc / = 0 sauf en un nombre fini de points, et par continuité de /, / = 0 sur [0,1] tout entier. Ceci est contraire aux hypothèses, d'où le résultat. b) Il est clair que le procédé d'orthogonalisation de Schmidt s'étend à une famille dénombrable de vecteurs. Ainsi, à partir de la base canonique (X")„gN de K[X], on peut former une famille libre (P„)„gN orthogonale pour le produit scalaire ip telle que P0 = 1 et pour tout n, P„ = X" + Qn avec Qn € Vect(P( , P„_i). Une récurrence immédiate sur n montre alors que deg(P„) = n pour tout n. Par construction du procédé d'orthonormalisation de Schmidt, on a Vect(l,X, ...,!") = Vect(P0,.. • ,P„) pour tout n, ce qui prouve que la famille libre orthogonale (P„)„gN est une base de K[X]. En normant les polynômes Pn, on obtient alors le résultat souhaité. c) Fixons n 6 N* et notons iir le nombre de racines de Pn clans ]0,1[ d'ordre de multiplicité impaire. Si on note ax < ■ ■ ■ < a* ces racines et si on note Q = (X — a{) ■ ■ ■ (X — a*) (Q = 1 si k = 0), le polynôme PQ prend un signe constant sur [0,1]. Supposons k < n-1. Commedeg(Q) < n-1, Q e Vect(l,X,... ,X"_1) = Vect(P( P„-i). De plus pour tout m < n — 1, <p(Pn, Pm) = 0. On en conclue tp(Pn, Q) = 0 = /(| /(<) P„(t)Q(t) dt. Or fPnQ est une fonction continue qui garde un signe constant sur [0,1], donc fP„Q = 0, et comme à la question précédente, on conclue que / = 0, ce qui est impossible par hypothèse. Donc iir > n, et comme deg(P„) = n, P„ a ?i racines distinctes dans ]0,1[. PROBLÈME 3. Soit n € N*. On note S le s.e.v des matrices symétriques de Af„(E). Pour tout A € Af„(E), on définit Pendomorphisme de S <pA: S ->S M .- 'AMA. Montrer que | det ^| = | det .4|"+1. Solution. Commençons par traiter le cas où A est diagonale (cas qui semble intuitivement simple). Notons Xi,... , A„ les éléments diagonaux de A. Considérons la base B de S constituée des matrices de la forme (■E'«1«)i<«<n et (EiJ + Ej,i)i<i<j<n, où Eij désigne la matrice dont tous les éléments sont nuls sauf celui d'indice (i,j) qui vaut 1. Un calcul rapide montre que V», <PA(Ei,i) = \2Eiti et V»<j, <PA(Eij+EJ,i) = \i\j(Eij+EJ,i). La base B diagonalise donc ipA, les valeurs propres correspondantes étant \{\j (1 < i < j < n), ce qui montre que det ^= J] A.Ai=(nA') =(àetA)"+1. (*) Traitons maintenant le cas général. Commençons par munir S d'un produit scalaire. Si 5, T € S, on définit le produit scalaire de (S,T) par ( S \ T ) = tr(ST). Il s'agit bien d'un produit scalaire puisque c'est une forme bilinéaire symétrique, et la forme quadratique associée est définie positive car VS = (S,,; )l<ij<„ € S, tr(S*) = Ç Si,;*';,," = g S?j . L'introduction de la structure euclidienne sur S va nous permettre de définir l'adjoint de ip^- Comme y/S,TeS, (<pA(S)\T) = ttÇASAT) = ttiAPAS) = ( ^(T) | 5), l'adjoint ipA de ipA est ipiA. Maintenant, on remarque que ^ o ^ = ipiA o ipA = ipA<A. La formule (AetipA)2 = detip*A det<pA = det(ipAipA) = detipAtA
4. Problèmes 265 va nous permettre de trouver la valeur de | det ipA \. Posons M = A*A. C'est une matrice symétrique, donc diagonalisable, de sorte qu'il existe une matrice orthogonale P telle que M = *PDP, où D est une matrice diagonale. On vérifie facilement que ipM = <PP ° fD ° ¥>'P- Comme ipp o iptp = iptpp = Ids, <pm est semblable à ipo donc det ipM = det ipo = (det £>)"+1 d'après (*). Comme det D = det M = (det A)2, ceci s'écrit aussi (det <pAf = det <pM = (det A)*"+1\ d'où le résultat. PROBLÈME 4. a) Soit H € Mn(C) une matrice hermitienne positive. On note T l'ensemble des matrices hermitiennes positives A telles que det A > 1. Montrer inf ti(AH) = n(det H)1,n. (On pourra utiliser l'inégalité de la question a) de l'exercice 4 de la partie 3.5, page 261). b) En déduire que pour deux matrices hermitiennes positives A et B, on a [det(4 + B)]l/n > (det A)l/n + (det B)l/n. Retrouver ce résultat sans utiliser la question a). Solution, a) Commençons par montrer que pour toute matrice A Ç T, tr(AH) > n(det H)lln. Le problème étant invariant par changement de base orthonormale, on peut supposer H diagonale. Notons Ai,... ,A„ les éléments diagonaux de H et considérons A = (<iij)i<ij<n € T. On a ti(AH) = YH=i ^iai,i- Le logarithme étant une fonction concave, on peut écrire L«"=l > !!(*••«••.••) -ii/» .t=i = (det H)l'n IJ "•■• >=i i/n et comme 1 < det A < Y["=i "«',«* d'après la <|iiestion a) de l'exercice 4 de la section 3.5, ceci implique ti(AH) > n(det H)1'". Achevons notre raisonnement. Nous venons de montrer que infi4gr*r(A/f) > n(det.H)l/n. Il s'agit maintenant de prouver l'inégalité réciproque. Il y a deux cas. Premier cas. Si H est définie, alors pour tout i, A,- > 0. Soit A la matrice définie par A = (det H)1'" K1 0 On a A € T, et ti(AH) = ti[(detH)l/"In] = n(det.H)l/n, d'où le résultat. Second cas. Si la matrice H n'est pas définie, l'une des valeurs propres A; est nulle, par exemple A„ = 0. Pour tout pgN', on définit Ap = l P'1 V o \ / er. y>n-l y On a ti(ApH) = ^i=l ', donc lim ti{ApH) = 0 = n(de.tH)l/n, ce qui prouve le résultat.
266 V. Espaces euclidiens b) Pour toute matrice M 6 T, on a don tr[(,4 + B)M] = ti(AM) + tr(flM) > inf tr(,4M) + inf tr(flM), inf triï.4 + B)M] > inf ti(AM) + inf tr(BM), Mer LV ' ' ~ Mer v ' Mer v " ce qui prouve le résultat en vertu de la question a). - Résolvons la question sans l'aide de a). Si A et B ne sont pas définies, c'est évident car det A = det B = 0 et comme A+B est positive, de.t(A+B) > 0. Sinon, l'une des matrices A on B est définie. Supposons par exemple A définie. Le corollaire 3 de la partie 2.4 (page 241) assure l'existence d'une matrice inversible P telle que A = P*P et B = P* DP, où D est une matrice diagonale. Ainsi, on se ramène à montrer que [det(/„ + D)]l/n > (det /„)>/» + (det D)l/n. En notant A,- > 0 les termes de la diagonale principale de D, cette inégalité s'écrit 11(1 + M >!+ n* (*) Nous allons prouver (*) en utilisant des critères de convexité. Considérons l'application l/n ip : [0,1] -» E <i II(< + M Il s'agit de montrer ^(1) — ^>(0) > 1, ce qui sera vrai si on prouve <p'(i) > 1 pour t 6 ]0,1]. On a l/n Vi € ]0,1], v'(t) = - n II(< + A'-) ou encore Vi €]o,i], ^it) = logU±^)-i±logr^- \ «=i / «=i donc, en vertu de la concavité du logarithme, log^'(i) > 0, c'est à dire ip'(t) > 1 pour t 6 ]0,1], d'où le résultat. Remarque. La preuve directe de la question b) montre l'importance du corollaire 3 de la partie 2.4. Problème 5. Soit (E, \\ ■ ||) un espace euclidien et u un projecteur de E tel que §u§ < 1 (en notant |u| = supu^u-, ||u(x)||, norme d'algèbre sur C(E)). Montrer que « est un projecteur orthogonal. Solution. Il s'agit de montrer que. Ke.ru et Imu sont orthogonaux. Soit x 6 Kerw et y 6 Imu. Pour tout t 6 E, on a u(y + tx) = u(j/) = y, et comme, par hypothèse ||«(j/ + <x)|| < ||y + <a;||, on a V< € E, IIj/H2 = H?/ + tx)\\2 < \\y + tx\\2 = \\y\\2 + 2t(x ■ y) + i2||*||2. Cette inégalité exprime, que. la fonction t *->■ \\y\\2 + 2t(x. ■ y) + i2||:n||2 atteint son minimum pour t = 0. Sa dérivée en 0 est donc nulle, ce qui s'écrit x ■ y = 0. Ceci étant vrai pour tout x Ç Keru et pour tout y 6 Im u, on en déduit que Ker u et, lm u sont orthogonaux. Remarque. Tout projecteur non nul w. vérifie |u| > 1. En effet, on a w.2 = u donc |m| = |u2| < |u| , et le résultat car |u| ^ 0. Un projecteur orthogonal non nul u vérifie »«« = !•
4. Problèmes 267 Problème 6. Déterminer les matrices hermitiennes positives A = (a.\;)i<.\;<n € M„(C) à coefficients a,ij tous non nuls, telles que la matrice B = (l/aj;)i<,i;<„ est aussi hermitienne positive. Solution. Soit A = (««',; )i<«,;'<n une telle matrice. D'après la proposition 3 de la partie 3.4, A est une matrice de Gram, c'est-à-dire qu'il existe n vecteurs u\,... , un de C tels que Vi, j, atj = u,- uj . D'après, l'inégalité de Schwarz, on a donc V«\i, K;|2 = K ■ «;f < |N|2||ty||2 = *,«;,;■ Cette inégalité, vraie pour toute matrice positive, l'est également pour la matrice B, ce qui s'écrit v ■ l * l l la«,;|2 "m ";"j On en déduit que |fl;i;-12 = «i,;»; j pour tout «', j. Il y a donc égalité de Schwarz |u; ■ uj | = ||«,|| ■ ||«y ||, donc ui et uj sont liés. Ceci étant vrai pour tout «', j, le rang des vecteurs «i,... ,u„ est 1 (ces vecteurs sont non nuls car A ^ 0). Ceci suffit pour affirmer rg A = 1. Réciproquement supposons A = (<*tj)i<t,j<fi hermitienne positive, de rang 1 et telle que a,j ^ 0 pour tout i,j. La signature de. la forme quadratique X i-> X* A^ est (1, 0), il existe donc une forme linéaire f(X) = J27=i ^« xi ^^ 'l116 Ceci prouve que «;i;- = AjA;- pour tout «', j. La matrice B vaut donc " \aiJ/l<iJ<n~ L\Â7/ VA;/Jl <,,;<„' de sorte que I " 1 I2 ' U-^ A.- — ' .=!*•■' et B est positive. En conclusion, les matrices positives cherchées sont celles à coefficients tous non nuls et de rang 1. Problème 7. Soit (E, \\. ||) un E-e.v norme de dimension n € N*. On note BPA l'ensemble des formes bilinéaires symétriques sur E de signature (p,q)- Si p + q = n, montrer que Bp , est un ouvert de l'espace vectoriel B des formes bilinéaires symétriques sur E. Solution. Munissons B de la norme |. | définie, par v^eB, M= sup ||p(*,*)|| ii*ii=i (B étant de dimension finie, toutes les normes y sont équivalentes). Donnons nous ipu Ç flPlî, où p+ q = n. La signature de ipu étant (p, q), il existe deux s.e.v F+ et F~ de E tels que. dimF+=p, dimF = q et { w ,1 ' *7 ,. ^) C ^ „ . Comme p + g = n, on a ici F+ © F~ = E. L'ensemble S+ = {x Ç F+, ||x|| = 1} est compact, donc ipu étant continue 3xeF+, ip(x,x)= inf ^(y,y).
268 V. Espaces euclidiens En notant a = ip(x, x) > 0, on voit que. pour tout y 6 S+, <pu(y,y) > a, donc pour tout y 6 F+, fo{y,y) > «||y||2- On montrerait de même l'existence de /3 > 0 tel que tout y 6 F~ vérifie <po(y,y)<-P\\y\\2- Soit 7 = inf(a,/?) et ip 6 B tel que §V>| < t/2. Alors ^ = ip0 + ip vérifie Vx € F+, <p{x, x) = <pf)(x,x) + V(x,x) > j\\x\\2 - *||x||2 = |||x||2 Vx e F-, ^(x, x) = <p0{x, x) + V(x, x) < -T||x||2 + *||x||2 - |||x||2 On a donc ^>(x,x) > 0 sur F+ \ {0} et ^>(x,x) < 0 sur F~ \ {0}. Ceci suffit pour conclure que ip est de signature (p,q). La boule de centre ip0 de rayon 7/2 est donc incluse dans BPii, d'où le résultat. Problème 8. Soient A et B € Af„(C) deux matrices hermitiennes positives. a) Si A est définie, montrer que la matrice AB est diagonalisable, à valeurs propres réelles positives. b) Montrer que le résultat de la question précédente subsiste lorsque A n'est pas supposée définie. c) Soient 0 < Ai < ■ ■ ■ < A„ les valeurs propres de A, 0 < /*i < • • • < /*„ celles de B. Si A est une valeur propre de AB, montrer \\ii\ < A < A„/*„. Solution, a) D'après l'exercice 1 de la partie '2.5 (page 242), il existe une matrice a 6 jM„(C) hermitienne positive telle que A = a2. Comme A est définie, a est inversible. On a AB = a2B = a(aBa)a~l, de sorte que AB est semblable à aBa. Cette dernière matrice est hermitienne , et positive car la matrice B étant positive, VX, X*(aBa)X = (aX)*B(aX) > 0. Finalement, on a montré que AB est semblable à une matrice hermitienne positive, ce qui suffit à montrer que AB est diagonalisable à valeurs propres réelles positives. b) C'est plus délicat. Comme à la question précédente, on va passer par la matrice aBd. Soit iir = rg(aflrt). La matrice aBa étant hermitienne positive, on est assuré de l'existence d'une famille libre de iir vecteurs propres e\,... , et associés à des valeurs propres strictement positives Ai At. Pour tout i 6 {1,... , k) on a (flfla)e,-= A,e,- donc (a2Ba)(ei) = A,«(e;) d'où (AB)(«e,-) = Aj(ae,-). Ainsi, si on pose /,■ = aei pour 1 < 1 < k, on a (AB)fi = A,-/; et la famille (/,)i<,<i est libre car k k k £>,7; = 0 =► 0 = ^,-(flfl)(/0 = £>,-A.-e,- =► V.>,A,- = 0 =► V»>,- = 0 (car A,- + 0). «'=1 «'=1 «=1 Finalement, on vient d'exhiber une famille libre (/,)i<,<i à k éléments de vecteurs propres de AB associés à des valeurs propres non nulles. Nous allons prouver que toutes les autres valeurs propres sont nulles. Pour cela, nous commençons par montrer rg(AB) = rg(«fl«) = iir. - De même que l'on avait écrit A = a2 avec a hermitienne positive, on écrit B = b2 où b est hermitienne positive. On a maintenant Ker(rtflrt) = Ker(6«) car la matrice aBa étant hermitienne positive, X € Ker(rtflrt) <£=* 0 = X*(aBa)X = (baX)*(baX) = \\baX\\2 «^6 Ker(fca) (|| ■ y désigne la norme hermitienne standard sur C).
4. Problèmes 269 - On en conclue rg(flflrt) = rg(fcrt). Toute matrice hermitienne positive h vérifiant Im/i = Im/i2 et Ker h = Ker h2 (pour s'en convaincre, diagonaliser h dans une base orthonormale), on peut écrire rg(afla) = rg(ia) = dim(Im b) — dim(Im a n Ker b) = dim(Imfl) - dim(Im,4 l~l Ker B) = rg(BA). — Il suffit maintenant de remarquer que ig(BA) = rg[(flj4)*] = rg(A*B*) = rg(AB) pour conclure rg(afla) = ig(AB) = k. Le fait que dim(Kei(AB)) = n — k nous permet de prendre une base (fk+i /n) de Ker(.*4fl). Ces n — k vecteurs correspondent à des vecteurs propres de AB associés à la valeur propre 0. Ainsi, la famille de vecteurs /i,... ,fk,fk+i fn forme une famille libre à n éléments de vecteurs propres de AB, donc une base de vecteurs propres de AB. La matrice AB est donc diagonalisable, ses valeurs propres étant Xi,... , A* > 0 et 0. c) On note ( | ) le produit scalaire hermitien usuel sur C. Tout vecteur colonne. X de C vérifie X2(X\X)<(AX\AX)<X2n(X\X) et rf(X\X)<(BX\BX)<,t(X\X) donc. X2rf(X\X) < X2(B X\B X) < (AB X\ABX) < X2n(BX\BX) < X2nnl{X\X). (*) Si A est une valeur propre de AB, on a (AB X\AB X) = \X\2(X\X) (où X est un vecteur propre associé), ce qui entraîne avec. (*) la relation \\fti < |A| < A„/j„, d'où le résultat puisque l'on a vu que A était réelle positive. PROBLÈME 9. Soient R,S,T € Mn(C) trois matrices hermitiennes positives telles que la matrice M = RST est hermitienne. Montrer que M est positive. Solution. Il y a certainement beaucoup de façons de procéder. Celle que nous décrivons se décompose en trois étapes, selon les propriétés vérifiées par la matrice T. Première étape. Supposons T définie. Alors T est la matrice d'un produit scalaire, de sorte qu'il existe P € ££„(C) telle que T= P*P. Comme RST est hermitienne, on a facilement RST = TSR donc RSP*P = P'PSR d'où (P*)~lRSP* = PSRP'1 ou encore R'S' = S'R! avec R' = (P*)~lRP-1 et S' = PSP*. Ainsi, les matrices R' et S' commutent. Comme elles sont diagonalisables (car hermitiennes), on peut les diagonaliser dans une même base. De plus, leurs valeurs propres sont, positives (R' et S' sont hermitiennes positives) donc les valeurs propres de RfS1 sont positives. Ainsi, la matrice hermitienne R'S' est positive. Comme RST = P*(R!S')P est congrue à R'S', c'est aussi une matrice hermitienne positive. Deuxième étape. Supposons KerT (~l Ker R = {0}. Pour tout e > 0, la matrice T + eR est définie positive. En effet, elle est positive comme somme de matrices positives, et elle est définie, car si X*(T + eR)X = 0, le fait que X'TX > 0 et X* RX > 0 entraîne X'TX = X* RX = 0, donc X € KerT n Ker R= {0}. On peut donc appliquer le résultat de la première étape à la matrice hermitienne RS(T + eR) = RST + eRSR. Ainsi, pour tout X € C, pour tout e > 0, X*RS(T + eR)X > 0 donc en passant à la limite lorsque e -» 0 on obtient X*RSTX > 0. Ceci est vrai pour tout X Ç C, donc RST est positive. Troisième étape. Il ne reste plus qu'à traiter le cas où F = KerT O Ker R ^ {0}. Soit r tel que n — r = dimF. Soit (ei e„) une base orthonormale de C telle que F = Vect(Kr+i e„). Quitte à faire un changement de base orthonormale pour se ramener dans cette base, on voit que „_ f Ri \o\ . _ ( s, I si \ _ ( 7\ | 0 \ *-Vo]Ty' s - { s, | s3 ) ' et T - \cfjr) '
270 V. Espaces euclidiens avec Ri,Si,Ti € Mr(C) et Ker Rx l~l KerTx = {0}. La matrice M = RST étant hermitienne, on a facilement «=(-^41). M où Ri, S\, Ti vérifient les mêmes propriétés que R, S,T dans la deuxième étape. La matrice RiSiTi est donc positive, donc d'après (*) M est positive. Problème 10. Soit A = (a.\j)i <«,;<" € Af„(C) une matrice hermitienne, dont les valeurs propres sont notées A^... , A„ et numérotées telles que Xi > •••> A„. a) Pour tout entier k compris entre 1 et n, montrer «■=i «=i b) Lorsque k < n et A* > At+1, donner une condition nécessaire et suffisante sur la matrice A pour que l'inégalité (*) soit une égalité. Solution, a) Lorsque k = n, (*) est une égalité car 5T"=1 a;,; = tr(A) = Yl?=i ^«- Sinon on a k < n. Notons $ la forme hermitienne sur C dont A est la matrice dans la base canonique (ei e„) de C. Pour tout i 6 {1 n}, on a «,_,- = $(e,). Soit (/i /„) une base orthonormale de C, orthogonale pour la forme hermitienne $, et telle que V«'€{1 n], A,-= $(/;). On note P = (p«,;)i<«,j<n € M„{€) la matrice de passage de la base (fi /„) à la base (ei,... , e„) (P est unitaire), de sorte que. e;- = J27=i P'.jf' Pour t011* J- Pour donner un avant goût de ce qui suit, nous commençons par le cas k = 1 qui est facile. Il suffit d'écrire «1,1 = *(e,) = J2 Ki|2*(/0 = Ë * Kil2 ^ A> (X>.i|2 ) = AilN!2 = A- «=i «=i \«=i / Le cas général est plus délicat. On écrit è«.v=è^i)=è(èA.Kii2)=£> (x>,,i2) ■ («) «=1 ;=1 j=l \«=1 / i=l \;=1 / Si on pose /it = Ylj=i Ip«\;|2> 'es /*« vérifient les propriétés suivantes «=1 j = l \« = 1 / ; = 1 (ii) v.-, w=èipui2<èiwji2=i. ;=i ;=i (la dernière égalité résulte du fait que les vecteurs ligne de la matrice P forment également une base orthonormale), et l'égalité (**) entraîne k n k / n \ YL *•>'••> = !C Xi>li ^ YA''''' + A*+» [ Yl tH ) ■ ;=1 «=1 «=1 \«=*+l /
4. Problèmes 271 L'assertion (ii) permet d'écrire chaque /i,- sons la forme /i,- = 1 — 7,- avec 7; > 0 pour 1 < i < fc, / k \ k et d'après (i), Y^ m = k — ( Y^/ij ) = 5^7«- Finalement, «=*+! \«=i / «=1 k k / k \ k k k JJa« ^ T,Mi ~ r.) + **+i X> = ^ A*'+ £(Ai ~ À*+»)7* ^ IZ Ai- (***) j = l « = 1 \«=1 / i = l «=1 «=1 b) Si (*) est une égalité, alors la dernière inégalité de (***) est une égalité, et compte tenu des hypothèses, ceci entraîne 7; = 0 pour 1 < i < k. Autrement dit, fi\ = ... = fik = 1 ce qui en vertu de l'assertion (ii) entraîne p,-j = 0 pour l<i<fcetfc + l<j'<r». Ainsi, ej = Yli=i P«,;/« € Vect(/i,... ,fk) pour 1 < j < k, donc Vect(ei,... , et) = Vect(/i,... , /*). Les bases (ei,... ,e„) et (/1 /„) étant orthogonales, on a alors Vect(et+1,... , e„) = Vect(/t+1,... , /„). Il n'en faut pas plus pour conclure que A, matrice de $ dans la base (ei,... , e„), se met sous la forme = ( * 1 M où les valeurs propres de Ai g Mk{<C) sont \\,... , A*. k k Réciproquement, si la matrice A est de cette forme, alors YJ «;_; = tv(A{) = YJ A,-. «=1 «=1 PROBLÈME il. Soit A = («.j)i<i,j<n € Mn(M.) une matrice symétrique définie positive. Montrer que la matrice B =(^-) \% + J/i<ij<n est définie positive. Solution. On considère l'application A : [0,1] _» Mn(R) t ~ A{i) = (atJ • ii+i~l)i<i,j<n. Si on montre que A(t) est définie positive pour tout t € ]0,1[, alors d'après l'exercice 5 de la partie 2.5 (page 245) on aura prouvé que la matrice C A(t) dt = ( C aiJ ti+i~l dt) = (-^) = B ■Al \J(I A<«,j<n V'+J/ l<«,j<" est définie positive. D'après l'exercice 4 de. la partie 2.5 (page 243), on aura montré que A(t) est définie positive (t € ]0,1[) si on prouve que V* € {1,... , 1»}, Ak(t) = (atj ti+i-l)i<i,j<k € -Mt(R)
272 V. Espaces euclidiens a un déterminant > 0. On écrit det Ak(t) = «1,1' «1,2«' ai.kt «2,i< a2,2< «*,i<* «i,*+i<*+1 «2,*< *+l Ok.kt 2*-l «1,1 «2,1< «1,2 «2,2* «1.» «2,*< «*,1<*-1 «l.t+1^'1 = (< <2 -^)(1 .<...<*->) «*,*< t-1 «1,1 «2,1 «1,2 «2,2 «*,1 «l,i+l «1,» «2,t (*) Toujours d'après la question a) de l'exercice 4 de la partie 2.5 (mais cette fois ci on utilise la condition nécessaire), le dernier déterminant de (*) est > 0, ce qui prouve det Ak(t) > 0 dès que t € ]0,1[ et k € {1,... , n). D'où le résultat. Remarque. Si A n'est pas supposée définie, la matrice B reste positive. Pour montrer ce résultat, appliquer celui de l'exercice à la matrice définie positive A + aIn pour tout a > 0, puis passer à la limite lorsque a tend vers 0. (Une limite de matrices positives Ba lorsque a tend vers 0 est positive car VX e E", Va > 0, X*BaX > 0 et on obtient le résultat en faisant tendre ce vers 0, X étant fixé.) Problème 12 (Hansdorffien d'une application linéaire en dimension finie). Soit E un espace hermitien de dimension finie n € N*. 1/ Soit / € C(E). On note H(f) = {^^, * e E n {0}} = {/(*) • x, \\x\\ = 1} (cet ensemble est appelé Hansdorffien de /). a) Montrer que H (/) est convexe et compact. (Indication. Pour montrer que [£, rj\ C H(f) si £, T) € H(f), on se ramènera à montrer que [0, l] C #(</) où y = af + /?Id avec a et /? bien choisis. Puis on écrira g = u + ">, avec m et »> autoadjoints ... ) b) Si / se diagonalise dans une base orthonormale, déterminer H(f). 2/ Soit / 6 C(E) telle que tr/ = 0. Montrer l'existence d'une base B orthonormale de E dans laquelle la matrice de / ait tout ses termes diagonaux nuls. Solution. 1/ a) L'ensemble H(f) est compact car c'est l'image par l'application continue x i-* f(x) ■ x du compact {x 6 E, \\x\\ = 1}. Montrons que H(f) est convexe. Donnons nous t.,y 6 E, \\x\\ = ||;/|| = 1 et posons £ = f(x) ■ x et t] = /(y) ■ y. Il s'agit de montrer [¢, i]] C H(f). Si £ = 77 c'est terminé. Sinon, £ / 77, et on va se ramener sur [0,1]. Il existe deux nombres complexes « et fi tels que aÇ + ft = 1 et (xtj + P = 0.
4. Problèmes 273 On pose g = af + flldE- On a K,n] C H(f) *=> Vi € [0,1],« + (1 - <)V € #(/) *=> V<€[0,1],3*€£,|M|=1, «+ (1-0^ = /(*)■* V<€[0,1],3*€E,|M| = 1, < = «(<£+ (1-%) +P = g(z)-z [0,l]CH(g). Montrons donc [0,1] C H(g). On sait que g{x) ■ x = 1 et g(y) ■ y = 0. Écrivons <jr = u + iv avec u et v autoadjoints (il suffit de prendre u = }-(g + g*) et v = 5(0* — <jr)). Quitte à multiplier x par A € C, |A| = 1, on peut supposer v(x)-y € i'R. Or g(x)-x = 1 = u(x) ■ x — iv(x) ■ x donc t>(x)-x = 0 (ceci car u et v étant autoadjoints, u(a;) • x et «(x) • x sont réels). On a de même v(y) ■ y = 0. Ceci étant, on pose h(t) = ix + (1 — t)y pour < g [0,1]. Comme £ = /(x) • x / /(y) • y = 17, les vecteurs z et y forment une famille libre. Ceci prouve que h(t) / 0 pour tout t € [0,1] et v[h(tj\ ■ h(t) = t2v(x) -x+t(l- t)[v(x) ■ y + v(x) ■ y] + (1 - t) 2v(y) ■ y = 0 (car v(x) ■ y € »K). La fonction V- : [0,1] -» C < y[ft(Q] ■ MO prend donc ses valeurs dans E. De plus ^> est continue, V'(O) = 0 et ij>(l) = 1 donc d'après le théorème des valeurs intermédiaires, [0,1] C ^([0,1]) C H(g), d'où le résultat. b) Soit une base orthonormale B = (ci,... , e.„) telle que /A, ON V 0 A„ / Alors H(f) = {f(x).x,\\x\\ = 1} = |/ fe>e<J -5>C-. £>,|2 = 1J = JÇ|*||2^, Ç|*i|2 = l} = 0>37, («i>0et Çai = l)|, ce qui s'exprime en disant que H(f) est l'enveloppe convexe des A,-, ou encore que c'est l'intérieur d'un polygone dont les sommets (dans C) sont les Ai. 2/ On procède par récurrence sur n = dimE. Pour n = 1, c'est évident. Supposons le résultat vrai au rang n — 1 et montrons le au rang n. Montrons déjà que 0 € H(f). Soit B = (ci,... , ft„) une base orthonormée et A la matrice de / dans cette base. Les termes de la diagonale principale 04,4 de A vérifient la relation «77 = /(e«) ' e«> ce qui prouve que «77 € #(/) «t J7(/) étant convexe, 1^077=^ = 0 €#(/). t Il existe donc un vecteur norme fx tel que f(f\) ■ f\ =0. Notons F l'hyperplan {/i}x et <jr = p\F o /|F, où p|f désigne la projection orthogonale sur F, de sorte que dans toute base B' de F, [f]fiUB> = ( ° X V x X Mb- x \ )
274 V. Espar.es euclidiens On a donc tr<jr = 0, donc d'après l'hypothèse de récurrence, il existe une base B' orthonormale de F dans laquelle la matrice de g n'ait que des zéros sur la diagonale principale. Ainsi, la base B = fi U B' est une base orthonormale de E (car f\ € FL) et. / 0 [f)B = ( ° X V x X Mb. x \ J X 0 \ x x \ X 0 / Remarque. On peut répondre à la partie 2/ sans utiliser la partie 1/ si on suppose / autoadjoint.
ANNEXE A Résolution des équations du troisième et du quatrième degré Cette annexe propose la résolution des équations du troisième et du quatrième degré. Deux techniques sont exposées, d'abord celles dues à Cardan (troisième degré) et Ferrari (quatrième degré), découvertes historiquement en premier, puis la méthode de Lagrange qui en un certain sens, est plus générale que les précédentes et offre un point de vue intéressant. 1. Introduction On se donne un polynôme F = au X" + «, X"~l + |-a„ 6 K[A"] (où K est un corps commutatif quelconque), tel que aa ^ 0 et n > 1. On se propose de résoudre l'équation F(x) = 0. Quitte à diviser le polynôme F par «,,, on peut supposer aa = 1. Enfin, en effectuant le changement de variable x = z — «i/n, on se ramène au cas où le coefficient de Xn~l est nul. Finalement, on est amené à résoudre une équation de la forme z" + a2z"-2 + ■■■ + «„_,z + a„ = 0. Dans la suite, le corps de base K est le corps des complexes C. 2. Techniques historiques 2.1. Méthode de Cardan pour la résolution de l'équation du troisième degré On veut résoudre l'équation z3 + pz + q = 0. Si on pose z = u + v, l'équation sera vérifiée si u3 + »>3 + 3m2»' + 3m»)2 + pu + pv + q = 0 = »<3 + »>3 + (m + »>)(3u»> + p) + q = 0. Ceci sera vérifié si on a f m3 + »;3 = -q \ uv = —p/Z c'est-à-dire si u3 + »>3 =~q et »*3»>3 = —p3/27, les déterminations des racines cubiques de « et »> étant choisies telles que m») = —p/3- En d'autres termes, il suffit que m3 et »>3 soient racines de P3 z2 + qz — — = 0 avec uv = — p/3. (*) Si on note Z\,z2 les racines de cette équation du second degré, si u et »> sont des racines cubiques de zx et z2 telles que uv = —p/3, les racines recherchées sont alors u+v, uj + vf, uj2 + vj où j = e2i'/a.
276 A. Résolution We,s équations du troisième et du quatrième degré Lorsque (p, q) € K2, le nombre de racines réelles de l'équation z3 + pz + q = 0 peut être discuté. Ceci dépend du signe du discriminant de l'équation du second degré (*), qui est du signe de Ap3 + 27q2. On montre facilement que (i) Si 4p3 + 27q2 > 0, il y a une racine réelle et deux racines complexes conjuguées, (ii) Si 4jP + 27ç2 = 0, il y a une racine triple 0 si q = 0, une racine réelle double et une réelle simple si q 5e 0. (iii) Si 4P3 + 27ç2 < 0, il y a trois racines réelles. Ce dernier résultat est à rapprocher de celui de l'exercice 2 de la page 79. 2.2. Méthode de Ferrari pour la résolution de l'équation du quatrième degré On se donne F = z* + az2 + bz + c et on veut résoudre F(z) = 0. Pour cela, on recherche A, p et q tels que F(z) = (z2 + A)2 — (pz + q)2. Ceci sera réalisé si et seulement si le polynôme (z2 + A)2 - F(z) = (2A - a) z2 - bz + (A2 - c) (**) est un carré parfait, autrement dit si et seulement si le discriminant de (**) est nul, ce qui s'écrit A = b2 - 4(A2 - c)(2A - a) = -8A3 + 4aA2 + 8Ac + b2 - 4«c = 0. Cette dernière équation peut être résolue grâce à la méthode de Cardan. Si A désigne l'une quelconque de ses solutions, il est maintenant facile de trouver p et q puis de résoudre (z2 + A)2 - (pz + qf = 0. 3. Méthode de Lagrange On doit à Lagrange une ingénieuse idée de résolution des équations. Pour résoudre F(z) = 0 où F est de degré rf, l'idée de Lagrange est la suivante. Notons a,,... ,ad les racines de F. Si on trouve un polynôme P en les a,- qui ne prend que d — 1 valeurs par toute permutation sur les «,•, on saura (grâce aux formules donnant les coefficients d'un polynôme en fonction de ses racines, et compte tenu du fait que tout polynôme symétrique peut s'exprimer au moyen seulement des polynômes symétriques élémentaires) trouver un polynôme de degré d— 1 qui annule les d — 1 valeurs prises par P sur les a,-. On est ainsi ramené à un degré inférieur et c'est gagné ! Ce principe encore un peu vague va prendre tout son sens dans les parties qui suivent. 3.1. L'équation du troisième degré Notons a, /3,7 les racines de F = z3 + pz + «/• Le polynôme (X + jY + j2Z)3 ne prend que deux valeurs par toutes les permutations effectuées sur a,/?,7, qui sont A = (a + j/3 + j2jf et B = (a + j7 + ffif. Compte tenu du théorème 1 de la page 60, on a (rl=a + (3 + f = 0, a2 = a/3 + fif + ■ya = p, a3 = afii = -q. Un calcul donne A + B = 2(a3 + (33 + 73) - 3(a2/? + /?27 + 72a) + 12a/?7 = 2((7, - 3(7,(72 + 3(73) - 3((7,(72 - 3(73) + 12<73 = -27ç et AB = (a2 + p2 + 72 - a/3 - /?7 - 7«)3 = (a2 - 2a2 - cr2)3 = -21 p3.
3. Méthode de La.gra.nge 277 Ainsi, A et B sont trouvées simplement comme solutions de z2 + 27q z - 27pa = 0. (***) Si on note u (resp. v) une racine cubique de A (resp. de B), les déterminations étant choisies telles que uv = (a + jfl + jf27)0 + jf + j20) = — 3p, on s'est ramené à résoudre le système a + (3 + 7 =0 a + j/3 + j2f = u dont les solutions sont <* + 31 + j2/? = « a = - I £(« + ») /? = | («J2 + »j) Noter que le test du nombre de racines réelles s'effectue simplement grâce au discriminant de l'équation (***) qui est 27(4p3 + 27ç2). 3.2. L'équation du quatrième degré On note a,/3,j,ë les racines de F = z4 + az2 + bz + c. Le polynôme XY + ZT ne prend que trois valeurs par toutes les permutations effectuées sur a, /3,7,*, qui sont A = a/3+ 7«, B = cxf + 06, C = aS + /3j. Ici, les fonctions symétriques des racines de F valent respectivement <rx = 0, (r2 = a, era = —b et (T4 = c. Les calculs qui suivent sont légèrement plus simples que ceux de la partie précédente. A + B + C = (T2 = a, AB + BC + CA = <7,ffs - 4ct4 = -4c et 45(7 = 0, - 2a2)(T4 + <rj - 2(t2(t4 = b2 - 4ac. Ainsi A, B et C sont obtenus comme solutions de l'équation za - az2 - 4cz - b2 + 4ac = 0, que l'on sait désormais résoudre. Si on note «, w, w ses racines, on est ramené à résoudre le système ( a + /3 + 7 + A = 0 a/3 + -ft> = u . . . , '. qui équivaut a 07 + po = »> f a + /? + 7 + tf = 0 0 + 0)(7 + ^) = v+w 0 +«)(/? +7) = u + t> t 0 + 7)0+*) = u + w a6 + /?7 = w A l'aide de deux premières équations de ce dernier système, on trouve a + P = Pi et 7 + *=-/>i> ou />i = %/-»>- w, de même avec la première et la troisième équation a + ti = p2 et 0 + 7 = -/>2, où p2 = y/-u - v et avec la première et la dernière équation, a + f = p3 et 0 + t> = -p3, où p3 = \/-m - w. Pour qu'il y ait équivalence entre ces trois dernières assertions et le système précédent, il faut et il suffit que les déterminations des racines carrées P\,P2,P3 soient choisies de sorte que P1P2P3 = — b, compte tenu du fait que (a + 0)(ot + 7)0 + *') = «(« + /3 + 7 + S) + <r3 = -b.
278 A. Résolution des équations du troisième et du quatrième degré Maintenant, on en déduit facilement que les solutions sont 111 1 a = ^(/'i+^ + Z'a), P = ^(Pi-P2-Pa), 7= 2(-^-^^ ^=2^^+^2-^3)- 3.3. L'équation du cinquième degré ? Nous sommes munis d'une redoutable technique pour abaisser le degré d'une équation. Vous pouvez donc essayer d'effectuer le même type d'opérations sur l'équation générale de degré 5. Malgré tous vos efforts, vous coincerez sur un problème majeur, celui de trouver un polynôme de 5 variables qui ne prend que quatre valeurs par toute permutation de ses variables. En fait, un tel polynôme n'existe pas. Nous allons prouver ce résultat. Pour tout polynôme P € CfA^, A"2, A"3, A"4, A"5], pour toute permutation a € 55, on note Pa = P(A"ff(1), ^,,(2),^^(3), A"ff(4), A"ff(5)) Supposons que P € CfA",, A";j, A"3, A"4, A"5] soit tel que l'ensemble T = {Pa \ a € <S5} vérifie Card(r) = 4. Le groupe des permutations <S5 opère sur T pai le biais de la fonction s5xr^r (v,Q)»Q<,- D'après le théorème 7 de la page 21, le stabilisateur H = {a € <S5 | P„ = P} de P est un sous groupe de iS5 d'indice 4 dans S5 (puisque par construction, l'orbite de P est T tout entier, de cardinal 4). D'après l'exercice 7 de la page 25 ceci est impossible, d'où le résultat. Cette démonstration ne prouve pas qu'il est impossible de "résoudre" par des formules générales l'équation de degré 5, mais elle montre simplement que la méthode de Lagrange ne s'applique pas. C'est Abel qui le premier montra que des formules générales pour les solutions de l'équation de degré 5 n'existent pas. Galois compléta quelques années plus tard ce résultat en donnant une condition nécessaire et suffisante sur un polynôme pour qu'il soit résoluble par radicaux (en termes intuitifs, on dit qu'une équation est résoluble par radicaux si ses solutions peuvent s'exprimer au moyen de "radicaux emboîtés les uns dans les autres").
ANNEXE B Invariants de similitude d'un endomorphisme et réduction de Frobenius La note qui suit présente la théorie des invariants de similitude des endomorphismes en dimension finie. Cette notion est assez éloignée de l'esprit du programme de mathématiques spéciales, et c'est plus à titre de curiosité qu'elle est présentée. Comme nous allons le voir, elle propose un cadre agréable de réduction des endomorphismes qui permet une caractérisation simple de la classe des matrices semblables à une matrice donnée. En première lecture, les démonstrations des résultats énoncés peuvent être sautées. Dans toute l'annexe, E désigne un espace vectoriel sur un corps commutatif K de dimension finie n. 1. Introduction On se donne un endomorphisme / € C(E). Nous commençons par donner quelques rappels des résultats de l'exercice 3 de la page 177. Notation. On note II/ le polynôme minimal de /, et £/ l'ensemble {P(f), P € K[A"]}. Si x e E, on note Px le polynôme unitaire engendrant l'idéal {P € K[A"] | P(f)(x) = 0} et Ex l'ensemble {P(f)(x),Pe «[A-]}. Proposition 1. Si k = deg(II/), Ve.nse.mble. £f est un s.e.v de. C(E) de. dimension k, dont une. base, est (Idf;, /,..., fk~l). Si k = deg(Pr), l'ensemble Ex est un s.e.v de. E de. dimension k, dont une. base. e:st Démonstration. L'application K[X] —» C(E) P »-► P(f) est linéaire. Son image est £/, c'est donc un s.e.v, et son noyau est. {P € K[X] | P(f) = 0} = (II/). Ainsi, Cf est isomorphe à E[X]/(Uf). jfc _ i Ce dernier étant de dimension k dont une base est (1,X,... ,X ) (voir la théorème 4 de la page 62) on en déduit, par isomorphisme la première partie de la proposition. La seconde partie se traite de manière analogue en considérant l'application K[X] —* E Ph P(f)(x). D La propriété qui suit est cruciale dans la suite de notre discours (elle est prouvée dans l'exercice 3 de la page 177). Proposition 2. // existe x € E tel que Px = Uf. Endomorphismes cycliques. DÉFINITION 1. On dit que / est cyclique s'il existe x € E tel que Ex = E. D'après les propositions précédentes, ceci équivaut à dire que deg(II/) = n (ou encore que II/ = (—l)"Pf où Pf désigne le polynôme caractéristique de /).
280 B. Invariants de similitude d'un endomorphisme et réduction de Frobenius DÉFINITION 2. Soit P = A"p + rtp_iA"p~1 + h«o € K[A"]. On appelle matrice compagnon de P la matrice C(P) = /0 1 0 0 0 -flo \ '•• 0 -ap_2 0 1 -ap_! / € MP(K). Nous avons déjà rencontré les matrices compagnon lors de la seconde démonstration du théorème de Cayley-Hamilton, et nous avions montré que le polynôme caractéristique de C(P) est (-1)"F. PROPOSITION 3. Soit f € C(E) un endomorphisme cyclique. Il existe une base de E dans laquelle la matrice de f soit égale à C(II/). Démonstration. Comme / est, cyclique, il existe x € E tel que Ex = E. On sait alors que (i,/(*),... ,/71-1^)) est une base de E, et dans cette base, la matrice de / est C(II/) (si II/ = X" + a„^iX"~l + • • • + «o, l'image du dernier vecteur f"~l(x) de la base par / vaut /"(x) = -fln-i/"*1^) «o« car n/(/)(«) = 0). □ 2. Invariants de similitude Le théorème qui suit est le point central de notre discussion. THÉORÈME 1. Soit f e C(E). Il existe une suite Fl, F2,... ,Fr de s.e.v de E, tous stables par f, telle que (i) E = Fi@F2@---@Fr, (ii) pour tout i € {1,... , r}, /« restriction ft = f\Fi de Vendomorphisme f au s.e.v Fi est un endomorphisme de Fi cyclique, (iii) si Pi désigne le polynôme minimal de fi, on a Pi+l \ Pi pour tout i € {1,... , r— 1}. La suite de polynômes P\,... ,Pr ne dépend que. de f et non du choix de. la décomposition. On l'appelle suite des invariants de similitude de f. Démonstration. Existence.. Soit k = deg(II/) et soit r € E tel que Px = II/. Le s.e.v F = Ex est de dimension iir et il est stable par /. Comme deg(Pi;) = iir, la famille de vecteurs ei = x, e2 = f(x), ■ ■ ■ , ek=fk-l(x) forme une base de F = Ex. Complétons cette base en une base (ei,. .. ,e„) de E. En désignant par {e\,... , e* ) la base duale associée, on note G = P où r = {'fiel), i6N} = {et o /\ i € N} (orthogonal vis-à-vis du dual). En d'autres termes, G est l'ensemble des x £ E tels que la fc-ième coordonnée de f'(x) (dans la base (ex,. .. ,e„)) soit nulle pour tout «'. L'ensemble. G est un s.e.v de E, et il est stable par / comme on le vérifie facilement. Nous allons montrer F © G = E, et pour cela, nous prouvons successivement F C\G = {0} et dimF + dimG = n. Soit y g F n G. Si y / 0, on peut écrire, y = <ii cx + ■ ■ ■ + apep avec ap / 0 et p < k. En composant par tfk~p{e*k) = e\o fk~p, on obtient. 0 = eî(a1ftt_p+1 +-+ape.k) = ap, ce qui est absurde. Donc F (~l G = {0}.
2. Invariants de similitude 281 Comme G = (VectT)0, pour montrer dimC? = n — dimF = n — k, il suffit de prouver dim(Vectr) = k. Pour cela, on considère l'application linéaire <p: Cf = {P(f), P€K[X]}->Vectr 9 ^ e*k o g. Par définition de Vect T, <p est surjective. De plus, <p est injective. En effet, si ek og = 0 avec <jr / 0, on peut écrire g = «i Ide H \-ap /p_1 € £/ (p < k et ap / 0) et 4 ° g(fh~p{*)) = 0 = el(ai ek-p+i + ■ ■ ■ + ap ek) = ap, ce qui est absurde. Finalement, ip est un isomorphisme donc dim(Vect T) = dim£/ = k. Résumons. Nous avons trouvé un sous espace G stable par / tel que F © G = E. Notons Pi le polynôme minimal de /|F, (qui est le polynôme minimal de / car Pi = Px = II/), et P2 le polynôme minimal de F\q. Comme G est stable par /, Pi \ Pi. On applique ce qui précède à f\a, et au bout d'un nombre fini d'étapes, on obtient la décomposition voulue. Unicité. Supposons l'existence de deux suites de sous espaces jFi ,... , Fr et G'i,... , G, tous stables par / et vérifiant les conditions (i), (ii) et (iii). Notons Pi = II/|F et Qj = II/|0.. On voit que Pi = 11/ = Qi- Supposons la liste (Pi,. .. ,Pr) différente de (Ql)... ,Q,) et notons j le premier indice tel que Pj / Qj (un tel indice existe toujours même si r / s, car E, deg(^) = " = Ey deS(0y)) On a Pj{f){E) = PjUXFi) © • • © Pj{f){Fj-i) (*) et Pj(f)(E) = /M/)(G',) © ■ ■ ■ © Pi(/)(Gy-i) © Pj(f)(Gj) © ■ ■ ■ © Pj(f)(G,) (**) On adimPj(/)(jFÎ) = dimPj(f)(Gi) pour 1 < i < j — 1 (en effet, d'après la proposition 3, on peut trouver une base flj de Fi et une base B,' de Gi telles que la matrice de /^ dans Bi coïncide avec la matrice de f\Qt dans fl,'). En prenant les dimensions dans (*) et (**), on en déduit 0 = dimP;(/)(&'y) = • • = dimP^/XG,), ce qui prouve que Qj \ Pj. Par symétrie de rôle , on a aussi Pj \ Qj, donc. Pj = Qj ce qui est absurde. Finalement, on doit avoir r = s et Pi = Qi pour tout i. □ THÉORÈME 2 (RÉDUCTION DE FrobenUis). Si Pi,... ,Pr désigne, la suite, des invariants de. similitude, de. f e £{E), il existe une. base B de. E telle que. ( C{Pi) o [/]» = V o c(pr) On a d'ailleurs Pi =11/ et Px ■ ■ • PT est le jwlynôme camcté.ristùjue de. f (au facteur (—1)" près). Démonstration. Il suffit pour tout i de considérer une base de Fi dans laquelle la matrice de /,■ = /|Fj est C(Pi) (ce qui est possible d'après la proposition 3), puis d'écrire la matrice de / dans la base B = Bx U U Br. D Comme pour les matrices, on dit que deux endomorphismes /, y € C(E) sont semblables s'il existe h € Çt(E) tel que / = h~lgh. Muni de cette définition, on a le résultat suivant. Corollaire 1. Deux endomorphismes f et y £ £(E) sont semblables si et seulemeint s'ils ont le:s mêmeis invariants de similitude. Démonstration. Si / et g sont semblables, on montre facilement en reprenant la preuve de l'unicité dans le théorème 1 que / et g ont les mêmes invariants de similitude. Réciproquement, si / et g ont les mêmes invariants de similitude, le théorème précédent assure l'existence de deux bases B et B' de E telles que [/]b = [</]b' ce qui signifie que f et g sont semblables. D
282 B. Invariants de similitude d'un endomorphisme et réduction de Frobenius 3. Applications 3.1. Réduction de Jordan Une fois que l'on sait réduire un endomorphisme nilpotent sous forme de Jordan, il n'est pas difficile de trouver la réduction de Jordan d'un endomorphisme quelconque (voir le théorème 5, page 196). Comme nous allons le voir, cette première tâche peut être réalisée au moyen de la théorie des invariants de similitude. Soit / € C(E) un endomorphisme nilpotent. Désignons par Ply... ,Pr la suite des invariants de similitude de /. Le produit P\- • -PT est au signe près le polynôme caractéristique de /, qui est (—l)nXn, ce qui montre que Pi est de la forme Xni pour tout i. Ainsi, C(Pi) est la transposée d'un bloc de Jordan pour tout i, et on en déduit avec le théorème 2 l'existence d'une base B = (e.i, ...,«„) de E dans laquelle la matrice de / est de la forme / « "i o \ ou Vt€{l,...,n-1}, ^€{0,1}. \ o »„_, 0 / La matrice de / dans la base B' = (r;„,... , e\) est / 0 »„_, 0 \ V 0 "i 0 / qui a bien la forme voulue. 3.2. Autres applications Il existe une multitude de résultats qui peuvent être prouvés grâce à la théorie des invariants de similitude. Par exemple : — Dans Af„(E) (n = 2 ou n = 3), deux matrices sont semblables si et seulement si elles ont même polynôme minimal et même polynôme caractéristique (faux lorsque n > 4). — Si L est un surcorps commutât if de K, si A, B G Ai „(K) sont semblables sur Ai„(L), alors A et B sont semblables sur Af„(K). En effet, en vertu de l'unicité, les invariants de similitude dans Af„(K) sont les invariants de similitude dans Af„(L) (car de plus, le polynôme minimal d'une matrice de Af „(K) est le même dans K[A"] ou dans L[A"]). Ce résultat généralise celui de l'exercice 10 de la page 158. — Si / G £(E) et si les seuls endomorphismes commutant avec / sont des polynômes en /, alors / est cyclique. En effet, si tel n'est pas le cas, on a deg(II/) < n donc le nombre r d'invariants de similitude de / vérifie r > 2. Avec les notations du théorème 1, on peut écrire E = F\ © G où G = F2 © • • • © Fr jt {0}. Si on note p la projection sur G parallèlement à F\, p et / commutent (car F\ et G sont stables par /). Si p = Q(f) avec Q G Kt-X-], comme p\pt = 0 on en déduirait Q(f\F1) = 0, donc 11^ = Iïj( divise Q, et donc p = Q(f) = 0, ce qui est absurde. Ceci constitue la réciproque de la question 2/ de l'exercice 6 de la page 179.
Index des notations Les numéros en fin de ligne indiquent la page où est définie la notation correspondante. a | b a divise b, 7 a\b « ne divise pas b, 7 x = y (mod p) x est congru à y modulo n, 7 pgcd plus grand diviseur commun, 8, 55 a A b Pgcd de a et &, 8 ppcm plus petit multiple commun, 8 a V 6 ppcm de « et 6, 8 Z(G) centre du groupe G, 17 Card(C?) cardinal de l'ensemble G, 17 [G : #] indice de H dans G, 18 H < G H est distingué dans G, 18 G/H groupe quotient ou anneau quotient, 18, 29 Ker ip noyau du morphisme (p, 18 < A > sous groupe engendré par A, 19 < Xi,... , xn > sous groupe engendré par Xi,... , xn, 19 Sn groupe symétrique d'indice n, 20 (»(\) »(2) !" ,"„)) permutation de {1,... , n}, 20 Tij transposition sur i, j, 20 (al5... , ap) cycle de longueur p, 20 An groupe alterné d'indice «, 20 (a) idéal engendré par a, 29 (fi(n) indicateur d'Euler de n, 31 [x] partie entière de x, 43 deg(P) degré du polynôme P, 54 A[X] polynômes à coefficients dans A, 54 (P) idéal engendré par le polynôme P, 61 A = B (mod P) i4 est congru à B modulo P, 61 K(i4) plus petit sous corps contenant A et K, 62 K(X) fractions rationnelles sur K, 70 i4[A\,... ,Xn] polynômes à plusieurs indéterminées, 77 J2 ^ polynôme symétrisé de M, 78 Su ... , S„ polynômes symétriques élémentaires, 78 Ex + --- + En ou £"=i Et somme des s.e.v £,,...,£„, 108 .El ©■•■©£„ ou ©"-,£< somme directe des s.e.v Eït... ,En, 108
284 Index des notations Vect(yl) ou Vect(xi)iei dim(£) £(E,F) Ker/ Im/ rg/ C(E) Gt{E) Ue Ky);f'§; MP,,(K) Mn(K) 'A [/]!' L çen(K) Mb TgA tiA, tr/ < ip,x > E*, E" AL,B° '« £(EU...,EP,F),CP(E,K) det/ com(i4), A V(au... ,a„) Ex Pf f\F H/ C-AE) l/l 11*11«. exp(/), eJ AÇB [u,v] tp(x, .),<p(.,x) C$ ALB Ker$ M* 0(£) U{E) on,un so„, o+, sun. S0(£), 0+(E), SU{E) r G(xu... ,xn) s.e.v engendré par A ou par (:Ej),-e/, 109 dimension de E, 110 e.v des applications linéaires de E dans F, 112 noyau de l'application linéaire /, 112 image de l'application linéaire /, 112 rang de l'application linéaire /, 112 algèbre des endomorphismes de E, 113 groupe linéaire de E, 113 application identité de E, 113 matrice de type p X q, 117 matrices de type (p, q) à coefficients dans K, 118 matrices carrées n x n, 118 matrice transposée de A, 118 matrice de / dans les bases B et B', 118 matrice identité de Af„(K), 120 groupe linéaire d'indice n, 120 matrice de Pendomorphisme / dans la base B, 120 rang de la matrice A, 121 trace de la matrice A, de Pendomorphisme /, 122 crochet dual égal à ip(x) pour ip G E*, 126 du al, bidual de £,126 orthogonal de A, de B (dans le dual), 127 application transposée de m, 129 formes p-linéaires, 134 déterminant de /, 136 comatrice de A, 137 déterminant de Vandermonde defl1,... ,a„, 137 sous espace propre associé à A, 160 polynôme caractéristique de /, 160 restriction de Pendomorphisme / à F, 161 polynôme minimal de /, 174 endomorphismes de E continus, 181 nonne de / G Cr.(E), 181 nonne de X, 181 exponentielle de Pendomorphisme /, 182 A C B et A ^ B, 189 crochet de Lie de u et v : uv — vu, 204 pour x fixé, application y »-•• ip(x,y) (resp. y »-► (fi(y, x)), 223 cône isotrope de $, 226 A est orthogonal à B, 226 noyau de la forme quadratique ou hermitienne $, 227 dans Mn(K), *M si K ^ C, 'M si K = C, 227 groupe orthogonal de E, 238 groupe unitaire de E, 238 groupe des matrices orhogonales ou unitaires, 239 groupe spécial orthogonal, 239 endomorphisme adjoint de /, 239 déterminant de Grain de x,,... , xn, 259
Index terminologique abélien (groupe -), 17 adjoint (endomorphisme -), 239 algèbre, 108 algébrique (nombre -), 89 algébriquement clos (corps -), 63 alterné (groupe -), 20, 24 alternée (forme multilinéaire -), 134 anneau, 28 - commutatif, 28 - de Boole, 32 - des entiers de Gauss, 39 - euclidien, 38 - intègre, 28 - noethérien, 34 - principal, 29 - quotient, 29 - unitaire, 28 caractéristique d'un -, 30 idéal d'un -, 29 sous -, 28 antilinéaire (application -), 223 antisymétrique forme bilinéaire - , 224 forme multilinéaire -, 134 application linéaire, 112 associés (polynômes -), 54 autoadjoint (endomorphisme-), 239 automorphisme - de groupe, 18 - intérieur, 19 Banach (espace de -), 182 base (d'un espace vectoriel), 109 base antéduale, 127 base canonique (de K", de K[X]), 109 base duale, 126 base incomplète (théorème de la -), 109 base $-orthogonale, 227 Bernstein (théorème, de -), 96 Bezout (théorème de -), 8, 55 bidual, 126 bilinéaire (forme -), 134, 223 Boole (anneau de -), 32 caractéristique - d'un anneau, 30 - d'un corps, 54 caractéristique (polynôme-), 160 Cardan (formules de -), 80, 275 Carmichael (nombres de -), 35 Cauchy déterminant de -, 144 théorème de -, pour les groupes finis, 27 Cayley-Hamilton (théorème de -), 174 centre (d'un groupe), 17 - du groupe linéaire, 117 changement de base, 120, 224 chinois (théorème des -), 30 clôture algébrique d'un corps, 63 codiagonalisables (endomorphismes -), 164 codimension (d'un sous espace), 112 cofacteur, 136 comatrice, 137 combinaison linéaire, 109 commutant d'un endomorphisme, 179 compagnon (matrice -), 280 compagnon (matrice -), 175 congrues (matrices -), 224 corps, 53 - algébriquement, clos, 63 - commutatif, 53 - premier, 54 clôture algébrique d'un -, 63 extension de -, ou surcorps, 53 sous -, 53 corps des racines d'un polynôme, 63 r.otrigonalisables (endomorphismes -), 164 Cramer (systèmes de -), 138 cryptographie, 34 cycle, 20 cyclique endomorphisme -, 279 groupe -, 19 cyclotomique (polynôme -), 92 décomposition polaire, 246 définie (f. quadratique, hermitienne -), 226 dégénérée (f. quadratique, hermitienne-), 227 degré partiel, 77 degré total, 77 déterminant, 135 - caractéristique (d'un système), 138 - circulant, 147, 178 - d'un endomorphisme, 136 - d'une matrice carrée, 136 - de Cauchy, 144 - de Vandermonde, 137 - principal (d'un système), 138 dérivée d'un -, 215 diagonale (matrice-), 118 diagonale principale, 118 diagonalisable (endomorphisme-, matrice -), 162 dimension (d'un sous espace), 110
286 Index terminologique Dirichlet (théorème de -), 13, 37 discriminant d'un polynôme, 80 distingué (sous groupe -), 18 division euclidienne, 7, 55 division selon les puissances croissantes, 56 dual (espace -), 126 Dunford (décomposition de -), 191 Eisenstein (critère d'-), 58 élément - inversible, 28 - neutre, 17 - nilpotent, 28 élément primitif (théorème de 1'-), 91 éléments simples - de première, de seconde espèce, 72 décomposition en -, 70 endomorphisme, 112, 113 équation aux classes, 21, 22 espace vectoriel norme, 181 espace vectoriel, 107 Euclide (algorithme d'-), 8, 10, 57 euclidien (anneau -), 38 euclidien (espace -), 236 euclidienne (norme -), 236 Euler, L., 12 constante d'-, 103 indicateur d'-, 31 théorème d'-, 31 exponentielle d'endomorphismes, 182 exposant d'un groupe abélien fini, 26 Faddéev (algorithme de -), 215 famille (génératrice, libre, liée), 109 Fermât grand théorème de -, 16 nombres de -, 11, 14, 46 théorème de -, 9 Ferrari (méthode de -), 276 forme hermitienne, 226 forme linéaire, 112, 126 -sur Mn(K), 131 forme quadratique, 225 fraction rationnelle, 70 décomposition en éléments simples d'une -70 pôle d'une -, 70 partie entière d'une -, 70 Frobenius matrices positives de -, 218 réduction de -, 281 Gauss (méthode de -), 228 anneau des entiers de -, 39 lemme de -, 58 théorème de -, 8, 55 génératrice (partie -, famille-), 109 Gram (matrice de -, déterminant de -), 259 groupe, 17 p-groupe, 26 - abélien, commutatif, 17 - alterné, 20, 24 - cyclique, 19 - de type fini, 19 - des inversibles d'un anneau unitaire, 30 - des permutations, 20 - linéaire, 113, 120 - monogène, 19 - opérant sur un ensemble, 21 - orthogonal, 238 - quotient, 18 - spécial orthogonal, 239 - symétrique, 20 - unitaire, 238 sous -, 17 Hadamard (inégalité d'-), 258 hauteur d'un polynôme, 79 hermitien (espace -), 236 hermitienne forme -, 226 matrice -, 225 norme -, 236 hilbertien (espace -), 236, 250 homothétie, 113 hyperplan, 112, 129 idéal (- d'un anneau), 29 - maximal, 33 - premier, 33 - principal, 29 radical d'un -, 32 image (d'une application linéaire), 112 indicateur d'Euler, 31 indice - d'un endomorphisme; 189 - d'un sous groupe, 18 - de nilpotence, 28 intègre (anneau -), 28 intérieur (automorphisme-), 19 intransitivité (relation d'-, classe d'-), 21 inversible (élément, -), 28 irréductible (polynôme-), 55 isométrie, 238 isométrie directe, indirecte, 239 isomorphisme - d'anneaux, 29 - de K-e.v, 112 - de groupes, 18 isotrope (cône -, vecteur -), 226 Iwasawa (décomposition d'-), 247
Index terminologique 287 Jacobi, 50 Jordan (réduction de -), 195, 196 Kronecker (théorème de -), 90 Lagrange - théorème de, 17 méthode de -, 276 polynômes d'interpolation de -, 61 Legendre (symbole de -), 46 libre (famille-), 109 Lie (crochet de -), 171, 204 liée (famille-), 109 Liou ville nombres de -, 87 théorème de -, 15 logarithme d'une matrice inversible, 201 loi de réciprocité quadratique, 46 Lucas (test de -), 11 Markov (théorème de -), 96 matrice, 117 - antisymétrique, 118, 224, 257 - carrée, 118, 120 - compagnon, 175, 280 - de passage, 120 - diagonalement dominante, 122 - extraite, - bordante, 121 - hermitienne, 225 - ligne, - colonne, 118 - scalaire, 118 - symétrique, 118, 224 - triangulaire, trigonale, 118 ordre, taille d'une -, 118 matrices équivalentes, - semblables, 120 maximum (principe du -), 67 Mersenne (nombres de -), 11, 15 mineur, 136 mineur principal, 161 minimal (polynôme -), 174 Minkowsky (inégalité de -), 231 monogène (groupe -), 19 morphisme - d'anneaux, 29 - de groupes, 18 multilinéaire (application -), 134 neutre (élément -), 17 Newton (formules de -), 81 nilpotence (indice de -), 28 nilpotent (élément -), 28 endomorphisme -, 150, 161, 176, 195 noethérien (anneau -), 34 normal (endomorphisme -), 254 noyau - d'un morphisme d'anneaux, 29 - d'un morphisme de groupes, 18 - d'une application linéaire, 112 - d'une f. quadratique, hermitienne, 227 noyaux (th. de décomposition des -), 173 orbite, 20, 21 ordre - d'un élément, 19 - d'un groupe, 17 orthogonal (endomorphisme -), 238 orthogonalité - dans le dual, 127 - dans un espace préhilbertien, 237 - selon une f. quadratique, hermitienne, 226 orthonormale, orthonormée (famille-), 237 parallélogramme (identité du -), 237 parfaits (nombres -), 14 partie entière d'une fraction rationnelle, 70 permutation (groupe des -), 20 pgcd, 8, 55 p-groupe, 26 polaire (forme -), 225, 226 polaire (décomposition -), 246 pôle d'une fraction rationnelle, 70 polynôme - à plusieurs indéterminées, 77 - à une indéterminée, 54 - caractéristique, 160 - cyclotomique, 92 - d'endomorphisme, 172 - d'interpolation de Lagrange, 61 - dérivé, 61 - symétrique, symétrique élémentaire, 78 - unitaire, 54 corps des racines d'un -, 63 racine, zéro d'un -, 59 positive forme quadratique ou hermitienne -, 230 matrice -, matrice définie -, 241 ppcm, 8 préhilbertien (espace -), 236 premier corps -, 54 idéal -, 33 nombre -, 9 nombre pseudo-, 35 sous corps -, 54 premiers entre eux entiers - , 8 polynômes - , 55 primalité (tests de -), 36 principal (anneau -, idéal -), 29 produit scalaire, - hermitien, 236 projecteur, projection, 114
288 projection orthogonale, 238 propre (valeur -, vecteur -), 159 pseudo-premier (nombre -), 35 quadratique (forme -), 225 quotient anneau -, 29 espace vectoriel -, 112 groupe -, 18 racine d'un polynôme, 59 racine carrée d'une matrice positive, 242 radical (d'un idéal), 32 Ramanujan, 105 rang - d'une application linéaire, 112 - d'une f. bilinéaire ou sesquilinéaire, 224 - d'une forme hermitienne, 226 - d'une forme quadratique, 225 - d'une matrice, 121 rayon spectral, 208 réduction - des endomorphismes autoàdjoints, 240 - des endomorphismes normaux, 254 - des endomorphismes unitaires, 253 - des isométries, 252 - des matrices antisymétriques, 257 réflexion (de l'espace), 253 régulière (valeur -), 159 résultant de deux polynômes, 207 retournement (de l'espace), 253 rotation (du plan, de l'espace), 253 Rouché-Fontené (théorème de -), 138 Schmidt (procédé d'orthogonalisation de -), 237 Schur (produit de -), 250 Schwarz (inégalité de -), 230 scindé (polynôme-), 60 semi-simples (endomorphismes -), 219 séries entières d'endomorphismes, 182 sesquilinéaire (forme -), 223 signature - d'un cycle, 20 - d'une f. quadratique, hermitienne, 230 - d'une permutation, 20 similitude (invariants de -), 280 simultanée (diagonalisation -, trigonalisation -), 164 somme, somme directe de sous espaces, 108 sous anneau, 28 sous corps, 53 - premier, 54 sous espace caractéristique, 189 sous espace propre, 160 sous groupe, 17 Index terminologique - distingué, normal, invariant, 18 spectrale (valeur -), spectre, 159 stabilisateur (d'un élément), 21 Steinitz (théorème de -), 63 suites exactes, 116 supplémentaire (d'un s.e.v), 110 surcorps, 53 Sylow (théorème de -), 40 Sylvester (loi d'inertie de -), 230 symétrie, 114 symétrie hermitienne, 225 symétrie orthogonale, 238 symétrique - élémentaire (polynôme -), 78 élément -, 17 endomorphisme -, 240 forme bilinéaire - , 224 groupe -, 20 matrice -, 118, 224 polynôme -, 78 symétrisé d'un polynôme, 78 système linéaire, 137 - de Cramer, 138 Taylor (formule de -), 61 Tchébycheff polynômes de -, 95 théorème de -, 14, 43 théorème de la médiane, 237 théorème des nombres premiers, 14 théorème fondamental de l'algèbre, 63, 86 théorème fondamental de l'arithmétique, 9 trace, 122 transcendance (de e, de ir), 99 transcendant (nombre -), 87 transformée de Fourier discrète, 82 transposée application -, 129 matrice -, 118 transposition, 20 transvection (matrice de -), 156 trigonalisable (endomorphisme -, matrice -), 162 trigonalisation, 162 unitaire (polynôme -), 54 unitaire (anneau -), 28 unitaire (endomorphisme-), 238 Vandermonde (déterminant de -), 137 Waring méthode de -, 79 problème de -, 52 Wedderburn (théorème de -), 94 Wilson (théorème de -), 9 Aubin Imprimeur, 86240 Ligugé. — D.L juillet 1996. — Impr, L 51919