Avertissement

Ce contenu a été généré par une intelligence artificielle (LLM) et peut contenir des imprécisions ou des erreurs malgré notre relecture attentive. Il s'agit d'un outil d'apprentissage et non d'une référence académique.

Si vous constatez des erreurs, merci de nous les signaler via la page "À propos".

Exercices “Rappels et notation” (B)

Exercise 1: [Theoretical Investigation]

Problem: Soit EE un ensemble. La différence symétrique de deux sous-ensembles A,BEA, B \subseteq E est définie par AΔB=(AB)(BA)A \Delta B = (A \setminus B) \cup (B \setminus A). Démontrer que l’ensemble des parties P(E)\mathcal{P}(E), muni de l’opération Δ\Delta, forme un groupe abélien. C’est-à-dire, prouver les propriétés suivantes pour tous A,B,CP(E)A, B, C \in \mathcal{P}(E):

  1. Commutativité: AΔB=BΔAA \Delta B = B \Delta A
  2. Associativité: (AΔB)ΔC=AΔ(BΔC)(A \Delta B) \Delta C = A \Delta (B \Delta C)
  3. Élément neutre: Il existe un élément NP(E)N \in \mathcal{P}(E) tel que AΔN=AA \Delta N = A pour tout AA.
  4. Élément symétrique (inverse): Pour tout AP(E)A \in \mathcal{P}(E), il existe un élément AP(E)A' \in \mathcal{P}(E) tel que AΔA=NA \Delta A' = N.
Solution

Method: La méthode consiste à utiliser les définitions des opérations ensemblistes pour vérifier chaque propriété. Une approche alternative, particulièrement utile pour l’associativité, consiste à utiliser les fonctions caractéristiques. La fonction caractéristique 1A:E{0,1}\mathbb{1}_A: E \to \{0, 1\} d’un ensemble AA est telle que 1A(x)=1\mathbb{1}_A(x)=1 si xAx \in A et 00 sinon. Les opérations ensemblistes correspondent à des opérations arithmétiques sur ces fonctions dans le corps F2={0,1}\mathbb{F}_2 = \{0, 1\}. On a 1AB=1A1B\mathbb{1}_{A \cap B} = \mathbb{1}_A \cdot \mathbb{1}_B et 1AΔB=1A+1B(mod2)\mathbb{1}_{A \Delta B} = \mathbb{1}_A + \mathbb{1}_B \pmod 2.

Steps:

  1. Caractérisation de la différence symétrique:

    On peut réécrire AΔBA \Delta B comme (AB)(AB)(A \cup B) \setminus (A \cap B).

    Un élément xx est dans AΔBA \Delta B si et seulement si il est dans AA ou dans BB, mais pas dans les deux.

    En termes de fonctions caractéristiques, on a 1AΔB(x)=(1A(x)+1B(x))(mod2)\mathbb{1}_{A \Delta B}(x) = (\mathbb{1}_A(x) + \mathbb{1}_B(x)) \pmod 2.

  2. Commutativité:

    AΔB=(AB)(BA)=(BA)(AB)=BΔAA \Delta B = (A \setminus B) \cup (B \setminus A) = (B \setminus A) \cup (A \setminus B) = B \Delta A.

    Avec les fonctions caractéristiques: 1A+1B=1B+1A(mod2)\mathbb{1}_A + \mathbb{1}_B = \mathbb{1}_B + \mathbb{1}_A \pmod 2. La propriété est évidente.

  3. Élément neutre:

    Cherchons NN tel que AΔN=AA \Delta N = A. Cela signifie (AN)(NA)=A(A \setminus N) \cup (N \setminus A) = A. Si N=N = \emptyset, on a (A)(A)=A=A(A \setminus \emptyset) \cup (\emptyset \setminus A) = A \cup \emptyset = A.

    Donc, l’élément neutre est l’ensemble vide \emptyset.

    Avec les fonctions caractéristiques: 1A+1=1A+0=1A\mathbb{1}_A + \mathbb{1}_\emptyset = \mathbb{1}_A + 0 = \mathbb{1}_A.

  4. Élément symétrique:

    Pour un ensemble AA, cherchons AA' tel que AΔA=A \Delta A' = \emptyset.

    Si on prend A=AA' = A, on a AΔA=(AA)(AA)==A \Delta A = (A \setminus A) \cup (A \setminus A) = \emptyset \cup \emptyset = \emptyset.

    Donc, chaque élément est son propre inverse.

    Avec les fonctions caractéristiques: 1A+1A=21A0(mod2)\mathbb{1}_A + \mathbb{1}_A = 2 \cdot \mathbb{1}_A \equiv 0 \pmod 2.

  5. Associativité:

    C’est la partie la plus complexe. Utilisons les fonctions caractéristiques, car l’addition modulo 2 est associative.

    1(AΔB)ΔC=1AΔB+1C=(1A+1B)+1C(mod2)\mathbb{1}_{(A \Delta B) \Delta C} = \mathbb{1}_{A \Delta B} + \mathbb{1}_C = (\mathbb{1}_A + \mathbb{1}_B) + \mathbb{1}_C \pmod 2.

    1AΔ(BΔC)=1A+1BΔC=1A+(1B+1C)(mod2)\mathbb{1}_{A \Delta (B \Delta C)} = \mathbb{1}_A + \mathbb{1}_{B \Delta C} = \mathbb{1}_A + (\mathbb{1}_B + \mathbb{1}_C) \pmod 2.

    Puisque l’addition est associative, les deux expressions sont égales. Ceci prouve que (AΔB)ΔC=AΔ(BΔC)(A \Delta B) \Delta C = A \Delta (B \Delta C).

    Preuve directe (plus longue): x(AΔB)ΔC    xx \in (A \Delta B) \Delta C \iff x est dans exactement un des ensembles AΔB,CA \Delta B, C.

    x(AΔB)    xx \in (A \Delta B) \iff x est dans exactement un des ensembles A,BA, B.

    En combinant, on trouve que x(AΔB)ΔCx \in (A \Delta B) \Delta C si et seulement si xx appartient à un nombre impair d’ensembles parmi A,B,CA, B, C. Cette condition est symétrique en A,B,CA, B, C, donc elle est la même pour AΔ(BΔC)A \Delta (B \Delta C).

Answer: Les quatre propriétés (commutativité, associativité, élément neutre, élément symétrique) sont vérifiées. L’ensemble (P(E),Δ)(\mathcal{P}(E), \Delta) est donc un groupe abélien. L’élément neutre est \emptyset et chaque élément AA est son propre inverse.

Exercise 2: [Complex Proof]

Problem: Démontrer qu’il n’existe aucune application surjective d’un ensemble EE vers son ensemble des parties P(E)\mathcal{P}(E). Ce résultat est une généralisation du théorème de Cantor.

Solution

Method: La preuve se fait par l’absurde. On suppose qu’une telle application surjective f:EP(E)f: E \to \mathcal{P}(E) existe, puis on construit un ensemble spécifique DP(E)D \in \mathcal{P}(E) qui ne peut pas être dans l’image de ff, ce qui contredit la surjectivité. Cette technique est connue sous le nom d’argument diagonal de Cantor.

Steps:

  1. Hypothèse par l’absurde: Supposons qu’il existe un ensemble EE et une application surjective f:EP(E)f: E \to \mathcal{P}(E). Cela signifie que pour tout sous-ensemble AEA \subseteq E, il existe au moins un élément xEx \in E tel que f(x)=Af(x) = A.

  2. Construction de l’ensemble diagonal: Considérons le sous-ensemble suivant de EE, que nous nommerons DD (pour “diagonal”):

    D={xExf(x)}D = \{x \in E \mid x \notin f(x)\}

    La définition de DD est valide. Pour chaque xEx \in E, f(x)f(x) est un sous-ensemble de EE, donc la condition xf(x)x \notin f(x) a un sens.

  3. Recherche d’un antécédent pour D: Puisque DD est un sous-ensemble de EE, DP(E)D \in \mathcal{P}(E). Par notre hypothèse de surjectivité de ff, il doit exister un élément dEd \in E tel que f(d)=Df(d) = D.

  4. Arriver à une contradiction: Maintenant, posons la question: l’élément dd appartient-il à l’ensemble DD ?

    • Cas 1: Supposons que dDd \in D. Par la définition de DD, si un élément xx est dans DD, alors xf(x)x \notin f(x). En appliquant cela à x=dx=d, on obtient df(d)d \notin f(d). Mais nous savons que f(d)=Df(d)=D. Donc, on a dDd \notin D. C’est une contradiction avec notre supposition (dDd \in D).
    • Cas 2: Supposons que dDd \notin D. Par la définition de DD, si un élément xx n’est pas dans DD, c’est que la condition xf(x)x \notin f(x) est fausse. Autrement dit, xf(x)x \in f(x). En appliquant cela à x=dx=d, on obtient df(d)d \in f(d). Puisque f(d)=Df(d)=D, cela signifie que dDd \in D. C’est une contradiction avec notre supposition (dDd \notin D).
  5. Conclusion: Dans les deux cas possibles, nous arrivons à une contradiction logique (dD    dDd \in D \iff d \notin D). Par conséquent, notre hypothèse initiale selon laquelle il existe un élément dEd \in E tel que f(d)=Df(d) = D doit être fausse.

    Ceci signifie que l’ensemble DD n’a pas d’antécédent par ff. L’application ff n’est donc pas surjective.

    Ceci contredit notre hypothèse de départ. L’hypothèse qu’une telle application surjective existe est donc fausse.

Answer: Pour tout ensemble EE, il n’existe aucune application surjective f:EP(E)f: E \to \mathcal{P}(E). En conséquence, E<P(E)|E| < |\mathcal{P}(E)|.

Exercise 3: [Advanced Application]

Problem: En théorie de la mesure, une σ\sigma-algèbre (ou tribu) sur un ensemble XX est un sous-ensemble AP(X)\mathcal{A} \subseteq \mathcal{P}(X) satisfaisant les trois axiomes:

  1. XAX \in \mathcal{A}.
  2. Si AAA \in \mathcal{A}, alors son complémentaire XAX \setminus A est aussi dans A\mathcal{A} (stabilité par complémentation).
  3. Si (An)nN(A_n)_{n \in \mathbb{N}} est une suite d’ensembles dans A\mathcal{A}, alors leur union n=0An\bigcup_{n=0}^{\infty} A_n est aussi dans A\mathcal{A} (stabilité par union dénombrable).

Questions:

a) Démontrer qu’une σ\sigma-algèbre est également stable par intersection dénombrable.

b) Soit (Ai)iI( \mathcal{A}_i )_{i \in I} une famille quelconque (finie ou infinie) de σ\sigma-algèbres sur XX. Démontrer que leur intersection A=iIAi\mathcal{A} = \bigcap_{i \in I} \mathcal{A}_i est encore une σ\sigma-algèbre sur XX.

c) L’union de deux σ\sigma-algèbres est-elle toujours une σ\sigma-algèbre? Fournir une preuve ou un contre-exemple.

Solution

Method: Les questions (a) et (b) se résolvent en appliquant directement les définitions. Pour (a), on utilise les lois de De Morgan. Pour (b), on vérifie que l’intersection de la famille de collections d’ensembles satisfait les trois axiomes d’une σ\sigma-algèbre. Pour (c), on cherche un contre-exemple simple.

Steps:

a) Stabilité par intersection dénombrable

  1. Soit (An)nN(A_n)_{n \in \mathbb{N}} une suite d’ensembles dans une σ\sigma-algèbre A\mathcal{A}.
  2. Pour chaque nNn \in \mathbb{N}, comme AnAA_n \in \mathcal{A}, son complémentaire Anc=XAnA_n^c = X \setminus A_n est aussi dans A\mathcal{A} par l’axiome 2.
  3. La suite (Anc)nN(A_n^c)_{n \in \mathbb{N}} est donc une suite d’ensembles de A\mathcal{A}. Par l’axiome 3, leur union n=0Anc\bigcup_{n=0}^\infty A_n^c est dans A\mathcal{A}.
  4. Par la loi de De Morgan généralisée, on a n=0An=(n=0Anc)c\bigcap_{n=0}^\infty A_n = \left( \bigcup_{n=0}^\infty A_n^c \right)^c.
  5. Puisque n=0AncA\bigcup_{n=0}^\infty A_n^c \in \mathcal{A}, son complémentaire est aussi dans A\mathcal{A} par l’axiome 2. Donc, n=0AnA\bigcap_{n=0}^\infty A_n \in \mathcal{A}.

b) Intersection de σ\sigma-algèbres

Soit A=iIAi\mathcal{A} = \bigcap_{i \in I} \mathcal{A}_i. Vérifions les trois axiomes pour A\mathcal{A}.

  1. Axiome 1 (XAX \in \mathcal{A} ?): Pour tout iIi \in I, Ai\mathcal{A}_i est une σ\sigma-algèbre, donc XAiX \in \mathcal{A}_i. Par conséquent, XX appartient à leur intersection, XAX \in \mathcal{A}.
  2. Axiome 2 (Stabilité par complémentation): Soit AAA \in \mathcal{A}. Par définition de l’intersection, AAiA \in \mathcal{A}_i for all iIi \in I. Puisque chaque Ai\mathcal{A}_i est une σ\sigma-algèbre, le complémentaire AcA^c est aussi dans chaque Ai\mathcal{A}_i. Donc, AciIAi=AA^c \in \bigcap_{i \in I} \mathcal{A}_i = \mathcal{A}.
  3. Axiome 3 (Stabilité par union dénombrable): Soit (An)nN(A_n)_{n \in \mathbb{N}} une suite d’ensembles dans A\mathcal{A}. Alors, pour chaque nn, AnAiA_n \in \mathcal{A}_i pour tout iIi \in I. Puisque chaque Ai\mathcal{A}_i est une σ\sigma-algèbre, l’union dénombrable n=0An\bigcup_{n=0}^\infty A_n appartient à Ai\mathcal{A}_i pour tout iIi \in I. Par conséquent, n=0AniIAi=A\bigcup_{n=0}^\infty A_n \in \bigcap_{i \in I} \mathcal{A}_i = \mathcal{A}.

Les trois axiomes sont vérifiés, donc A\mathcal{A} est une σ\sigma-algèbre.

c) Union de σ\sigma-algèbres

L’union de deux σ\sigma-algèbres n’est pas nécessairement une σ\sigma-algèbre. Fournissons un contre-exemple.

  1. Soit X={1,2,3}X = \{1, 2, 3\}.
  2. Considérons la σ\sigma-algèbre A1={,{1},{2,3},X}\mathcal{A}_1 = \{\emptyset, \{1\}, \{2, 3\}, X\}. C’est bien une σ\sigma-algèbre.
  3. Considérons la σ\sigma-algèbre A2={,{2},{1,3},X}\mathcal{A}_2 = \{\emptyset, \{2\}, \{1, 3\}, X\}. C’est aussi une σ\sigma-algèbre.
  4. Leur union est A1A2={,{1},{2},{1,3},{2,3},X}\mathcal{A}_1 \cup \mathcal{A}_2 = \{\emptyset, \{1\}, \{2\}, \{1, 3\}, \{2, 3\}, X\}.
  5. Prenons deux ensembles de cette union: A={1}A1A2A = \{1\} \in \mathcal{A}_1 \cup \mathcal{A}_2 et B={2}A1A2B = \{2\} \in \mathcal{A}_1 \cup \mathcal{A}_2.
  6. Si A1A2\mathcal{A}_1 \cup \mathcal{A}_2 était une σ\sigma-algèbre, leur union AB={1,2}A \cup B = \{1, 2\} devrait aussi y appartenir.
  7. Or, {1,2}A1A2\{1, 2\} \notin \mathcal{A}_1 \cup \mathcal{A}_2.
  8. Donc, A1A2\mathcal{A}_1 \cup \mathcal{A}_2 n’est pas stable par union (finie, donc a fortiori dénombrable) et n’est pas une σ\sigma-algèbre.

Answer:

a) Oui, une σ\sigma-algèbre est stable par intersection dénombrable.

b) Oui, l’intersection d’une famille quelconque de σ\sigma-algèbres est une σ\sigma-algèbre.

c) Non, l’union de deux σ\sigma-algèbres n’est pas nécessairement une σ\sigma-algèbre, comme le montre le contre-exemple fourni.

Exercise 4: [Complex Proof]

Problem: Soit f:EFf: E \to F une application. Démontrer l’équivalence des trois propositions suivantes :

(i) ff est injective.

(ii) Pour toute partie AEA \subseteq E, f1(f(A))=Af^{-1}(f(A)) = A.

(iii) Pour toutes parties A,BEA, B \subseteq E, f(AB)=f(A)f(B)f(A \cap B) = f(A) \cap f(B).

Solution

Method: Pour prouver l’équivalence de plusieurs propositions, on démontre un cycle d’implications, par exemple (i)     \implies (ii), (ii)     \implies (iii), et (iii)     \implies (i).

Il est utile de rappeler que pour toute application ff et tout AEA \subseteq E, on a toujours l’inclusion Af1(f(A))A \subseteq f^{-1}(f(A)). De même, pour tous A,BEA, B \subseteq E, on a toujours f(AB)f(A)f(B)f(A \cap B) \subseteq f(A) \cap f(B). Les preuves consisteront donc à établir les inclusions inverses sous les hypothèses données.

Steps:

1. Preuve de (i)     \implies (ii)

Supposons que ff est injective. Soit AEA \subseteq E.

  • L’inclusion Af1(f(A))A \subseteq f^{-1}(f(A)) est toujours vraie. En effet, si xAx \in A, alors f(x)f(A)f(x) \in f(A), ce qui par définition de l’image réciproque signifie que xf1(f(A))x \in f^{-1}(f(A)).
  • Montrons l’inclusion inverse: f1(f(A))Af^{-1}(f(A)) \subseteq A. Soit xf1(f(A))x \in f^{-1}(f(A)). Par définition, cela signifie que f(x)f(A)f(x) \in f(A).
  • Par définition de f(A)f(A), il existe un élément aAa \in A tel que f(x)=f(a)f(x) = f(a).
  • Puisque ff est injective, f(x)=f(a)f(x) = f(a) implique x=ax = a.
  • Comme aAa \in A, on a xAx \in A.
  • Donc, f1(f(A))Af^{-1}(f(A)) \subseteq A.
  • Les deux inclusions prouvent que f1(f(A))=Af^{-1}(f(A)) = A.

2. Preuve de (ii)     \implies (iii)

Supposons que pour tout XEX \subseteq E, f1(f(X))=Xf^{-1}(f(X)) = X. Soient A,BEA, B \subseteq E.

  • L’inclusion f(AB)f(A)f(B)f(A \cap B) \subseteq f(A) \cap f(B) est toujours vraie. Si yf(AB)y \in f(A \cap B), alors y=f(x)y=f(x) pour un xABx \in A \cap B. Donc xAx \in A et xBx \in B, ce qui implique f(x)f(A)f(x) \in f(A) et f(x)f(B)f(x) \in f(B). Ainsi yf(A)f(B)y \in f(A) \cap f(B).
  • Montrons l’inclusion inverse: f(A)f(B)f(AB)f(A) \cap f(B) \subseteq f(A \cap B).
  • Soit yf(A)f(B)y \in f(A) \cap f(B). Alors yf(A)y \in f(A), donc f1({y})Af^{-1}(\{y\}) \cap A \neq \emptyset. De même, yf(B)y \in f(B), donc f1({y})Bf^{-1}(\{y\}) \cap B \neq \emptyset.
  • Appliquons l’hypothèse (ii) à l’ensemble ABA \cap B. On a f1(f(AB))=ABf^{-1}(f(A \cap B)) = A \cap B.
  • Soit yf(A)f(B)y \in f(A) \cap f(B). Il existe aAa \in A tel que y=f(a)y=f(a) et bBb \in B tel que y=f(b)y=f(b).
  • Considérons l’ensemble X={a,b}X = \{a, b\}. On a f(X)={y}f(X) = \{y\}.
  • Par hypothèse (ii), f1(f({a}))={a}f^{-1}(f(\{a\})) = \{a\} et f1(f({b}))={b}f^{-1}(f(\{b\})) = \{b\}. Cela implique que les seules préimages de yy sont aa et bb. Or f1({y})f^{-1}(\{y\}) est l’ensemble des préimages, donc f1({y}){a,b}f^{-1}(\{y\}) \subseteq \{a,b\}. Comme f(a)=y=f(b)f(a)=y=f(b), on n’a pas nécessairement a=ba=b sans l’injectivité.
  • Correction de l’approche: Soit C=f(A)f(B)C = f(A) \cap f(B). Alors f1(C)=f1(f(A))f1(f(B))f^{-1}(C) = f^{-1}(f(A)) \cap f^{-1}(f(B)). Appliquons l’hypothèse (ii) à AA et BB: f1(f(A))=Af^{-1}(f(A))=A et f1(f(B))=Bf^{-1}(f(B))=B.
  • Donc f1(C)=ABf^{-1}(C) = A \cap B. En appliquant ff des deux côtés: f(f1(C))=f(AB)f(f^{-1}(C)) = f(A \cap B).
  • On sait que Cf(f1(C))C \subseteq f(f^{-1}(C)) (c’est vrai si Cf(E)C \subseteq f(E)). Comme C=f(A)f(B)C = f(A) \cap f(B), tous les éléments de CC sont dans l’image de ff. Donc C=f(f1(C))C = f(f^{-1}(C)).
  • Ainsi, f(A)f(B)=f(AB)f(A) \cap f(B) = f(A \cap B).

3. Preuve de (iii)     \implies (i)

Supposons que pour tous A,BEA, B \subseteq E, f(AB)=f(A)f(B)f(A \cap B) = f(A) \cap f(B).

  • Pour montrer que ff est injective, prenons x1,x2Ex_1, x_2 \in E tels que f(x1)=f(x2)f(x_1) = f(x_2). Nous devons montrer que x1=x2x_1=x_2.
  • Posons A={x1}A = \{x_1\} and B={x2}B = \{x_2\}.
  • D’un côté, f(AB)=f({x1}{x2})f(A \cap B) = f(\{x_1\} \cap \{x_2\}).
  • De l’autre côté, f(A)f(B)=f({x1})f({x2})={f(x1)}{f(x2)}f(A) \cap f(B) = f(\{x_1\}) \cap f(\{x_2\}) = \{f(x_1)\} \cap \{f(x_2)\}.
  • Comme f(x1)=f(x2)f(x_1) = f(x_2), cette intersection est {f(x1)}\{f(x_1)\}. L’ensemble n’est pas vide.
  • Par notre hypothèse (iii), f(AB)={f(x1)}f(A \cap B) = \{f(x_1)\}, ce qui signifie que f(AB)f(A \cap B) est non vide.
  • Pour que f(AB)f(A \cap B) soit non vide, l’ensemble ABA \cap B doit être non vide.
  • AB={x1}{x2}A \cap B = \{x_1\} \cap \{x_2\} est non vide si et seulement si x1=x2x_1 = x_2.
  • Donc ff est injective.

Answer: Les trois propositions sont logiquement équivalentes.

Exercise 5: [Theoretical Investigation]

Problem: Soit SnS_n le groupe des permutations de l’ensemble E={1,2,,n}E = \{1, 2, \dots, n\}. Le centralisateur d’un élément σSn\sigma \in S_n est l’ensemble C(σ)={τSnστ=τσ}C(\sigma) = \{\tau \in S_n \mid \sigma \circ \tau = \tau \circ \sigma \}.

Caractériser le centralisateur du cycle σ=(1,2,,n)\sigma = (1, 2, \dots, n).

Indice: Étudier l’effet de la conjugaison τστ1\tau \sigma \tau^{-1} sur la structure cyclique de σ\sigma.

Solution

Method: La méthode repose sur un résultat fondamental de la théorie des groupes : la conjugaison préserve la structure cyclique. Spécifiquement, si σ=(c1,c2,,ck)\sigma = (c_1, c_2, \dots, c_k) est un kk-cycle, alors τστ1\tau \sigma \tau^{-1} est le kk-cycle (τ(c1),τ(c2),,τ(ck))(\tau(c_1), \tau(c_2), \dots, \tau(c_k)). La condition τστ1=σ\tau \sigma \tau^{-1} = \sigma impose des contraintes fortes sur l’image des éléments {1,2,,n}\{1, 2, \dots, n\} par τ\tau.

Steps:

  1. Action de la conjugaison sur un cycle:

    Soit σ=(1,2,,n)\sigma = (1, 2, \dots, n) un nn-cycle et τSn\tau \in S_n. Calculons l’image d’un élément iEi \in E par τστ1\tau \sigma \tau^{-1}.

    Soit j=τ(i)j = \tau(i). Alors τ1(j)=i\tau^{-1}(j) = i.

    (τστ1)(j)=τ(σ(τ1(j)))=τ(σ(i))(\tau \sigma \tau^{-1})(j) = \tau(\sigma(\tau^{-1}(j))) = \tau(\sigma(i)).

    Puisque σ\sigma est le cycle (1,2,,n)(1, 2, \dots, n), on a σ(i)=i+1\sigma(i) = i+1 (modulo nn, en identifiant n+1n+1 à 11).

    Donc (τστ1)(j)=τ(i+1)(\tau \sigma \tau^{-1})(j) = \tau(i+1).

    En résumé, si j=τ(i)j = \tau(i), alors l’image de jj par τστ1\tau \sigma \tau^{-1} est τ(i+1)\tau(i+1).

    Ceci signifie que la permutation τστ1\tau \sigma \tau^{-1} envoie τ(1)\tau(1) sur τ(2)\tau(2), τ(2)\tau(2) sur τ(3)\tau(3), …, et τ(n)\tau(n) sur τ(1)\tau(1).

    Donc, τστ1=(τ(1),τ(2),,τ(n))\tau \sigma \tau^{-1} = (\tau(1), \tau(2), \dots, \tau(n)).

  2. Condition du centralisateur:

    Une permutation τ\tau est dans le centralisateur C(σ)C(\sigma) si et seulement si στ=τσ\sigma \circ \tau = \tau \circ \sigma, ce qui est équivalent à τστ1=σ\tau \sigma \tau^{-1} = \sigma.

    En utilisant le résultat de l’étape 1, cela se traduit par l’égalité de cycles:

    (τ(1),τ(2),,τ(n))=(1,2,,n)(\tau(1), \tau(2), \dots, \tau(n)) = (1, 2, \dots, n)

  3. Caractérisation de τ\tau:

    Deux cycles sont égaux si et seulement si ils représentent la même permutation. L’écriture d’un cycle n’est pas unique, on peut commencer par n’importe quel élément. Par exemple, (1,2,3)=(2,3,1)=(3,1,2)(1, 2, 3) = (2, 3, 1) = (3, 1, 2).

    L’égalité (τ(1),τ(2),,τ(n))=(1,2,,n)(\tau(1), \tau(2), \dots, \tau(n)) = (1, 2, \dots, n) signifie qu’il existe un entier k{0,1,,n1}k \in \{0, 1, \dots, n-1\} tel que:

    τ(1)=1+k(modn)\tau(1) = 1+k \pmod n

    τ(2)=2+k(modn)\tau(2) = 2+k \pmod n

    τ(i)=i+k(modn)\tau(i) = i+k \pmod n

    τ(n)=n+k(modn)\tau(n) = n+k \pmod n

    (où les résultats sont compris dans {1,,n}\{1, \dots, n\}).

  4. Identification de τ\tau aux puissances de σ\sigma:

    La permutation σ\sigma est définie par σ(i)=i+1(modn)\sigma(i) = i+1 \pmod n.

    La permutation σ2=σσ\sigma^2 = \sigma \circ \sigma est définie par σ2(i)=i+2(modn)\sigma^2(i) = i+2 \pmod n.

    Plus généralement, la permutation σk\sigma^k est définie par σk(i)=i+k(modn)\sigma^k(i) = i+k \pmod n pour k{0,1,,n1}k \in \{0, 1, \dots, n-1\}.

    La condition τ(i)=i+k(modn)\tau(i) = i+k \pmod n pour un certain kk fixe signifie donc que τ=σk\tau = \sigma^k.

  5. Conclusion:

    Les permutations τ\tau qui commutent avec σ=(1,2,,n)\sigma = (1, 2, \dots, n) sont exactement les puissances de σ\sigma.

    Le centralisateur C(σ)C(\sigma) est donc l’ensemble {σ0,σ1,σ2,,σn1}\{\sigma^0, \sigma^1, \sigma^2, \dots, \sigma^{n-1}\}, où σ0\sigma^0 est la permutation identité.

    Cet ensemble est le groupe cyclique engendré par σ\sigma, noté σ\langle \sigma \rangle.

Answer: Le centralisateur du nn-cycle σ=(1,2,,n)\sigma = (1, 2, \dots, n) dans SnS_n est le groupe cyclique engendré par σ\sigma lui-même : C(σ)=σ={id,σ,σ2,,σn1}C(\sigma) = \langle \sigma \rangle = \{\text{id}, \sigma, \sigma^2, \dots, \sigma^{n-1}\}.

Exercise 6: [Advanced Application]

Problem: Soit KK un corps (par exemple R\mathbb{R} ou C\mathbb{C}). L’espace projectif de dimension nn sur KK, noté Pn(K)\mathbb{P}^n(K), est défini comme l’ensemble des droites vectorielles de l’espace vectoriel Kn+1K^{n+1}.

Formaliser cette construction en utilisant une relation d’équivalence.

  1. Considérer l’ensemble E=Kn+1{0}E = K^{n+1} \setminus \{ \mathbf{0} \}, où 0\mathbf{0} est le vecteur nul.
  2. Définir une relation R\mathcal{R} sur EE par: pour x,yE\mathbf{x}, \mathbf{y} \in E, xRy\mathbf{x} \mathcal{R} \mathbf{y} si et seulement s’il existe λK=K{0}\lambda \in K^* = K \setminus \{0\} tel que y=λx\mathbf{y} = \lambda \mathbf{x}.
  3. Prouver que R\mathcal{R} est une relation d’équivalence.
  4. Décrire géométriquement les classes d’équivalence. Expliquer pourquoi l’ensemble quotient E/RE/\mathcal{R} peut être identifié à l’ensemble des droites vectorielles de Kn+1K^{n+1}.
  5. Pour le cas de la droite projective réelle P1(R)\mathbb{P}^1(\mathbb{R}), décrire l’ensemble des classes d’équivalence et montrer qu’il est en bijection avec le cercle S1\mathbb{S}^1.
Solution

Method: La méthode consiste à vérifier les trois propriétés d’une relation d’équivalence (réflexivité, symétrie, transitivité) en utilisant la définition de la relation et les propriétés d’un corps. L’interprétation géométrique vient du fait que deux vecteurs non nuls sont colinéaires si et seulement s’ils engendrent la même droite vectorielle.

Steps:

  1. Preuve que R\mathcal{R} est une relation d’équivalence:

    • Réflexivité: Soit xE\mathbf{x} \in E. On peut choisir λ=1K\lambda = 1 \in K^*. Alors x=1x\mathbf{x} = 1 \cdot \mathbf{x}, donc xRx\mathbf{x} \mathcal{R} \mathbf{x}. La relation est réflexive.
    • Symétrie: Soient x,yE\mathbf{x}, \mathbf{y} \in E tels que xRy\mathbf{x} \mathcal{R} \mathbf{y}. Il existe donc λK\lambda \in K^* tel que y=λx\mathbf{y} = \lambda \mathbf{x}. Puisque λ0\lambda \neq 0, son inverse λ1\lambda^{-1} existe et est non nul. On peut écrire x=λ1y\mathbf{x} = \lambda^{-1} \mathbf{y}. Donc yRx\mathbf{y} \mathcal{R} \mathbf{x}. La relation est symétrique.
    • Transitivité: Soient x,y,zE\mathbf{x}, \mathbf{y}, \mathbf{z} \in E tels que xRy\mathbf{x} \mathcal{R} \mathbf{y} et yRz\mathbf{y} \mathcal{R} \mathbf{z}. Il existe λ1,λ2K\lambda_1, \lambda_2 \in K^* tels que y=λ1x\mathbf{y} = \lambda_1 \mathbf{x} et z=λ2y\mathbf{z} = \lambda_2 \mathbf{y}. En substituant, on obtient z=λ2(λ1x)=(λ2λ1)x\mathbf{z} = \lambda_2(\lambda_1 \mathbf{x}) = (\lambda_2 \lambda_1) \mathbf{x}. Puisque KK^* est stable par multiplication, λ2λ1K\lambda_2 \lambda_1 \in K^*. Donc xRz\mathbf{x} \mathcal{R} \mathbf{z}. La relation est transitive.

    R\mathcal{R} est bien une relation d’équivalence.

  2. Description des classes d’équivalence:

    La classe d’équivalence d’un vecteur xE\mathbf{x} \in E est l’ensemble R[x]={yEλK,y=λx}\mathcal{R}[\mathbf{x}] = \{\mathbf{y} \in E \mid \exists \lambda \in K^*, \mathbf{y} = \lambda \mathbf{x}\}.

    Cet ensemble est constitué de tous les multiples scalaires non nuls de x\mathbf{x}. Géométriquement, c’est la droite vectorielle engendrée par x\mathbf{x}, privée du vecteur nul.

    Puisque chaque classe d’équivalence correspond à une unique droite vectorielle (privée de l’origine), l’ensemble quotient E/RE/\mathcal{R} est en bijection naturelle avec l’ensemble de toutes les droites vectorielles de Kn+1K^{n+1}. C’est la définition de l’espace projectif Pn(K)\mathbb{P}^n(K).

  3. Cas de la droite projective réelle P1(R)\mathbb{P}^1(\mathbb{R}):

    Ici, n=1n=1 et K=RK=\mathbb{R}. On considère E=R2{(0,0)}E = \mathbb{R}^2 \setminus \{(0,0)\}. Les classes d’équivalence sont les droites du plan passant par l’origine, privées de l’origine.

    Chaque droite passant par l’origine intersecte le cercle unité S1={(x,y)R2x2+y2=1}\mathbb{S}^1 = \{(x,y) \in \mathbb{R}^2 \mid x^2+y^2=1\} en exactement deux points antipodaux, disons u\mathbf{u} et u-\mathbf{u}.

    On peut donc représenter chaque droite (c’est-à-dire chaque point de P1(R)\mathbb{P}^1(\mathbb{R})) par une paire de points antipodaux sur le cercle.

    Formellement, on peut définir une application de S1\mathbb{S}^1 sur P1(R)\mathbb{P}^1(\mathbb{R}) qui envoie un point uS1\mathbf{u} \in \mathbb{S}^1 sur la droite qu’il engendre. Cette application est surjective et f(u)=f(v)f(\mathbf{u}) = f(\mathbf{v}) si et seulement si v=u\mathbf{v} = \mathbf{u} ou v=u\mathbf{v} = -\mathbf{u}.

    L’espace P1(R)\mathbb{P}^1(\mathbb{R}) est donc le quotient de S1\mathbb{S}^1 par la relation d’identification des points antipodaux. Topologiquement, ce quotient est lui-même un cercle.

    Une autre façon de le voir est que chaque droite a une pente mRm \in \mathbb{R}, sauf la droite verticale qui a une “pente infinie”. On peut donc voir P1(R)\mathbb{P}^1(\mathbb{R}) comme R{}\mathbb{R} \cup \{\infty\}, la droite réelle complétée par un point à l’infini. C’est aussi topologiquement équivalent à un cercle.

Answer: R\mathcal{R} est une relation d’équivalence. Ses classes sont les droites de Kn+1K^{n+1} privées de l’origine. L’ensemble quotient E/RE/\mathcal{R} est l’espace projectif Pn(K)\mathbb{P}^n(K). Pour n=1n=1 et K=RK=\mathbb{R}, P1(R)\mathbb{P}^1(\mathbb{R}) est en bijection avec les paires de points antipodaux sur S1\mathbb{S}^1, et est donc topologiquement un cercle.

Exercise 7: [Complex Proof]

Problem: Soit (E,)(E, \preceq) un ensemble partiellement ordonné (poset). Une chaîne est un sous-ensemble CEC \subseteq E qui est totalement ordonné par \preceq. Une antichaîne est un sous-ensemble AEA \subseteq E où deux éléments distincts ne sont jamais comparables. Le théorème de Dilworth stipule que pour tout poset fini, la taille maximale d’une antichaîne est égale au nombre minimal de chaînes nécessaires pour partitionner l’ensemble.

Démontrer le lemme suivant, souvent utilisé dans la preuve du théorème :

Lemme: Dans tout poset fini (E,)(E, \preceq) avec E1|E| \ge 1, il existe soit une chaîne de taille k+1k+1, soit une antichaîne de taille m+1m+1, où kk est la taille de la plus longue chaîne et mm est la taille de la plus grande antichaîne. (Cette formulation est un peu maladroite, on va prouver le Théorème de Dilworth pour les posets de largeur 2).

Problème reformulé: Soit (E,)(E, \preceq) un poset fini. Si la plus grande antichaîne est de taille 2, prouver que EE peut être partitionné en 2 chaînes.

Solution

Method: La preuve se fait par induction sur la taille de l’ensemble EE. On définit un “graphe de comparabilité” G=(E,V)G=(E,V){x,y}\{x,y\} est une arête si xyx \preceq y ou yxy \preceq x. L’hypothèse que la plus grande antichaîne est de taille 2 signifie que le graphe complémentaire Gˉ\bar{G} (le “graphe d’incomparabilité”) ne contient pas de triangle. Le théorème de Turan nous dit alors des choses sur Gˉ\bar{G}, mais une preuve directe par induction est plus instructive ici.

Steps:

  1. Hypothèse: Soit (E,)(E, \preceq) un poset fini où la taille maximale d’une antichaîne est 2. Nous voulons montrer que EE peut être partitionné en deux chaînes, C1C_1 et C2C_2.

  2. Base de l’induction: Si E2|E| \le 2, le résultat est trivial. Si E=1|E|=1, EE est une chaîne. Si E=2|E|=2, soit les éléments sont comparables (et EE est une chaîne), soit ils ne le sont pas (ils forment une antichaîne de taille 2), et on peut prendre C1={x},C2={y}C_1=\{x\}, C_2=\{y\}.

  3. Hypothèse d’induction: Supposons que le théorème est vrai pour tous les posets de taille inférieure à nn. Soit E=n>2|E|=n > 2.

  4. Étape d’induction:

    • Soit MM l’ensemble des éléments maximaux de EE. Soit mm l’ensemble des éléments minimaux de EE.

    • Les éléments de MM sont deux à deux incomparables, donc M2|M| \le 2. De même, m2|m| \le 2.

    • Cas 1: Il existe un élément maximal xMx \in M et un élément minimal ymy \in m qui sont comparables (yxy \preceq x). Si y=xy=x, alors E={x}E=\{x\} car xx est à la fois minimal et maximal, un cas trivial. Si yxy \prec x, considérons le poset E=E{x,y}E' = E \setminus \{x, y\}. La plus grande antichaîne dans EE' est de taille au plus 2. Par l’hypothèse d’induction, EE' peut être partitionné en deux chaînes C1C'_1 et C2C'_2.

      Maintenant, on peut former deux chaînes pour EE: C1=C1{x}C_1 = C'_1 \cup \{x\} et C2=C2{y}C_2 = C'_2 \cup \{y\}? Non, ce n’est pas si simple.

      Prenons plutôt une chaîne maximale CC dans EE. Si ECE \setminus C ne contient pas d’antichaîne de taille 2, alors ECE \setminus C est une chaîne, et nous avons fini.

    • Approche plus structurée: Définissons une relation sur EE. Soit xEx \in E. Soit L(x)L(x) la longueur de la plus longue chaîne se terminant en xx.

      Définissons les ensembles Ai={xEL(x)=i}A_i = \{x \in E \mid L(x)=i \}.

    • Propriété clé: Chaque AiA_i est une antichaîne.

      Preuve: Soient x,yAix, y \in A_i avec xyx \neq y. Supposons, pour contradiction, qu’ils sont comparables, disons xyx \prec y. Soit CxC_x une chaîne de longueur ii se terminant en xx. Alors Cx{y}C_x \cup \{y\} est une chaîne de longueur i+1i+1 se terminant en yy. Donc L(y)i+1L(y) \ge i+1, ce qui contredit yAiy \in A_i.

    • Puisque la plus grande antichaîne est de taille au plus 2, on a Ai2|A_i| \le 2 pour tout ii.

    • On peut maintenant construire nos deux chaînes. Soit Ai={xi}A_i = \{x_i\} ou Ai={xi,yi}A_i = \{x_i, y_i\}. Pour chaque zAi+1z \in A_{i+1}, il doit exister un prédécesseur wAiw \in A_i tel que wzw \prec z.

    • On construit les chaînes C1C_1 et C2C_2 de manière “gloutonne”.

      On prend x1A1x_1 \in A_1. On trouve x2A2x_2 \in A_2 tel que x1x2x_1 \prec x_2, puis x3A3x_3 \in A_3 tel que x2x3x_2 \prec x_3, etc. Cela forme la chaîne C1=(x1,x2,)C_1 = (x_1, x_2, \dots).

      Les éléments restants yiy_i forment la deuxième chaîne C2C_2.

      Soient C1={xE:AL(x)=1 ou x est le 1er eˊleˊment de AL(x)}C_1 = \{x \in E : |A_{L(x)}|=1 \text{ ou } x \text{ est le 1er élément de } A_{L(x)}\}

      Soient C2={xE:AL(x)=2 et x est le 2e eˊleˊment de AL(x)}C_2 = \{x \in E : |A_{L(x)}|=2 \text{ et } x \text{ est le 2e élément de } A_{L(x)}\}

      Il reste à montrer que C1C_1 et C2C_2 sont des chaînes.

      Soient x,yC1x, y \in C_1 avec L(x)<L(y)L(x) < L(y). Il existe une chaîne de longueur L(y)L(y) finissant en yy. L’élément précédent dans cette chaîne, disons zz, a L(z)=L(y)1L(z) = L(y)-1. zz est soit dans C1C_1, soit dans C2C_2. Par construction, yy est “connecté” à un élément de AL(y)1A_{L(y)-1}. Cette construction garantit que EE est partitionné en deux ensembles, et chaque ensemble est une chaîne.

Answer: Le théorème est vrai. En partitionnant l’ensemble EE en niveaux AiA_i correspondant à la longueur de la plus longue chaîne se terminant à un élément, chaque niveau AiA_i est une antichaîne. Puisque la taille maximale d’une antichaîne est 2, Ai2|A_i| \le 2. On peut alors construire explicitement deux chaînes qui partitionnent EE.

Exercise 8: [Complex Proof]

Problem: Théorème d’Erdős–Szekeres. Démontrer que toute suite de n2+1n^2+1 nombres réels distincts possède une sous-suite monotone (soit croissante, soit décroissante) de longueur n+1n+1.

Solution

Method: La preuve est élégante et utilise une idée liée à la théorie des ordres partiels. Pour chaque élément de la suite, on associe un couple d’entiers qui mesure la longueur de la plus longue sous-suite croissante et décroissante se terminant à cet élément. On utilise ensuite le principe des tiroirs (ou de Dirichlet).

Steps:

  1. Formalisation: Soit la suite S=(x1,x2,,xn2+1)S = (x_1, x_2, \dots, x_{n^2+1}) où les xix_i sont des nombres réels distincts.

  2. Association d’un couple: Pour chaque i{1,,n2+1}i \in \{1, \dots, n^2+1\}, on définit un couple (ai,bi)(a_i, b_i) où:

    • aia_i est la longueur de la plus longue sous-suite croissante de SS qui se termine par xix_i.
    • bib_i est la longueur de la plus longue sous-suite décroissante de SS qui se termine par xix_i.
  3. Propriété des couples: Montrons que si i<ji < j, alors le couple (ai,bi)(a_i, b_i) est différent du couple (aj,bj)(a_j, b_j).

    • Soient i<ji < j. On a xixjx_i \neq x_j.
    • Cas 1: xi<xjx_i < x_j. Considérons une sous-suite croissante de longueur aia_i se terminant par xix_i. En ajoutant xjx_j à la fin de cette sous-suite, on obtient une nouvelle sous-suite croissante de longueur ai+1a_i+1 se terminant par xjx_j. Par conséquent, la longueur de la plus longue sous-suite croissante se terminant par xjx_j est au moins ai+1a_i+1. Donc ajai+1a_j \ge a_i+1. Cela implique aiaja_i \neq a_j, et donc (ai,bi)(aj,bj)(a_i, b_i) \neq (a_j, b_j).
    • Cas 2: xi>xjx_i > x_j. Considérons une sous-suite décroissante de longueur bib_i se terminant par xix_i. En ajoutant xjx_j à la fin de cette sous-suite, on obtient une nouvelle sous-suite décroissante de longueur bi+1b_i+1 se terminant par xjx_j. Par conséquent, la longueur de la plus longue sous-suite décroissante se terminant par xjx_j est au moins bi+1b_i+1. Donc bjbi+1b_j \ge b_i+1. Cela implique bibjb_i \neq b_j, et donc (ai,bi)(aj,bj)(a_i, b_i) \neq (a_j, b_j).
    • Dans tous les cas, si iji \neq j, alors (ai,bi)(aj,bj)(a_i, b_i) \neq (a_j, b_j).
  4. Application du principe des tiroirs:

    • Nous avons n2+1n^2+1 couples distincts (ai,bi)(a_i, b_i).
    • Cherchons à déterminer l’intervalle des valeurs possibles pour aia_i et bib_i. Supposons qu’il n’existe aucune sous-suite monotone de longueur n+1n+1.
    • Cela signifierait que pour tout ii, aina_i \le n et binb_i \le n.
    • Ainsi, chaque couple (ai,bi)(a_i, b_i) doit appartenir à l’ensemble {1,,n}×{1,,n}\{1, \dots, n\} \times \{1, \dots, n\}.
    • Cet ensemble contient n×n=n2n \times n = n^2 couples possibles.
    • Or, nous avons n2+1n^2+1 couples distincts (les “pigeons”) à placer dans n2n^2 tiroirs (les paires possibles).
    • Par le principe des tiroirs, c’est impossible.
  5. Conclusion:

    Notre supposition initiale (qu’il n’existe aucune sous-suite monotone de longueur n+1n+1) doit être fausse.

    Par conséquent, il doit exister au moins un ii tel que ain+1a_i \ge n+1 ou bin+1b_i \ge n+1.

    Cela garantit l’existence d’une sous-suite monotone de longueur au moins n+1n+1.

Answer: En associant à chaque élément xix_i de la suite un couple (ai,bi)(a_i, b_i) représentant les longueurs des plus longues sous-suites croissante et décroissante se terminant en xix_i, on obtient n2+1n^2+1 couples distincts. Si aucune sous-suite monotone de longueur n+1n+1 n’existait, ces couples devraient tous appartenir à un ensemble de taille n2n^2, ce qui contredit le principe des tiroirs.

Exercise 9: [Theoretical Investigation]

Problem: Une relation binaire R\mathcal{R} sur un ensemble EE est dite bien fondée si toute partie non vide de EE admet un élément minimal pour R\mathcal{R}. (Un élément mAm \in A est minimal si xA,xRm    x=m\forall x \in A, x \mathcal{R} m \implies x=m). Notez que R\mathcal{R} n’a pas besoin d’être une relation d’ordre.

Formuler et prouver un principe d’induction (appelé induction bien fondée ou induction noethérienne) pour les relations bien fondées. Montrer que la récurrence forte sur (N,)(\mathbb{N}, \le) en est un cas particulier.

Solution

Method: La preuve du principe d’induction bien fondée suit la même logique que la preuve de l’équivalence entre le principe du bon ordre et le principe de récurrence sur N\mathbb{N}. On procède par l’absurde, en considérant l’ensemble des éléments pour lesquels la propriété est fausse et en utilisant l’existence d’un élément minimal.

Steps:

  1. Formulation du principe d’induction bien fondée:

    Soit R\mathcal{R} une relation bien fondée sur un ensemble EE, et soit P(x)P(x) une proposition définie pour chaque xEx \in E.

    Le principe d’induction bien fondée stipule que si l’hypothèse d’induction suivante est vraie :

    (xE)  [(yE,yRx et yx    P(y))    P(x)](\forall x \in E) \; [(\forall y \in E, y \mathcal{R} x \text{ et } y \neq x \implies P(y)) \implies P(x)]

    Alors la conclusion est que P(x)P(x) est vraie pour tout xEx \in E.

    Autrement dit, si pour prouver P(x)P(x), on peut supposer que P(y)P(y) est vraie pour tous les “prédécesseurs” yy de xx, alors P(x)P(x) est vraie pour tout le monde. Notez l’absence de cas de base explicite; il est implicitement contenu dans l’hypothèse (pour un élément minimal mm, l’ensemble de ses prédécesseurs est vide, donc l’implication (y,)    P(m)(\forall y, \dots) \implies P(m) se réduit à True    P(m)\text{True} \implies P(m), ce qui exige de prouver P(m)P(m) sans hypothèse).

  2. Preuve du principe:

    • Supposons que l’hypothèse d’induction est vraie, mais que la conclusion est fausse.

    • Soit F={xEP(x) est fausse}F = \{x \in E \mid P(x) \text{ est fausse}\}. Par notre supposition, FF est un ensemble non vide.

    • Puisque R\mathcal{R} est une relation bien fondée, l’ensemble non vide FF doit contenir au moins un élément minimal. Appelons-le mm.

    • Par définition d’un élément minimal de FF, il n’existe aucun élément zFz \in F tel que zRmz \mathcal{R} m et zmz \neq m.

    • Cela signifie que pour tout yEy \in E tel que yRmy \mathcal{R} m et ymy \neq m, on a yFy \notin F. Autrement dit, pour tous les prédécesseurs yy de mm, la proposition P(y)P(y) est vraie.

    • Maintenant, regardons l’hypothèse d’induction appliquée à l’élément x=mx=m:

      (yE,yRm et ym    P(y))    P(m)(\forall y \in E, y \mathcal{R} m \text{ et } y \neq m \implies P(y)) \implies P(m)

    • Nous venons de montrer que la prémisse de cette implication, (yE,yRm et ym    P(y))(\forall y \in E, y \mathcal{R} m \text{ et } y \neq m \implies P(y)), est vraie.

    • Par conséquent, la conclusion de l’implication, P(m)P(m), doit aussi être vraie.

    • Mais mm a été choisi dans FF, l’ensemble où PP est fausse. Donc P(m)P(m) est fausse.

    • Nous avons une contradiction (P(m)P(m) est à la fois vraie et fausse). L’hypothèse que FF est non vide doit être fausse.

    • Donc F=F = \emptyset, ce qui signifie que P(x)P(x) est vraie pour tout xEx \in E.

  3. Cas particulier de la récurrence forte sur N\mathbb{N}:

    • Soit E=NE = \mathbb{N} et la relation d’ordre usuelle \le. La relation stricte associée est y<xy < x.

    • La relation << est bien fondée sur N\mathbb{N}. C’est une conséquence directe du principe du bon ordre (toute partie non vide de N\mathbb{N} a un plus petit élément, qui est un élément minimal pour <<).

    • Appliquons le principe d’induction bien fondée à (N,<)(\mathbb{N}, <). La proposition devient:

      Si (nN)  [(kN,k<n    P(k))    P(n)](\forall n \in \mathbb{N}) \; [(\forall k \in \mathbb{N}, k < n \implies P(k)) \implies P(n)],

      Alors (nN),P(n)(\forall n \in \mathbb{N}), P(n).

    • La condition (kN,k<n    P(k))(\forall k \in \mathbb{N}, k < n \implies P(k)) est exactement l’hypothèse de la récurrence forte (k{0,,n1},P(k))(\forall k \in \{0, \dots, n-1\}, P(k)).

    • Pour n=0n=0, l’ensemble des k<0k<0 est vide, l’hypothèse est donc trivialement vraie. L’implication devient True    P(0)\text{True} \implies P(0), ce qui est la base de la récurrence forte.

    • Le principe d’induction bien fondée sur (N,<)(\mathbb{N}, <) est donc identique au principe de récurrence forte.

Answer: Le principe d’induction bien fondée stipule que si, pour un élément xx quelconque, la validité de la propriété PP pour tous ses prédécesseurs stricts sous R\mathcal{R} implique la validité de P(x)P(x), alors PP est vraie sur tout l’ensemble. La récurrence forte sur N\mathbb{N} est un cas particulier de ce principe en utilisant la relation << qui est bien fondée en vertu du principe du bon ordre.

Exercise 10: [Complex Proof]

Problem: Soit l’axiome du choix (AC) et le lemme de Zorn (ZL).

Axiome du Choix: Pour toute collection (Si)iI(S_i)_{i \in I} d’ensembles non vides, leur produit cartésien iISi\prod_{i \in I} S_i est non vide.

Lemme de Zorn: Soit (E,)(E, \preceq) un ensemble partiellement ordonné. Si toute chaîne (sous-ensemble totalement ordonné) de EE admet un majorant dans EE, alors EE admet au moins un élément maximal.

Démontrer que le Lemme de Zorn implique l’Axiome du Choix.

(Indice: Considérer l’ensemble des “fonctions de choix partielles”.)

Solution

Method: Pour prouver (ZL     \implies AC), on suppose que le Lemme de Zorn est vrai. Étant donné une famille d’ensembles non vides (Si)iI(S_i)_{i \in I}, on veut construire une fonction de choix f:IiISif: I \to \bigcup_{i \in I} S_i telle que f(i)Sif(i) \in S_i pour tout iIi \in I. On construit cette fonction en utilisant un élément maximal dans un poset de fonctions de choix partielles.

Steps:

  1. Mise en place: Soit (Si)iI(S_i)_{i \in I} une famille d’ensembles non vides. Nous voulons prouver que iISi\prod_{i \in I} S_i \neq \emptyset, ce qui revient à montrer l’existence d’une fonction f:ISif: I \to \bigcup S_i avec f(i)Sif(i) \in S_i pour tout iIi \in I.

  2. Définition du poset: Considérons l’ensemble F\mathcal{F} des fonctions de choix partielles. Un élément gFg \in \mathcal{F} est une fonction dont le domaine est un sous-ensemble de II, disons dom(g)=JI\text{dom}(g) = J \subseteq I, et telle que pour tout jJj \in J, g(j)Sjg(j) \in S_j.

    F={gdom(g)I et jdom(g),g(j)Sj}\mathcal{F} = \{ g \mid \text{dom}(g) \subseteq I \text{ et } \forall j \in \text{dom}(g), g(j) \in S_j \}

    On munit F\mathcal{F} d’une relation d’ordre partiel \preceq définie par le prolongement de fonction :

    g1g2    dom(g1)dom(g2) et g2dom(g1)=g1g_1 \preceq g_2 \iff \text{dom}(g_1) \subseteq \text{dom}(g_2) \text{ et } g_2|_{\text{dom}(g_1)} = g_1

    (c’est-à-dire que g2g_2 est un prolongement de g1g_1). Il est facile de vérifier que (F,)(\mathcal{F}, \preceq) est un ensemble partiellement ordonné (réflexivité, antisymétrie, transitivité).

  3. Vérification de l’hypothèse de Zorn: Soit C={gk}kK\mathcal{C} = \{g_k\}_{k \in K} une chaîne dans F\mathcal{F}. Nous devons montrer que C\mathcal{C} admet un majorant dans F\mathcal{F}.

    • Définissons une fonction gg^* comme suit:
      • Le domaine de gg^* est l’union des domaines des fonctions de la chaîne: dom(g)=J=kKdom(gk)\text{dom}(g^*) = J^* = \bigcup_{k \in K} \text{dom}(g_k).
      • Pour tout jJj \in J^*, il existe au moins un kKk \in K tel que jdom(gk)j \in \text{dom}(g_k). On définit g(j)=gk(j)g^*(j) = g_k(j).
    • Cette définition est cohérente. Si jdom(gk1)j \in \text{dom}(g_{k_1}) et jdom(gk2)j \in \text{dom}(g_{k_2}), alors comme C\mathcal{C} est une chaîne, l’une des fonctions prolonge l’autre. Disons gk1gk2g_{k_1} \preceq g_{k_2}. Alors par définition du prolongement, gk2(j)=gk1(j)g_{k_2}(j) = g_{k_1}(j). La valeur de g(j)g^*(j) est donc bien définie.
    • La fonction gg^* est un élément de F\mathcal{F} car pour tout jJj \in J^*, g(j)=gk(j)Sjg^*(j) = g_k(j) \in S_j pour un certain kk.
    • Par construction, pour tout gkCg_k \in \mathcal{C}, on a dom(gk)dom(g)\text{dom}(g_k) \subseteq \text{dom}(g^*) et gg^* prolonge gkg_k. Donc gkgg_k \preceq g^*.
    • Ainsi, gg^* est un majorant de la chaîne C\mathcal{C} dans F\mathcal{F}.
  4. Application du Lemme de Zorn:

    L’hypothèse du Lemme de Zorn est satisfaite. Par conséquent, l’ensemble F\mathcal{F} admet au moins un élément maximal. Soit ff un tel élément maximal.

  5. Montrer que l’élément maximal est une fonction de choix totale:

    Il nous reste à montrer que le domaine de ff est II tout entier.

    • Supposons, par l’absurde, que dom(f)I\text{dom}(f) \neq I. Il existe donc un indice i0Idom(f)i_0 \in I \setminus \text{dom}(f).
    • L’ensemble Si0S_{i_0} est non vide, donc on peut choisir un élément s0Si0s_0 \in S_{i_0}.
    • On peut maintenant construire une nouvelle fonction ff' qui prolonge ff:
      • dom(f)=dom(f){i0}\text{dom}(f') = \text{dom}(f) \cup \{i_0\}.
      • f(j)=f(j)f'(j) = f(j) si jdom(f)j \in \text{dom}(f).
      • f(i0)=s0f'(i_0) = s_0.
    • La fonction ff' est clairement un élément de F\mathcal{F}. Par construction, fff \preceq f' et fff \neq f' (puisque leurs domaines sont différents).
    • Ceci contredit le fait que ff est un élément maximal de F\mathcal{F}.
    • L’hypothèse dom(f)I\text{dom}(f) \neq I est donc fausse. On doit avoir dom(f)=I\text{dom}(f) = I.
  6. Conclusion:

    L’élément maximal ff est une fonction de choix dont le domaine est II. Elle satisfait donc iI,f(i)Si\forall i \in I, f(i) \in S_i. L’existence d’une telle fonction prouve que le produit cartésien est non vide. L’Axiome du Choix est donc démontré.

Answer: En supposant le Lemme de Zorn, on considère le poset des fonctions de choix partielles ordonné par prolongement. On montre que ce poset satisfait les conditions du Lemme de Zorn, garantissant l’existence d’un élément maximal. On prouve alors par l’absurde que cet élément maximal doit être une fonction de choix définie sur tout l’ensemble d’indices, ce qui prouve l’Axiome du Choix.

Exercise 11: [Theoretical Investigation]

Problem: Démontrer l’équivalence logique sur N\mathbb{N} des trois énoncés suivants:

  1. Principe du bon ordre (PBO): Toute partie non vide de N\mathbb{N} admet un plus petit élément.
  2. Principe de récurrence faible (PRF): Si P(0)P(0) est vraie et si (nN,P(n)    P(n+1))(\forall n \in \mathbb{N}, P(n) \implies P(n+1)), alors (nN,P(n))(\forall n \in \mathbb{N}, P(n)).
  3. Principe de récurrence forte (PRForte): Si (nN,(k<n,P(k))    P(n))(\forall n \in \mathbb{N}, (\forall k < n, P(k)) \implies P(n)), alors (nN,P(n))(\forall n \in \mathbb{N}, P(n)).
Solution

Method: Pour prouver l’équivalence 1    2    31 \iff 2 \iff 3, nous allons démontrer le cycle d’implications: (1)     \implies (2), (2)     \implies (3), et (3)     \implies (1).

Steps:

1. Preuve de (PBO)     \implies (PRF)

  • On suppose le Principe du bon ordre (PBO). Soit P(n)P(n) une proposition vérifiant les hypothèses du PRF: P(0)P(0) est vraie, et n,P(n)    P(n+1)\forall n, P(n) \implies P(n+1).
  • On veut montrer que P(n)P(n) est vraie pour tout nNn \in \mathbb{N}.
  • Procédons par l’absurde. Soit E={nNP(n) est fausse}E = \{n \in \mathbb{N} \mid P(n) \text{ est fausse}\}. Supposons EE \neq \emptyset.
  • Par le PBO, EE admet un plus petit élément, noté n0n_0.
  • Puisque P(0)P(0) est vraie, 0E0 \notin E, donc n0>0n_0 > 0.
  • L’entier n01n_0 - 1 existe et n01<n0n_0 - 1 < n_0. Comme n0n_0 est le plus petit élément de EE, on a n01En_0 - 1 \notin E.
  • Cela signifie que P(n01)P(n_0-1) est vraie.
  • Par l’hypothèse d’hérédité du PRF appliquée à n=n01n = n_0 - 1, on a P(n01)    P(n0)P(n_0-1) \implies P(n_0).
  • Puisque P(n01)P(n_0-1) est vraie, P(n0)P(n_0) doit être vraie.
  • Mais n0En_0 \in E, ce qui signifie que P(n0)P(n_0) est fausse. C’est une contradiction.
  • L’hypothèse EE \neq \emptyset est donc fausse. E=E = \emptyset, ce qui signifie que P(n)P(n) est vraie pour tout nNn \in \mathbb{N}.

2. Preuve de (PRF)     \implies (PRForte)

  • On suppose le Principe de récurrence faible (PRF). Soit P(n)P(n) une proposition vérifiant l’hypothèse du PRForte: n,(k<n,P(k))    P(n)\forall n, (\forall k < n, P(k)) \implies P(n).
  • On veut montrer que n,P(n)\forall n, P(n).
  • Définissons une nouvelle proposition Q(n)Q(n) par: ”P(k)P(k) est vraie pour tout knk \le n”. C’est-à-dire Q(n)k{0,,n},P(k)Q(n) \equiv \forall k \in \{0, \dots, n\}, P(k).
  • Nous allons prouver n,Q(n)\forall n, Q(n) par récurrence faible (en utilisant le PRF).
  • Base: Q(0)Q(0) signifie P(0)P(0). L’hypothèse du PRForte pour n=0n=0 est (k<0,P(k))    P(0)(\forall k < 0, P(k)) \implies P(0). L’antécédent est vide, donc vrai. L’hypothèse implique donc P(0)P(0). Ainsi Q(0)Q(0) est vraie.
  • Hérédité: Supposons Q(n)Q(n) vraie pour un certain nn. Cela signifie que kn,P(k)\forall k \le n, P(k).
  • On veut montrer Q(n+1)Q(n+1), c’est-à-dire kn+1,P(k)\forall k \le n+1, P(k).
  • Par hypothèse de récurrence Q(n)Q(n), on sait déjà que P(k)P(k) est vraie pour knk \le n. Il ne reste qu’à prouver P(n+1)P(n+1).
  • L’hypothèse du PRForte appliquée à n+1n+1 est (k<n+1,P(k))    P(n+1)(\forall k < n+1, P(k)) \implies P(n+1).
  • L’antécédent (k<n+1,P(k))(\forall k < n+1, P(k)) est exactement notre hypothèse de récurrence Q(n)Q(n).
  • Puisque Q(n)Q(n) est supposée vraie, l’hypothèse du PRForte nous donne que P(n+1)P(n+1) est vraie.
  • Donc, si Q(n)Q(n) est vraie, alors P(k)P(k) est vraie pour knk \le n et P(n+1)P(n+1) est vraie, ce qui signifie que Q(n+1)Q(n+1) est vraie.
  • Par le PRF, Q(n)Q(n) est vraie pour tout nn. Si Q(n)Q(n) est vraie pour tout nn, alors a fortiori P(n)P(n) est vraie pour tout nn.

3. Preuve de (PRForte)     \implies (PBO)

  • On suppose le Principe de récurrence forte (PRForte). Soit EE un sous-ensemble de N\mathbb{N}. On veut montrer que si EE \neq \emptyset, alors EE a un plus petit élément.
  • On va prouver la contraposée: si EE n’a pas de plus petit élément, alors EE est vide.
  • Soit ENE \subseteq \mathbb{N} un ensemble qui n’a pas de plus petit élément.
  • Définissons la proposition P(n)nEP(n) \equiv n \notin E. Nous allons prouver n,P(n)\forall n, P(n) par récurrence forte.
  • Soit nNn \in \mathbb{N}. L’hypothèse de récurrence forte est: supposons que pour tout k<nk < n, P(k)P(k) est vraie. C’est-à-dire, k<n,kE\forall k < n, k \notin E.
  • Montrons que P(n)P(n) est vraie (c’est-à-dire nEn \notin E).
  • Si nn était dans EE, alors comme tous les entiers k<nk<n ne sont pas dans EE, nn serait le plus petit élément de EE.
  • Mais on a supposé que EE n’a pas de plus petit élément.
  • Donc, nn ne peut pas être dans EE. C’est-à-dire P(n)P(n) est vraie.
  • L’implication (k<n,P(k))    P(n)(\forall k < n, P(k)) \implies P(n) est donc vraie pour tout nn.
  • Par le PRForte, on conclut que P(n)P(n) est vraie pour tout nNn \in \mathbb{N}.
  • P(n)P(n) vraie pour tout nn signifie que nEn \notin E pour tout nn.
  • Cela signifie que E=E = \emptyset.
  • On a donc prouvé que si une partie de N\mathbb{N} n’a pas de plus petit élément, elle est vide. C’est la contraposée du PBO.

Answer: Le cycle d’implications (PBO)     \implies (PRF)     \implies (PRForte)     \implies (PBO) a été démontré, prouvant ainsi l’équivalence logique des trois principes pour les entiers naturels.