1 L'objectif principal de cette section est de démontrer le théorème~\ref{theo:tmps:mix} rappelé en fin de section.
4 Un résultat classique est
6 $$t_{\rm mix}(\varepsilon)\leq \lceil\log_2(\varepsilon^{-1})\rceil t_{\rm mix}(\frac{1}{4})$$
9 Soit $(X_t)_{t\in \mathbb{N}}$ une suite de variables aléatoires de
11 Une variable aléatoire $\tau$ dans $\mathbb{N}$ est un
12 \emph{temps d'arrêt} pour la suite
13 $(X_i)$ si pour chaque $t$ il existe $B_t\subseteq
14 (\Bool^{\mathsf{N}})^{t+1}$ tel que
15 $\{\tau=t\}=\{(X_0,X_1,\ldots,X_t)\in B_t\}$.
16 En d'autres termes, l'événement $\{\tau = t \}$ dépend uniquement des valeurs
18 $(X_0,X_1,\ldots,X_t)$, et non de celles de $X_k$ pour $k > t$.
21 Soit $(X_t)_{t\in \mathbb{N}}$ une chaîne de Markov et
22 $f(X_{t-1},Z_t)$ une représentation fonctionnelle de celle-ci.
23 Un \emph{temps d'arrêt aléatoire} pour la chaîne de
24 Markov est un temps d'arrêt pour
25 $(Z_t)_{t\in\mathbb{N}}$.
26 Si la chaîne de Markov est irréductible et a $\pi$
27 comme distribution stationnaire, alors un
28 \emph{temps stationnaire} $\tau$ est temps d'arrêt aléatoire
29 (qui peut dépendre de la configuration initiale $X$),
30 tel que la distribution de $X_\tau$ est $\pi$:
31 $$\P_X(X_\tau=Y)=\pi(Y).$$
32 Un temps d'arrêt $\tau$ est qualifié de \emph{fort} si $X_{\tau}$
33 est indépendant de $\tau$.
35 On rappelle le théorème suivant~\cite[Proposition 6.10]{LevinPeresWilmer2006}.
37 \begin{theorem}\label{thm-sst}
38 Si $\tau$ est un temps d'arrêt fort, alors $d(t)\leq \max_{X\in\Bool^{\mathsf{N}}}
44 X\in \Bool^{\mathsf{N}}, Y\in \Bool^{\mathsf{N}},\ X=Y \text{ ou } X\oplus Y \in 0^*10^*\}$.
45 En d'autres mots, $E$ est l'ensemble des tous les arcs du
47 Soit $h: \Bool^{\mathsf{N}} \to [{\mathsf{N}}]$
48 qui mémorise pour chaque n{\oe}ud $X \in \Bool^{\mathsf{N}}$ quel
49 arc est supprimée à partir du cycle hamiltonien,
50 \textit{i.e.} quel bit dans $[{\mathsf{N}} ]$
51 ne peut pas être inversé.
55 On définit ensuite l'ensemble $E_h = E\setminus\{(X,Y)\mid X\oplus Y =
56 0^{{\mathsf{N}}-h(X)}10^{h(X)-1}\}$. C'est l'ensemble de tous les arcs
57 appartenant à l'hypercube modifié,
58 \textit{i.e.}, le ${\mathsf{N}}$-cube où le cycle hamiltonien $h$
61 On définit la matrice de Markov $P_h$ pour chaque ligne $X$ et
62 chaque colonne $Y$ comme suit:
66 P_h(X,X)=\frac{1}{2}+\frac{1}{2{\mathsf{N}}} & \\
67 P_h(X,Y)=0 & \textrm{si $(X,Y)\notin E_h$}\\
68 P_h(X,Y)=\frac{1}{2{\mathsf{N}}} & \textrm{si $X\neq Y$ et $(X,Y) \in E_h$}
71 \label{eq:Markov:rairo}
78 Soit alors $\ov{h} : \Bool^{\mathsf{N}} \rightarrow \Bool^{\mathsf{N}}$ la fonction
79 telle que pour $X \in \Bool^{\mathsf{N}} $,
80 $(X,\ov{h}(X)) \in E$ et $X\oplus\ov{h}(X)=0^{{\mathsf{N}}-h(X)}10^{h(X)-1}$.
81 La fonction $\ov{h}$ est dite {\it anti-involutive} si pour tout $X\in \Bool^{\mathsf{N}}$,
82 $\ov{h}(\ov{h}(X))\neq X$.
85 %Let $\Bool^n$ be the set of words of length $n$.
87 \begin{lemma}\label{lm:h}
88 Si $\ov{h}$ est bijective et anti-involutive, alors
89 $h(\ov{h}^{-1}(X))\neq h(X)$.
93 Soit $\ov{h}$ bijective.
94 Soit $k\in \llbracket 1, {\mathsf{N}} \rrbracket$ t.q. $h(\ov{h}^{-1}(X))=k$.
95 Alors $(\ov{h}^{-1}(X),X)$ appartient à $E$ et
96 $\ov{h}^{-1}(X)\oplus X = 0^{{\mathsf{N}}-k}10^{k-1}$.
97 Supposons $h(X) = h(\ov{h}^{-1}(X))$. Dans un tel cas, $h(X) =k$.
98 Par définition $\ov{h}$, $(X, \ov{h}(X)) \in E $ et
99 $X\oplus\ov{h}(X)=0^{{\mathsf{N}}-h(X)}10^{h(X)-1} = 0^{{\mathsf{N}}-k}10^{k-1}$.
100 Ainsi $\ov{h}(X)= \ov{h}^{-1}(X)$, ce qui entraine $\ov{h}(\ov{h}(X))= X$ et
101 qui contredit le fiat que $\ov{h}$ est anti-involutive.
104 Soit $Z$ une variable aléatoire suivant une distribution uniforme sur
105 $[ {\mathsf{N}}] \times \Bool$.
106 Pour $X\in \Bool^{\mathsf{N}}$, on définit avec $Z=(i,b)$,
110 f(X,Z)=X\oplus (0^{{\mathsf{N}}-i}10^{i-1}) & \text{ si } b=1 \text{ et } i\neq h(X),\\
111 f(X,Z)=X& \text{otherwise.}
115 La chaîne de Markov est ainsi définie par
123 Un entier $\ell\in \llbracket 1,{\mathsf{N}} \rrbracket$ est \emph{équitable}
124 au temps $t$ s'il existe $0\leq j <t$ tel que $Z_{j+1}=(\ell,\cdot)$ et $h(X_j)\neq \ell$. En d'autres mots, il existe une date $j$ anérieure à $t$
125 où le premier élément de la variable aléatoire $Z$ est $l$
126 (\textit{i.e.}, la stratégie vaut $l$ à la date $j$)
127 et où le n{\oe}ud $X_j$ permet de traverser l'arc $l$.
129 Soit $\ts$ le premier tempsoù touis les éléments de $\llbracket 1, {\mathsf{N}} \rrbracket$
130 sont équitables. On a le lemme suiant:%L'entier $\ts$ est un temps d'arrêt pour la chaîne de Markov $(X_t)$.
134 L'entier $\ts$ est un temps stationnaire fort.
138 Soit $\tau_\ell$ la première date où $\ell$ est équitable.
139 La variable aléatoire $Z_{\tau_\ell}$ est de la forme $(\ell,b)$ %with $\delta\in\{0,1\}$ and
141 $b=1$ avec la probabilité $\frac{1}{2}$ et $b=0$ avec la probabilité
142 $\frac{1}{2}$. Comme $h(X_{\tau_\ell-1})\neq\ell$,
143 la valeur du $\ell^{\textrm{ème}}$
144 bit de $X_{\tau_\ell}$
145 est $0$ ou $1$ avec la même probabilité ($\frac{1}{2}$).
147 A chaque étape, le $l^{\textrm{ème}}$ bit est inversé de $0$ à $1$ ou de $1$ à $0$, chaque fois avec la même
148 probabilité. Ainsi, pour $t\geq \tau_\ell$, le
149 $\ell^{\textrm{ème}}$ bit de $X_t$ est $0$ ou $1$ avec la même probabilité,
150 et ce indépendament de la valeur des autres bits.
159 Pour chaque $X\in \Bool^{\mathsf{N}}$ et $\ell\in [{\mathsf{N}}]$,
160 soit $S_{X,\ell}$ une variable aléatoire qui compte le nombre d'itérations
161 tel qu'en démarant de la configuration $X$ on en atteigne une où
162 $\ell$ est équitable. Plus formellement,
163 $$S_{X,\ell}=\min \{t \geq 1\mid h(X_{t-1})\neq \ell\text{ et }Z_t=(\ell,.)\text{ et } X_0=X\}.$$
164 On peut majorer l'espérance de cette variable aléatoire comme suit.
167 \begin{lemma}\label{prop:lambda}
168 Soit $\ov{h}$ un fonction bijective et anti-involutive. Alors pour tout
169 $X\in \Bool^{\mathsf{N}}$ et $\ell\in [{\mathsf{N}}]$,
170 l'inégalité $E[S_{X,\ell}]\leq 8{\mathsf{N}}^2$ est établie.
174 Montrons tout d'abord que pour chaque $X$ et chaque $\ell$, on a $\P(S_{X,\ell})\leq 2)\geq
175 \frac{1}{4{\mathsf{N}}^2}$. Soit $X_0= X$.
178 \item Si $h(X)\neq \ell$, alors
179 $\P(S_{X,\ell}=1)=\frac{1}{2{\mathsf{N}}}\geq \frac{1}{4{\mathsf{N}}^2}$.
180 \item Sinon, $h(X)=\ell$, alors
181 $\P(S_{X,\ell}=1)=0$. Dans ce cas, intuitivement, il est possible de passer de $X$ à $\ov{h}^{-1}(X)$
182 (avec la probabilité $\frac{1}{2N}$). De plus, dans la configuration
183 $\ov{h}^{-1}(X)$, le $l^{\textrm{ème}}$ bit peut être inversé.
184 Plus formellement, puisque $\ov{h}$ est anti-involutive,
185 $\ov{h}(X)=\ov{h}(\ov{h}(\ov{h}^{-1}(X)))\neq \ov{h}^{-1}(X)$. On en déduit
186 que $(X,\ov{h}^{-1}(X))\in E_h$. On a ainsi
187 $P(X_1=\ov{h}^{-1}(X))=\frac{1}{2{\mathsf{N}}}$.
188 D'après le lemme~\ref{lm:h},
189 $h(\ov{h}^{-1}(X))$ est différent de $h(X)$.
190 Ainsi, $\P(S_{x,\ell}=2\mid X_1=\ov{h}^{-1}(X))=\frac{1}{2{\mathsf{N}}}$,
191 prouvant ainsi que $\P(S_{x,\ell}\leq 2)\geq
192 \frac{1}{4{\mathsf{N}}^2}$.
198 Ainsi, $\P(S_{X,\ell}\geq 3)\leq 1-\frac{1}{4{\mathsf{N}}^2}$. Par induction, on a,
199 pour chaque $i$, $\P(S_{X,\ell}\geq 2i)\leq
200 \left(1-\frac{1}{4{\mathsf{N}}^2}\right)^i$.
202 puisque $S_{X,\ell}$ est positive, on sait~\cite[lemme 2.9]{proba} que
204 E[S_{X,\ell}]=\sum_{i=1}^{+\infty}\P(S_{X,\ell}\geq i).
206 Puisque $\P(S_{X,\ell}\geq i)\geq \P(S_{X,\ell}\geq i+1)$, on a
208 E[S_{X,\ell}]=\sum_{i=1}^{+\infty}\P(S_{X,\ell}\geq i)\leq
209 \P(S_{X,\ell}\geq 1)+\P(S_{X,\ell}\geq 2)+2 \sum_{i=1}^{+\infty}\P(S_{X,\ell}\geq 2i).\]
211 $$E[S_{X,\ell}]\leq 1+1+2
212 \sum_{i=1}^{+\infty}\left(1-\frac{1}{4{\mathsf{N}}^2}\right)^i=2+2(4{\mathsf{N}}^2-1)=8{\mathsf{N}}^2,$$
213 ce qui conclut la preuve du lemme.
216 Soit $\ts^\prime$ la variable aléatoire comptant le nombre d'itérations pour avoir exactement
217 $\mathsf{N}-1$ bits équitables. On peut majorer son espérance.
219 \begin{lemma}\label{lm:stopprime}
220 On a $E[\ts^\prime]\leq 4{\mathsf{N}} \ln ({\mathsf{N}}+1).$
224 C'est un problème classique de collectionneur de vignettes. Soit $W_i$ la variable aléatoire
225 comptant le nombre de déplacements dans la chaîne de Markov pour avoir exactement
226 $i-1$ bits équitables. On a $\ts^\prime=\sum_{i=1}^{{\mathsf{N}}-1}W_i$.
227 Dans la configuration $X$ avec $i-1$ bits équitables,
228 la probabilité d'obtenir un nouveau bit équitable est soit
229 $1-\frac{i-1}{{\mathsf{N}}}$ si $h(X)$ est équitable,
230 et $1-\frac{i-2}{{\mathsf{N}}}$ si $h(X)$ ne l'est pas.
233 $\P (W_i=k)\leq \left(\frac{i-1}{{\mathsf{N}}}\right)^{k-1} \frac{{\mathsf{N}}-i+2}{{\mathsf{N}}}.$
234 On a par conséquent $\P(W_i\geq k)\leq \left(\frac{i-1}{{\mathsf{N}}}\right)^{k-1} \frac{{\mathsf{N}}-i+2}{{\mathsf{N}}-i+1}.$
237 E[W_i]=\sum_{k=1}^{+\infty} \P (W_i\geq k)\leq {\mathsf{N}} \frac{{\mathsf{N}}-i+2}{({\mathsf{N}}-i+1)^2}\leq \frac{4{\mathsf{N}}}{{\mathsf{N}}-i+2},
242 E[\ts^\prime]=\sum_{i=1}^{{\mathsf{N}}-1}E[W_i]\leq
243 4{\mathsf{N}}\sum_{i=1}^{{\mathsf{N}}-1} \frac{1}{{\mathsf{N}}-i+2}=
244 4{\mathsf{N}}\sum_{i=3}^{{\mathsf{N}}+1}\frac{1}{i}.\]
246 Or $\sum_{i=1}^{{\mathsf{N}}+1}\frac{1}{i}\leq 1+\ln({\mathsf{N}}+1)$. On en déduit que
247 $1+\frac{1}{2}+\sum_{i=3}^{{\mathsf{N}}+1}\frac{1}{i}\leq 1+\ln({\mathsf{N}}+1).$
248 Ainsi, on a la majoration suivante
251 4{\mathsf{N}} (-\frac{1}{2}+\ln({\mathsf{N}}+1))\leq
252 4{\mathsf{N}}\ln({\mathsf{N}}+1),
254 ce qui termine la preuve du lemme.
257 Tous les éléments sont en place pour majorer l'espérance de $\ts$.
260 Si $\ov{h}$ est bijective et anti involutive
261 $\ov{h}(\ov{h}(X))\neq X$, alors
262 $E[\ts]\leq 8{\mathsf{N}}^2+ 4{\mathsf{N}}\ln ({\mathsf{N}}+1)$.
265 Sans perte de généralité, considérons que le dernier bit
266 non équitable est $\ell$. On a
267 $\ts=\ts^\prime+S_{X_\tau,\ell}$ et donc
268 $E[\ts] = E[\ts^\prime]+E[S_{X_\tau,\ell}]$. Ainsi, le théorème
269 est une application directe des lemmes~\ref{prop:lambda} et~\ref{lm:stopprime}.
272 Montrons alors le théorème~\ref{theo:tmps:mix} rappelé ci-dessous
277 Comme $\tau$ est positive, on peut appliquer l'inégalité de Markov:
279 \P_X(\tau > t)\leq \frac{E[\tau]}{t}.
282 En posant $t_n=32N^2+16N\ln (N+1)$, on obtient:
284 \P_X(\tau > t_n)\leq \frac{1}{4}.
288 D'après la définition de $t_{\rm mix}$ et d'après le théorème~\ref{thm-sst},
291 t_{\rm mix}\leq 32N^2+16N\ln (N+1)=O(N^2)