]> AND Private Git Repository - hdrcouchot.git/blob - annexePreuveStopping.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
une version de plus
[hdrcouchot.git] / annexePreuveStopping.tex
1 L'objectif principal de cette section est de démontrer le théorème~\ref{theo:tmps:mix} rappelé en fin de section.
2
3
4 Un résultat classique est
5
6 $$t_{\rm mix}(\varepsilon)\leq \lceil\log_2(\varepsilon^{-1})\rceil t_{\rm mix}(\frac{1}{4})$$
7
8
9 Soit $(X_t)_{t\in \mathbb{N}}$ une suite de  variables aléatoires de 
10 $\Bool^{\mathsf{N}}$.
11 Une variable aléatoire $\tau$ dans $\mathbb{N}$ est un  
12 \emph{temps d'arrêt} pour la suite
13 $(X_i)$ si pour chaque $t$ il existe $B_t\subseteq
14 (\Bool^{\mathsf{N}})^{t+1}$ tel que 
15 $\{\tau=t\}=\{(X_0,X_1,\ldots,X_t)\in B_t\}$. 
16 En d'autres termes, l'événement $\{\tau = t \}$ dépend uniquement des valeurs 
17 de  
18 $(X_0,X_1,\ldots,X_t)$, et non de celles de $X_k$ pour $k > t$. 
19  
20
21 Soit $(X_t)_{t\in \mathbb{N}}$ une chaîne de Markov et 
22 $f(X_{t-1},Z_t)$  une représentation fonctionnelle de celle-ci. 
23 Un \emph{temps d'arrêt aléatoire} pour la chaîne de 
24 Markov  est un temps d'arrêt pour 
25 $(Z_t)_{t\in\mathbb{N}}$.
26 Si la chaîne de Markov  est irréductible et a $\pi$
27 comme distribution stationnaire, alors un 
28 \emph{temps stationnaire} $\tau$ est temps d'arrêt aléatoire
29 (qui peut dépendre de la configuration initiale $X$),
30 tel que la distribution de $X_\tau$ est $\pi$:
31 $$\P_X(X_\tau=Y)=\pi(Y).$$
32 Un temps d'arrêt  $\tau$ est qualifié de  \emph{fort} si  $X_{\tau}$ 
33 est indépendant de  $\tau$.  
34
35 On rappelle le théorème suivant~\cite[Proposition 6.10]{LevinPeresWilmer2006}.
36
37 \begin{theorem}\label{thm-sst}
38 Si $\tau$ est un temps d'arrêt fort, alors $d(t)\leq \max_{X\in\Bool^{\mathsf{N}}}
39 \P_X(\tau > t)$.
40 \end{theorem}
41
42
43 Soit $E=\{(X,Y)\mid
44 X\in \Bool^{\mathsf{N}}, Y\in \Bool^{\mathsf{N}},\ X=Y \text{ ou } X\oplus Y \in 0^*10^*\}$.
45 En d'autres mots, $E$ est l'ensemble des tous les arcs du   
46 ${\mathsf{N}}$-cube. 
47 Soit $h: \Bool^{\mathsf{N}} \to [{\mathsf{N}}]$ 
48 qui mémorise pour chaque n{\oe}ud $X \in \Bool^{\mathsf{N}}$ quel
49 arc est supprimé à partir du cycle hamiltonien,
50 \textit{i.e.} quel bit dans  $[{\mathsf{N}} ]$ 
51 ne peut pas être inversé.
52
53
54
55 On définit ensuite  l'ensemble $E_h = E\setminus\{(X,Y)\mid X\oplus Y =
56 0^{{\mathsf{N}}-h(X)}10^{h(X)-1}\}$. C'est l'ensemble de tous les arcs 
57 appartenant à l'hypercube modifié, 
58 \textit{i.e.}, le ${\mathsf{N}}$-cube où le cycle hamiltonien $h$ 
59 a été enlevé.
60
61 On définit la matrice de Markov $P_h$ pour chaque ligne $X$ et  
62 chaque colonne $Y$  comme suit:
63 \begin{equation}
64 \left\{
65 \begin{array}{ll}
66 P_h(X,X)=\frac{1}{2}+\frac{1}{2{\mathsf{N}}} & \\
67 P_h(X,Y)=0 & \textrm{si  $(X,Y)\notin E_h$}\\
68 P_h(X,Y)=\frac{1}{2{\mathsf{N}}} & \textrm{si $X\neq Y$ et $(X,Y) \in E_h$}
69 \end{array}
70 \right.
71 \label{eq:Markov:rairo}
72 \end{equation} 
73
74
75
76
77
78 Soit alors $\ov{h} : \Bool^{\mathsf{N}} \rightarrow \Bool^{\mathsf{N}}$ la fonction 
79 telle que pour $X \in \Bool^{\mathsf{N}} $, 
80 $(X,\ov{h}(X)) \in E$ et $X\oplus\ov{h}(X)=0^{{\mathsf{N}}-h(X)}10^{h(X)-1}$. 
81 La fonction $\ov{h}$ est dite  {\it anti-involutive} si pour tout $X\in \Bool^{\mathsf{N}}$,
82 $\ov{h}(\ov{h}(X))\neq X$. 
83
84
85 %Let $\Bool^n$ be the set of words of length $n$. 
86
87 \begin{lemma}\label{lm:h}
88 Si $\ov{h}$ est bijective et anti-involutive, alors
89 $h(\ov{h}^{-1}(X))\neq h(X)$.
90 \end{lemma}
91
92 \begin{proof}
93 Soit $\ov{h}$  bijective. 
94 Soit $k\in \llbracket 1, {\mathsf{N}} \rrbracket$ t.q. $h(\ov{h}^{-1}(X))=k$.
95 Alors $(\ov{h}^{-1}(X),X)$ appartient à  $E$ et
96 $\ov{h}^{-1}(X)\oplus X = 0^{{\mathsf{N}}-k}10^{k-1}$.
97 Supposons $h(X) = h(\ov{h}^{-1}(X))$. Dans un tel cas, $h(X) =k$.
98 Par définition  $\ov{h}$, $(X, \ov{h}(X)) \in E $ et
99 $X\oplus\ov{h}(X)=0^{{\mathsf{N}}-h(X)}10^{h(X)-1} = 0^{{\mathsf{N}}-k}10^{k-1}$.
100 Ainsi $\ov{h}(X)= \ov{h}^{-1}(X)$, ce qui entraîne $\ov{h}(\ov{h}(X))= X$ et 
101 qui contredit le fait que $\ov{h}$ est anti-involutive.
102 \end{proof}
103
104 Soit $Z$ une variable aléatoire suivant une distribution uniforme sur 
105 $[ {\mathsf{N}}] \times \Bool$.
106 Pour $X\in \Bool^{\mathsf{N}}$, on définit avec  $Z=(i,b)$,  
107 \[
108 \left\{
109 \begin{array}{ll}
110 f(X,Z)=X\oplus (0^{{\mathsf{N}}-i}10^{i-1}) & \text{ si } b=1 \text{ et } i\neq h(X),\\
111 f(X,Z)=X& \text{sinon.} 
112 \end{array}\right.
113 \]
114
115 La chaîne de Markov est ainsi définie par 
116 \[
117 X_t= f(X_{t-1},Z_t).
118 \]
119
120
121
122
123 Un entier $\ell\in \llbracket 1,{\mathsf{N}} \rrbracket$ est  \emph{équitable} 
124  au temps $t$ s'il existe  $0\leq j <t$ tel que $Z_{j+1}=(\ell,\cdot)$ et $h(X_j)\neq \ell$. En d'autres mots, il existe une date $j$ antérieure à  $t$ 
125 où le premier élément de la variable aléatoire  $Z$ est $l$ 
126 (\textit{i.e.}, la stratégie vaut $l$ à la date $j$) 
127 et où le n{\oe}ud $X_j$ permet de traverser l'arc  $l$.  
128  
129 Soit $\ts$ le premier temps où tous les éléments de $\llbracket 1, {\mathsf{N}} \rrbracket$ 
130 sont  équitables.  On a le lemme suivant:%L'entier $\ts$ est un temps d'arrêt pour la chaîne de Markov $(X_t)$.
131
132
133 \begin{lemma}
134 L'entier $\ts$ est un temps stationnaire fort.
135 \end{lemma}
136
137 \begin{proof}
138 Soit $\tau_\ell$ la première date où $\ell$ est équitable.
139 La variable aléatoire $Z_{\tau_\ell}$ est de la forme  $(\ell,b)$ %with $\delta\in\{0,1\}$ and
140 et telle que 
141 $b=1$ avec la probabilité $\frac{1}{2}$ et $b=0$ avec la probabilité 
142 $\frac{1}{2}$. Comme $h(X_{\tau_\ell-1})\neq\ell$,
143 la valeur du $\ell^{\textrm{ème}}$
144 bit de $X_{\tau_\ell}$ 
145 est $0$ ou $1$ avec la même probabilité  ($\frac{1}{2}$).
146
147 A chaque étape, le $l^{\textrm{ème}}$ bit  est inversé de $0$ à $1$ ou de $1$ à $0$, chaque fois avec la même 
148 probabilité. Ainsi,  pour $t\geq \tau_\ell$, le
149 $\ell^{\textrm{ème}}$ bit de $X_t$ est $0$ ou $1$ avec la même probabilité,
150 et ce indépendamment de la valeur des autres bits.
151 \end{proof}
152
153
154
155
156
157
158
159 Pour chaque $X\in \Bool^{\mathsf{N}}$ et $\ell\in [{\mathsf{N}}]$, 
160 soit $S_{X,\ell}$ une variable aléatoire qui compte le nombre d'itérations
161 tel qu'en démarrant de la configuration  $X$ on en atteigne une où 
162 $\ell$  est équitable. Plus formellement, 
163 $$S_{X,\ell}=\min \{t \geq 1\mid h(X_{t-1})\neq \ell\text{ et }Z_t=(\ell,.)\text{ et } X_0=X\}.$$
164 On peut majorer l'espérance de cette variable aléatoire comme suit.
165
166
167 \begin{lemma}\label{prop:lambda}
168 Soit $\ov{h}$ un fonction bijective et anti-involutive. Alors pour tout 
169  $X\in \Bool^{\mathsf{N}}$ et $\ell\in [{\mathsf{N}}]$, 
170 l'inégalité $E[S_{X,\ell}]\leq 8{\mathsf{N}}^2$ est établie.
171 \end{lemma}
172
173 \begin{proof}
174 Montrons tout d'abord que pour chaque $X$ et chaque  $\ell$, on a  $\P(S_{X,\ell})\leq 2)\geq
175 \frac{1}{4{\mathsf{N}}^2}$. Soit  $X_0= X$.
176
177 \begin{itemize}
178 \item Si $h(X)\neq \ell$, alors
179 $\P(S_{X,\ell}=1)=\frac{1}{2{\mathsf{N}}}\geq \frac{1}{4{\mathsf{N}}^2}$. 
180 \item Sinon, $h(X)=\ell$, alors
181 $\P(S_{X,\ell}=1)=0$. Dans ce cas, intuitivement, il est possible de passer de $X$ à $\ov{h}^{-1}(X)$ 
182 (avec la probabilité $\frac{1}{2N}$). De plus, dans la configuration
183 $\ov{h}^{-1}(X)$, le $l^{\textrm{ème}}$ bit peut être inversé.
184 Plus formellement, puisque $\ov{h}$ est anti-involutive,
185 $\ov{h}(X)=\ov{h}(\ov{h}(\ov{h}^{-1}(X)))\neq \ov{h}^{-1}(X)$. On en déduit
186 que $(X,\ov{h}^{-1}(X))\in E_h$. On a ainsi
187 $P(X_1=\ov{h}^{-1}(X))=\frac{1}{2{\mathsf{N}}}$. 
188 D'après le  lemme~\ref{lm:h},
189 $h(\ov{h}^{-1}(X))$ est différent de $h(X)$. 
190 Ainsi, $\P(S_{x,\ell}=2\mid X_1=\ov{h}^{-1}(X))=\frac{1}{2{\mathsf{N}}}$, 
191 prouvant ainsi que  $\P(S_{x,\ell}\leq 2)\geq
192 \frac{1}{4{\mathsf{N}}^2}$.
193 \end{itemize}
194
195
196
197
198 Ainsi, $\P(S_{X,\ell}\geq 3)\leq 1-\frac{1}{4{\mathsf{N}}^2}$. Par induction, on a,
199 pour chaque $i$, $\P(S_{X,\ell}\geq 2i)\leq
200 \left(1-\frac{1}{4{\mathsf{N}}^2}\right)^i$.
201 De plus,
202 puisque $S_{X,\ell}$ est positive, on sait~\cite[lemme 2.9]{proba} que
203 \[
204 E[S_{X,\ell}]=\sum_{i=1}^{+\infty}\P(S_{X,\ell}\geq i).
205 \]
206 Puisque $\P(S_{X,\ell}\geq i)\geq \P(S_{X,\ell}\geq i+1)$, on a 
207 \[
208 E[S_{X,\ell}]=\sum_{i=1}^{+\infty}\P(S_{X,\ell}\geq i)\leq
209 \P(S_{X,\ell}\geq 1)+\P(S_{X,\ell}\geq 2)+2 \sum_{i=1}^{+\infty}\P(S_{X,\ell}\geq 2i).\]
210 Ainsi,
211 $$E[S_{X,\ell}]\leq 1+1+2
212 \sum_{i=1}^{+\infty}\left(1-\frac{1}{4{\mathsf{N}}^2}\right)^i=2+2(4{\mathsf{N}}^2-1)=8{\mathsf{N}}^2,$$
213 ce qui conclut la preuve du lemme.
214 \end{proof}
215
216 Soit $\ts^\prime$ la variable aléatoire comptant le nombre d'itérations pour avoir exactement
217 $\mathsf{N}-1$ bits équitables. On peut majorer son espérance.
218
219 \begin{lemma}\label{lm:stopprime}
220 On a  $E[\ts^\prime]\leq 4{\mathsf{N}} \ln ({\mathsf{N}}+1).$
221 \end{lemma}
222
223 \begin{proof}
224 C'est un problème classique de collectionneur de vignettes. Soit $W_i$ la variable aléatoire 
225 comptant le nombre de déplacements dans la chaîne de Markov pour avoir exactement
226 $i-1$ bits équitables. On a $\ts^\prime=\sum_{i=1}^{{\mathsf{N}}-1}W_i$.
227 Dans la configuration $X$ avec $i-1$ bits équitables,
228 la probabilité d'obtenir un nouveau bit équitable est soit
229 $1-\frac{i-1}{{\mathsf{N}}}$ si $h(X)$ est équitable,
230 soit $1-\frac{i-2}{{\mathsf{N}}}$ si $h(X)$ ne l'est pas. 
231
232 Ainsi, 
233 $\P (W_i=k)\leq \left(\frac{i-1}{{\mathsf{N}}}\right)^{k-1} \frac{{\mathsf{N}}-i+2}{{\mathsf{N}}}.$
234 On a par conséquent $\P(W_i\geq k)\leq \left(\frac{i-1}{{\mathsf{N}}}\right)^{k-1} \frac{{\mathsf{N}}-i+2}{{\mathsf{N}}-i+1}.$
235 On en déduit que 
236 \[
237 E[W_i]=\sum_{k=1}^{+\infty} \P (W_i\geq k)\leq {\mathsf{N}} \frac{{\mathsf{N}}-i+2}{({\mathsf{N}}-i+1)^2}\leq \frac{4{\mathsf{N}}}{{\mathsf{N}}-i+2},
238 \]
239 et donc que 
240
241 \[
242 E[\ts^\prime]=\sum_{i=1}^{{\mathsf{N}}-1}E[W_i]\leq 
243 4{\mathsf{N}}\sum_{i=1}^{{\mathsf{N}}-1} \frac{1}{{\mathsf{N}}-i+2}=
244 4{\mathsf{N}}\sum_{i=3}^{{\mathsf{N}}+1}\frac{1}{i}.\]
245
246 Or $\sum_{i=1}^{{\mathsf{N}}+1}\frac{1}{i}\leq 1+\ln({\mathsf{N}}+1)$. On en déduit que 
247 $1+\frac{1}{2}+\sum_{i=3}^{{\mathsf{N}}+1}\frac{1}{i}\leq 1+\ln({\mathsf{N}}+1).$
248 Ainsi, on a la majoration suivante
249 \[
250 E[\ts^\prime]\leq 
251 4{\mathsf{N}} (-\frac{1}{2}+\ln({\mathsf{N}}+1))\leq 
252 4{\mathsf{N}}\ln({\mathsf{N}}+1),
253 \]
254 ce qui termine la preuve du lemme.
255 \end{proof}
256
257 Tous les éléments sont en place pour majorer l'espérance de $\ts$. 
258 \begin{theorem}
259 \label{prop:stop}
260 Si $\ov{h}$ est bijective et anti- involutive 
261 $\ov{h}(\ov{h}(X))\neq X$, alors
262 $E[\ts]\leq 8{\mathsf{N}}^2+ 4{\mathsf{N}}\ln ({\mathsf{N}}+1)$. 
263 \end{theorem}
264 \begin{proof}
265 Sans perte de généralité, considérons que le dernier bit 
266 non équitable est $\ell$. On a 
267 $\ts=\ts^\prime+S_{X_\tau,\ell}$ et donc
268 $E[\ts] = E[\ts^\prime]+E[S_{X_\tau,\ell}]$. Ainsi, le théorème 
269 est une application directe des lemmes~\ref{prop:lambda} et~\ref{lm:stopprime}.
270 \end{proof}
271
272 Montrons alors le théorème~\ref{theo:tmps:mix} rappelé ci-dessous
273
274 \theotpsmix*
275
276 \begin{proof}
277 Comme $\tau$ est positive, on peut appliquer l'inégalité de Markov:
278 \[
279 \P_X(\tau > t)\leq \frac{E[\tau]}{t}.
280 \]
281
282 En posant $t_n=32N^2+16N\ln (N+1)$, on obtient:  
283 \[
284 \P_X(\tau > t_n)\leq \frac{1}{4}.
285 \] 
286
287
288 D'après la définition de $t_{\rm mix}$ et d'après le théorème~\ref{thm-sst},
289 on en déduit
290 \[
291 t_{\rm mix}\leq 32N^2+16N\ln (N+1)=O(N^2)
292 \].
293 \end{proof}