]> AND Private Git Repository - 16dcc.git/blob - stopping.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
modif abstract
[16dcc.git] / stopping.tex
1 This section considers functions $f: \Bool^{\mathsf{N}} \rightarrow \Bool^{\mathsf{N}} $ 
2 issued from an hypercube where an Hamiltonian path has been removed
3 as described in previous section.
4 Notice that the iteration graph is always a subgraph of 
5 ${\mathsf{N}}$-cube augmented with all the self-loop, \textit{i.e.}, all the 
6 edges $(v,v)$ for any $v \in \Bool^{\mathsf{N}}$. 
7 Next, if we add probabilities on the transition graph, iterations can be 
8 interpreted as Markov chains.
9
10 \begin{xpl}
11 Let us consider for instance  
12 the graph $\Gamma(f)$ defined 
13 in \textsc{Figure~\ref{fig:iteration:f*}.} and 
14 the probability function $p$ defined on the set of edges as follows:
15 $$
16 p(e) \left\{
17 \begin{array}{ll}
18 = \frac{2}{3} \textrm{ if $e=(v,v)$ with $v \in \Bool^3$,}\\
19 = \frac{1}{6} \textrm{ otherwise.}
20 \end{array}
21 \right.  
22 $$
23 The matrix $P$ of the Markov chain associated to the function $f^*$ and to its probability function $p$ is 
24 \[
25 P=\dfrac{1}{6} \left(
26 \begin{array}{llllllll}
27 4&1&1&0&0&0&0&0 \\
28 1&4&0&0&0&1&0&0 \\
29 0&0&4&1&0&0&1&0 \\
30 0&1&1&4&0&0&0&0 \\
31 1&0&0&0&4&0&1&0 \\
32 0&0&0&0&1&4&0&1 \\
33 0&0&0&0&1&0&4&1 \\
34 0&0&0&1&0&1&0&4 
35 \end{array}
36 \right).
37 \]
38 \end{xpl}
39
40
41 A specific random walk in this modified hypercube is first 
42 introduced (See section~\ref{sub:stop:formal}). We further 
43  study this random walk in a theoretical way to 
44 provide an upper bound of fair sequences 
45 (See section~\ref{sub:stop:bound}).
46 We finally complete these study with experimental
47 results that reduce this bound (Sec.~\ref{sub:stop:exp}).
48 Notice that for a general references on Markov chains
49 see~\cite{LevinPeresWilmer2006}, 
50 and particularly Chapter~5 on stopping times.  
51
52
53 \subsection{Formalizing the Random Walk}\label{sub:stop:formal}
54
55 First of all, let $\pi$, $\mu$ be two distributions on $\Bool^{\mathsf{N}}$. The total
56 variation distance between $\pi$ and $\mu$ is denoted $\tv{\pi-\mu}$ and is
57 defined by
58 $$\tv{\pi-\mu}=\max_{A\subset \Bool^{\mathsf{N}}} |\pi(A)-\mu(A)|.$$ It is known that
59 $$\tv{\pi-\mu}=\frac{1}{2}\sum_{X\in\Bool^{\mathsf{N}}}|\pi(X)-\mu(X)|.$$ Moreover, if
60 $\nu$ is a distribution on $\Bool^{\mathsf{N}}$, one has
61 $$\tv{\pi-\mu}\leq \tv{\pi-\nu}+\tv{\nu-\mu}$$
62
63 Let $P$ be the matrix of a Markov chain on $\Bool^{\mathsf{N}}$. $P(X,\cdot)$ is the
64 distribution induced by the $X$-th row of $P$. If the Markov chain induced by
65 $P$ has a stationary distribution $\pi$, then we define
66 $$d(t)=\max_{X\in\Bool^{\mathsf{N}}}\tv{P^t(X,\cdot)-\pi}.$$
67
68 \ANNOT{incohérence de notation $X$ : entier ou dans $B^N$ ?}
69 and
70
71 $$t_{\rm mix}(\varepsilon)=\min\{t \mid d(t)\leq \varepsilon\}.$$
72
73 %% Intuitively speaking, $t_{\rm mix}$ is a mixing time 
74 %% \textit{i.e.}, is the time until the matrix $X$ of a Markov chain  
75 %% is $\epsilon$-close to a stationary distribution.
76
77 Intutively speaking,  $t_{\rm mix}(\varepsilon)$ is the time/steps required
78 to be sure to be $\varepsilon$-close to the stationary distribution, wherever
79 the chain starts. 
80
81
82
83 One can prove that
84
85 $$t_{\rm mix}(\varepsilon)\leq \lceil\log_2(\varepsilon^{-1})\rceil t_{\rm mix}(\frac{1}{4})$$
86
87
88
89
90 % It is known that $d(t+1)\leq d(t)$. \JFC{references ? Cela a-t-il 
91 % un intérêt dans la preuve ensuite.}
92
93
94
95 %and
96 % $$t_{\rm mix}(\varepsilon)=\min\{t \mid d(t)\leq \varepsilon\}.$$
97 % One can prove that \JFc{Ou cela a-t-il été fait?}
98 % $$t_{\rm mix}(\varepsilon)\leq \lceil\log_2(\varepsilon^{-1})\rceil t_{\rm mix}(\frac{1}{4})$$
99
100
101
102 Let $(X_t)_{t\in \mathbb{N}}$ be a sequence of $\Bool^{\mathsf{N}}$ valued random
103 variables. A $\mathbb{N}$-valued random variable $\tau$ is a {\it stopping
104   time} for the sequence $(X_i)$ if for each $t$ there exists $B_t\subseteq
105 (\Bool^{\mathsf{N}})^{t+1}$ such that $\{\tau=t\}=\{(X_0,X_1,\ldots,X_t)\in B_t\}$. 
106 In other words, the event $\{\tau = t \}$ only depends on the values of 
107 $(X_0,X_1,\ldots,X_t)$, not on $X_k$ with $k > t$. 
108  
109
110 Let $(X_t)_{t\in \mathbb{N}}$ be a Markov chain and $f(X_{t-1},Z_t)$ a
111 random mapping representation of the Markov chain. A {\it randomized
112   stopping time} for the Markov chain is a stopping time for
113 $(Z_t)_{t\in\mathbb{N}}$. If the Markov chain is irreducible and has $\pi$
114 as stationary distribution, then a {\it stationary time} $\tau$ is a
115 randomized stopping time (possibly depending on the starting position $X$),
116 such that  the distribution of $X_\tau$ is $\pi$:
117 $$\P_X(X_\tau=Y)=\pi(Y).$$
118
119 \subsection{Upper bound of Stopping Time}\label{sub:stop:bound}
120
121 A stopping time $\tau$ is a {\emph strong stationary time} if $X_{\tau}$ is
122 independent of $\tau$. The following result will be useful~\cite[Proposition~6.10]{LevinPeresWilmer2006},
123
124
125 \begin{thrm}\label{thm-sst}
126 If $\tau$ is a strong stationary time, then $d(t)\leq \max_{X\in\Bool^{\mathsf{N}}}
127 \P_X(\tau > t)$.
128 \end{thrm}
129
130
131 %Let $\Bool^n$ be the set of words of length $n$. 
132 Let $E=\{(X,Y)\mid
133 X\in \Bool^{\mathsf{N}}, Y\in \Bool^{\mathsf{N}},\ X=Y \text{ or } X\oplus Y \in 0^*10^*\}$.
134 In other words, $E$ is the set of all the edges in the classical 
135 ${\mathsf{N}}$-cube. 
136 Let $h$ be a function from $\Bool^{\mathsf{N}}$ into $\llbracket 1, {\mathsf{N}} \rrbracket$.
137 Intuitively speaking $h$ aims at memorizing for each node 
138 $X \in \Bool^{\mathsf{N}}$ which edge is removed in the Hamiltonian cycle,
139 \textit{i.e.} which bit in $\llbracket 1, {\mathsf{N}} \rrbracket$ 
140 cannot be switched.
141
142
143
144 We denote by $E_h$ the set $E\setminus\{(X,Y)\mid X\oplus Y =
145 0^{{\mathsf{N}}-h(X)}10^{h(X)-1}\}$. This is the set of the modified hypercube, 
146 \textit{i.e.}, the ${\mathsf{N}}$-cube where the Hamiltonian cycle $h$ 
147 has been removed.
148
149 We define the Markov matrix $P_h$ for each line $X$ and 
150 each column $Y$  as follows:
151 \begin{equation}
152 \left\{
153 \begin{array}{ll}
154 P_h(X,X)=\frac{1}{2}+\frac{1}{2{\mathsf{N}}} & \\
155 P_h(X,Y)=0 & \textrm{if  $(X,Y)\notin E_h$}\\
156 P_h(X,Y)=\frac{1}{2{\mathsf{N}}} & \textrm{if $X\neq Y$ and $(X,Y) \in E_h$}
157 \end{array}
158 \right.
159 \label{eq:Markov:rairo}
160 \end{equation} 
161
162 We denote by $\ov{h} : \Bool^{\mathsf{N}} \rightarrow \Bool^{\mathsf{N}}$ the function 
163 such that for any $X \in \Bool^{\mathsf{N}} $, 
164 $(X,\ov{h}(X)) \in E$ and $X\oplus\ov{h}(X)=0^{{\mathsf{N}}-h(X)}10^{h(X)-1}$. 
165 The function $\ov{h}$ is said {\it square-free} if for every $X\in \Bool^{\mathsf{N}}$,
166 $\ov{h}(\ov{h}(X))\neq X$. 
167
168 \begin{lmm}\label{lm:h}
169 If $\ov{h}$ is bijective and square-free, then $h(\ov{h}^{-1}(X))\neq h(X)$.
170 \end{lmm}
171
172 \begin{proof}
173 Let $\ov{h}$ be bijective.
174 Let $k\in \llbracket 1, {\mathsf{N}} \rrbracket$ s.t. $h(\ov{h}^{-1}(X))=k$.
175 Then $(\ov{h}^{-1}(X),X)$ belongs to $E$ and 
176 $\ov{h}^{-1}(X)\oplus X = 0^{{\mathsf{N}}-k}10^{k-1}$.
177 Let us suppose $h(X) = h(\ov{h}^{-1}(X))$. In such a case, $h(X) =k$.
178 By definition of $\ov{h}$, $(X, \ov{h}(X)) \in E $ and 
179 $X\oplus\ov{h}(X)=0^{{\mathsf{N}}-h(X)}10^{h(X)-1} = 0^{{\mathsf{N}}-k}10^{k-1}$.
180 Thus $\ov{h}(X)= \ov{h}^{-1}(X)$, which leads to $\ov{h}(\ov{h}(X))= X$.
181 This contradicts the square-freeness of $\ov{h}$.
182 \end{proof}
183
184 Let $Z$ be a random variable that is uniformly distributed over
185 $\llbracket 1, {\mathsf{N}} \rrbracket \times \Bool$.
186 For $X\in \Bool^{\mathsf{N}}$, we
187 define, with $Z=(i,b)$,  
188 $$
189 \left\{
190 \begin{array}{ll}
191 f(X,Z)=X\oplus (0^{{\mathsf{N}}-i}10^{i-1}) & \text{if } b=1 \text{ and } i\neq h(X),\\
192 f(X,Z)=X& \text{otherwise.} 
193 \end{array}\right.
194 $$
195
196 The Markov chain is thus defined as 
197 $$
198 X_t= f(X_{t-1},Z_t)
199 $$
200
201
202
203 %%%%%%%%%%%%%%%%%%%%%%%%%%%ù
204 %\section{Stopping time}
205
206 An integer $\ell\in \llbracket 1,{\mathsf{N}} \rrbracket$ is said {\it fair} 
207 at time $t$ if there
208 exists $0\leq j <t$ such that $Z_{j+1}=(\ell,\cdot)$ and $h(X_j)\neq \ell$.
209 In other words, there exist a date $j$ before $t$ where 
210 the first element of the random variable $Z$ is exactly $l$ 
211 (\textit{i.e.}, $l$ is the strategy at date $j$) 
212 and where the configuration $X_j$ allows to traverse the edge $l$.  
213  
214 Let $\ts$ be the first time all the elements of $\llbracket 1, {\mathsf{N}} \rrbracket$
215 are fair. The integer $\ts$ is a randomized stopping time for
216 the Markov chain $(X_t)$.
217
218
219 \begin{lmm}
220 The integer $\ts$ is a strong stationary time.
221 \end{lmm}
222
223 \begin{proof}
224 Let $\tau_\ell$ be the first time that $\ell$ is fair. The random variable
225 $Z_{\tau_\ell}$ is of the form $(\ell,b)$ %with $\delta\in\{0,1\}$ and
226 such that 
227 $b=1$ with probability $\frac{1}{2}$ and $b=0$ with probability
228 $\frac{1}{2}$. Since $h(X_{\tau_\ell-1})\neq\ell$ the value of the $\ell$-th
229 bit of $X_{\tau_\ell}$ 
230 is $0$ or $1$ with the same probability ($\frac{1}{2}$).
231 This probability is independent of the value of the other bits.
232
233
234
235 Moving next in the chain, at each step,
236 the $l$-th bit  is switched from $0$ to $1$ or from $1$ to $0$ each time with
237 the same probability. Therefore,  for $t\geq \tau_\ell$, the
238 $\ell$-th bit of $X_t$ is $0$ or $1$ with the same probability,  and
239 independently of the value of the other bits, proving the
240 lemma.\end{proof}
241
242 \begin{thrm} \label{prop:stop}
243 If $\ov{h}$ is bijective and square-free, then
244 $E[\ts]\leq 8{\mathsf{N}}^2+ 4{\mathsf{N}}\ln ({\mathsf{N}}+1)$. 
245 \end{thrm}
246
247 For each $X\in \Bool^{\mathsf{N}}$ and $\ell\in\llbracket 1,{\mathsf{N}}\rrbracket$, 
248 let $S_{X,\ell}$ be the
249 random variable that counts the number of steps 
250 from $X$ until we reach a configuration where
251 $\ell$ is fair. More formally
252 \[
253 \begin{array}{rcl}
254 S_{X,\ell}&=&\min \{t \geq 1\mid h(X_{t-1})\neq \ell\text{ and }Z_t=(\ell,.) \\
255 && \qquad \text{ and } X_0=X\}.
256 \end{array}
257 \]
258
259 %  We denote by
260 % $$\lambda_h=\max_{X,\ell} S_{X,\ell}.$$
261
262
263 \begin{lmm}\label{prop:lambda}
264 Let $\ov{h}$ is a square-free bijective function. Then
265 for all $X$ and 
266 all $\ell$, 
267 the inequality 
268 $E[S_{X,\ell}]\leq 8{\mathsf{N}}^2$ is established.
269 \end{lmm}
270
271 \begin{proof}
272 For every $X$, every $\ell$, one has $\P(S_{X,\ell})\leq 2)\geq
273 \frac{1}{4{\mathsf{N}}^2}$. 
274 Let $X_0= X$.
275 Indeed, 
276 \begin{itemize}
277 \item if $h(X)\neq \ell$, then
278 $\P(S_{X,\ell}=1)=\frac{1}{2{\mathsf{N}}}\geq \frac{1}{4{\mathsf{N}}^2}$. 
279 \item otherwise, $h(X)=\ell$, then
280 $\P(S_{X,\ell}=1)=0$.
281 But in this case, intuitively, it is possible to move
282 from $X$ to $\ov{h}^{-1}(X)$ (with probability $\frac{1}{2N}$). And in
283 $\ov{h}^{-1}(X)$ the $l$-th bit can be switched. 
284 More formally,
285 since $\ov{h}$ is square-free,
286 $\ov{h}(X)=\ov{h}(\ov{h}(\ov{h}^{-1}(X)))\neq \ov{h}^{-1}(X)$. It follows
287 that $(X,\ov{h}^{-1}(X))\in E_h$. We thus have
288 $P(X_1=\ov{h}^{-1}(X))=\frac{1}{2{\mathsf{N}}}$. Now, by Lemma~\ref{lm:h},
289 $h(\ov{h}^{-1}(X))\neq h(X)$. Therefore $\P(S_{x,\ell}=2\mid
290 X_1=\ov{h}^{-1}(X))=\frac{1}{2{\mathsf{N}}}$, proving that $\P(S_{x,\ell}\leq 2)\geq
291 \frac{1}{4{\mathsf{N}}^2}$.
292 \end{itemize}
293
294
295
296
297 Therefore, $\P(S_{X,\ell}\geq 3)\leq 1-\frac{1}{4{\mathsf{N}}^2}$. By induction, one
298 has, for every $i$, $\P(S_{X,\ell}\geq 2i)\leq
299 \left(1-\frac{1}{4{\mathsf{N}}^2}\right)^i$.
300  Moreover,
301 since $S_{X,\ell}$ is positive, it is known~\cite[lemma 2.9]{proba}, that
302 $$E[S_{X,\ell}]=\sum_{i=1}^{+\infty}\P(S_{X,\ell}\geq i).$$
303 Since $\P(S_{X,\ell}\geq i)\geq \P(S_{X,\ell}\geq i+1)$, one has
304 \[
305 \begin{array}{rcl}
306   E[S_{X,\ell}]&=&\sum_{i=1}^{+\infty}\P(S_{X,\ell}\geq i)\\
307 &\leq& 
308 \P(S_{X,\ell}\geq 1) +\P(S_{X,\ell}\geq 2)\\
309 && \qquad +2 \sum_{i=1}^{+\infty}\P(S_{X,\ell}\geq 2i).
310 \end{array}
311 \]
312 Consequently,
313 $$E[S_{X,\ell}]\leq 1+1+2
314 \sum_{i=1}^{+\infty}\left(1-\frac{1}{4{\mathsf{N}}^2}\right)^i=2+2(4{\mathsf{N}}^2-1)=8{\mathsf{N}}^2,$$
315 which concludes the proof.
316 \end{proof}
317
318 Let $\ts^\prime$ be the time used to get all the bits but one fair.
319
320 \begin{lmm}\label{lm:stopprime}
321 One has $E[\ts^\prime]\leq 4{\mathsf{N}} \ln ({\mathsf{N}}+1).$
322 \end{lmm}
323
324 \begin{proof}
325 This is a classical  Coupon Collector's like problem. Let $W_i$ be the
326 random variable counting the number of moves done in the Markov chain while
327 we had exactly $i-1$ fair bits. One has $\ts^\prime=\sum_{i=1}^{{\mathsf{N}}-1}W_i$.
328  But when we are at position $X$ with $i-1$ fair bits, the probability of
329  obtaining a new fair bit is either $1-\frac{i-1}{{\mathsf{N}}}$ if $h(X)$ is fair,
330  or  $1-\frac{i-2}{{\mathsf{N}}}$ if $h(X)$ is not fair. 
331
332 Therefore,
333 $\P (W_i=k)\leq \left(\frac{i-1}{{\mathsf{N}}}\right)^{k-1} \frac{{\mathsf{N}}-i+2}{{\mathsf{N}}}.$
334 Consequently, we have $\P(W_i\geq k)\leq \left(\frac{i-1}{{\mathsf{N}}}\right)^{k-1} \frac{{\mathsf{N}}-i+2}{{\mathsf{N}}-i+1}.$
335 It follows that $E[W_i]=\sum_{k=1}^{+\infty} \P (W_i\geq k)\leq {\mathsf{N}} \frac{{\mathsf{N}}-i+2}{({\mathsf{N}}-i+1)^2}\leq \frac{4{\mathsf{N}}}{{\mathsf{N}}-i+2}$.
336
337
338
339 It follows that 
340 $E[W_i]\leq \frac{4{\mathsf{N}}}{{\mathsf{N}}-i+2}$. Therefore
341 $$E[\ts^\prime]=\sum_{i=1}^{{\mathsf{N}}-1}E[W_i]\leq 
342 4{\mathsf{N}}\sum_{i=1}^{{\mathsf{N}}-1} \frac{1}{{\mathsf{N}}-i+2}=
343 4{\mathsf{N}}\sum_{i=3}^{{\mathsf{N}}+1}\frac{1}{i}.$$
344
345 But $\sum_{i=1}^{{\mathsf{N}}+1}\frac{1}{i}\leq 1+\ln({\mathsf{N}}+1)$. It follows that
346 $1+\frac{1}{2}+\sum_{i=3}^{{\mathsf{N}}+1}\frac{1}{i}\leq 1+\ln({\mathsf{N}}+1).$
347 Consequently,
348 $E[\ts^\prime]\leq 
349 4{\mathsf{N}} (-\frac{1}{2}+\ln({\mathsf{N}}+1))\leq 
350 4{\mathsf{N}}\ln({\mathsf{N}}+1)$.
351 \end{proof}
352
353 One can now prove Theorem~\ref{prop:stop}.
354
355 \begin{proof}
356 Since $\ts^\prime$ is the time used to obtain $\mathsf{N}-1$ fair bits.
357 Assume that the last unfair bit is $\ell$. One has
358 $\ts=\ts^\prime+S_{X_\tau,\ell}$, and therefore $E[\ts] =
359 E[\ts^\prime]+E[S_{X_\tau,\ell}]$. Therefore, Theorem~\ref{prop:stop} is a
360 direct application of lemma~\ref{prop:lambda} and~\ref{lm:stopprime}.
361 \end{proof}
362
363 Now using Markov Inequality, one has $\P_X(\tau > t)\leq \frac{E[\tau]}{t}$.
364 With $t_n=32N^2+16N\ln (N+1)$, one obtains:  $\P_X(\tau > t_n)\leq \frac{1}{4}$. 
365 Therefore, using the defintion of $t_{\rm mix)}$ and
366 Theorem~\ref{thm-sst}, it follows that
367 $t_{\rm mix}\leq 32N^2+16N\ln (N+1)=O(N^2)$.
368
369
370 Notice that the calculus of the stationary time upper bound is obtained
371 under the following constraint: for each vertex in the $\mathsf{N}$-cube 
372 there are one ongoing arc and one outgoing arc that are removed. 
373 The calculus doesn't consider (balanced) Hamiltonian cycles, which 
374 are more regular and more binding than this constraint.
375 Moreover, the bound
376 is obtained using the coarse Markov Inequality. For the
377 classical (lazzy) random walk the  $\mathsf{N}$-cube, without removing any
378 Hamiltonian cylce, the mixing time is in $\Theta(N\ln N)$. 
379 We conjecture that in our context, the mixing time is also in $\Theta(N\ln
380 N)$.
381
382
383 In this later context, we claim that the upper bound for the stopping time 
384 should be reduced. This fact is studied in the next section.
385
386 \subsection{Practical Evaluation of Stopping Times}\label{sub:stop:exp}
387  
388 Let be given a function $f: \Bool^{\mathsf{N}} \rightarrow \Bool^{\mathsf{N}}$
389 and an initial seed $x^0$.
390 The pseudo code given in algorithm~\ref{algo:stop} returns the smallest 
391 number of iterations such that all elements $\ell\in \llbracket 1,{\mathsf{N}} \rrbracket$ are fair. It allows to deduce an approximation of $E[\ts]$
392 by calling this code many times with many instances of function and many 
393 seeds.
394
395 \begin{algorithm}[ht]
396 %\begin{scriptsize}
397 \KwIn{a function $f$, an initial configuration $x^0$ ($\mathsf{N}$ bits)}
398 \KwOut{a number of iterations $\textit{nbit}$}
399
400 $\textit{nbit} \leftarrow 0$\;
401 $x\leftarrow x^0$\;
402 $\textit{fair}\leftarrow\emptyset$\;
403 \While{$\left\vert{\textit{fair}}\right\vert < \mathsf{N} $}
404 {
405         $ s \leftarrow \textit{Random}(\mathsf{N})$ \;
406         $\textit{image} \leftarrow f(x) $\;
407         \If{$\textit{Random}(1) \neq 0$ and $x[s] \neq \textit{image}[s]$}{
408             $\textit{fair} \leftarrow \textit{fair} \cup \{s\}$\;
409             $x[s] \leftarrow \textit{image}[s]$\;
410           }
411         $\textit{nbit} \leftarrow \textit{nbit}+1$\;
412 }
413 \Return{$\textit{nbit}$}\;
414 %\end{scriptsize}
415 \caption{Pseudo Code of stoping time calculus }
416 \label{algo:stop}
417 \end{algorithm}
418
419 Practically speaking, for each number $\mathsf{N}$, $ 3 \le \mathsf{N} \le 16$, 
420 10 functions have been generated according to method presented in section~\ref{sec:hamilton}. For each of them, the calculus of the approximation of $E[\ts]$
421 is executed 10000 times with a random seed. The Figure~\ref{fig:stopping:moy}
422 summarizes these results. In this one, a circle represents the 
423 approximation of $E[\ts]$ for a given $\mathsf{N}$.
424 The line is the graph of the function $x \mapsto 2x\ln(2x+8)$. 
425 It can firstly 
426 be observed that the approximation is largely
427 smaller than the upper bound given in theorem~\ref{prop:stop}.
428 It can be further deduced  that the conjecture of the previous section 
429 is realistic according the graph of $x \mapsto 2x\ln(2x+8)$.
430
431
432
433
434
435 % \begin{table}
436 % $$
437 % \begin{array}{|*{14}{l|}}
438 % \hline
439 % \mathsf{N}  & 4 & 5 & 6 & 7& 8 & 9 & 10& 11 & 12 & 13 & 14 & 15 & 16 \\
440 % \hline
441 % \mathsf{N}  & 21.8 & 28.4 & 35.4 & 42.5 & 50 & 57.7 & 65.6& 73.5 & 81.6 & 90 & 98.3 & 107.1 & 115.7 \\
442 % \hline
443 % \end{array}
444 % $$
445 % \caption{Average Stopping Time}\label{table:stopping:moy}
446 % \end{table}
447
448 \begin{figure}
449 \centering
450 \includegraphics[width=0.49\textwidth]{complexity}
451 \caption{Average Stopping Time Approximation}\label{fig:stopping:moy}
452 \end{figure}
453
454
455
456 %%% Local Variables:
457 %%% mode: latex
458 %%% TeX-master: "main"
459 %%% ispell-dictionary: "american"
460 %%% mode: flyspell
461 %%% End: