]> AND Private Git Repository - cours-maths-dis.git/blob - graphes/Markov.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
Merge branch 'master' of ssh://bilbo/cours-maths-dis
[cours-maths-dis.git] / graphes / Markov.tex
1
2
3 \section{Généralités}
4
5 \subsection{Présentation}
6 Généralement, un processus stochastique est une suite d'expériences dont le résultat dépend du hasard.
7
8 Ici, nous admettrons qu'en certains temps 0, 1, 2, ..., t, nous observons un système. Celui-ci peut se trouver dans l'un des états d'une collection finie d'états possibles. L'observation du système est ainsi considérée comme une expérience dont le résultat (aléatoire) est l'état dans lequel se trouve le système.
9
10 Nous supposons que nous connaissons pour chaque paire d'états $i$ et $j$, et pour chaque instant $t$, la probabilité $p_{ij}(t)$ que le processus soit dans l'état $j$ à l'instant $t+1$ étant donné qu'il se trouve dans l'état $i$ à l'instant $t$. De plus, la probabilité $p_{ij}(t)$ sera supposée ne pas dépendre de $t$.
11
12 \subsection{Définitions}
13
14 \begin{Def}[Chaîne de Markov]
15 Un tel processus est appelé \emph{chaîne de Markov}\index{chaîne de Markov} (à temps discret et avec un ensemble fini d'états), du nom de son inventeur Andrei Andreyevich Markov (1856-1922).
16 \end{Def}
17
18 Avec ces hypothèses, nous pouvons décrire le système en donnant l'ensemble $\{u_1, ..., u_m\}$ des états $u_i$ possibles et une matrice $P$ de dimensions $m \times m$ dont le terme $p_{ij}$ est la probabilité que le processus soit dans l'état $j$ à l'instant $t+1$ étant donné qu'il se trouve dans l'état $i$ à l'instant $t$, pour tout t.
19
20 \begin{Def}[Matrice de transition]
21 P est appelée \emph{matrice de transition}\index{matrice!de transition} du système.
22 \end{Def}
23
24 On représente généralement P par un graphe orienté G dont les sommets correspondent aux m états et les arcs aux couples ordonnés d'états (i,j) tels que pij>0.
25
26 \subsection{Exemple}
27
28 Pour représenter le passage d'une molécule de phosphore dans un écosystème, nous considérerons quatre états possibles :
29 \begin{enumerate}
30 \item la molécule est dans le sol,
31 \item la molécule est dans l'herbe,
32 \item la molécule a été absorbée par du bétail,
33 \item la molécule est sortie de l'écosystème. 
34 \end{enumerate}
35
36 La matrice de transition est la suivante :
37
38 $$
39 P =
40 \left(
41 \begin{array}{cccc}
42 \dfrac{3}{5} & \dfrac{3}{10} & 0 & \dfrac{1}{10} \\
43 \dfrac{1}{10} & \dfrac{2}{5} & \dfrac{1}{2} & 0 \\
44 \dfrac{3}{4} & 0 &\dfrac{1}{5} & \dfrac{1}{20} \\
45 0 & 0 & 0 & 1 \\
46 \end{array}
47 \right)
48 $$
49
50 Remarquez que la somme de chaque ligne vaut 1. Cette matrice correspond au graphe ci-dessous :
51
52 \begin{center}
53 \includegraphics[scale=0.7]{graphes/markov1}
54 \end{center}
55
56
57 \subsection{Propriétés}
58 \begin{Th}
59 La probabilité $p_{ij}(t)$ que le système soit dans l'état $j$ au temps $t$ sachant qu'il était dans l'état $i$ au temps 0 est donné par $(P^t)_{i,j}$ (le terme $i,j$ de la $t$-ième puissance de $P$).
60 \end{Th}
61
62
63 Si on ne connaît pas l'état initial, on peut donner un vecteur de probabilité $p(0) = (p_1(0), ..., p_m(0))$ où $p_i(0)$ est la probabilité que le système se trouve dans l'état $i$ au temps 0. Si $p(t)$ est le vecteur donnant les probabilités d'occupation des états au temps $t$ (autrement dit la distribution), nous avons :
64
65 \begin{Th}
66 $p(t) = p(0) P^t$
67 \end{Th}
68
69 \subsection{Exercice}
70
71 \begin{Exo}
72 Un individu vit dans un milieu où il est susceptible d'attraper une maladie par piqûre d'insecte. Il peut être dans l'un des trois états suivants: immunisé ($I$), malade ($M$), non malade et non immunisé ($S$). D'un mois à l'autre, son état peut changer selon les règles suivantes:
73 \begin{itemize}
74 \item étant immunisé, il peut le rester avec une probabilité 0,9 ou passer à l'état $S$ avec une probabilié 0,1;
75 \item étant dans l'état $S$, il peut le rester avec une probabilité 0,5 ou passer à l'état $M$ avec une probabilité 0,5;
76 \item étant malade, il peut le rester avec une probabilité 0,2 ou passer à l'état $I$ avec une probabilité 0,8. 
77 \end{itemize}
78
79 Tracez un graphe probabiliste pour décrire cette situation et écrivez la matrice de transition. Calculez l'état de probabilité de l'individu au bout de trois mois, de six mois, d'un an, de deux ans, pour chacune des situations suivantes :
80 \begin{itemize}
81 \item au départ, il est immunisé ($I$);
82 \item au départ, il est non malade et non immunisé ($S$);
83 \item au départ, il est malade ($M$). 
84 \end{itemize}
85
86 Pouvez-vous donner des éléments sur la proportion d'individus malades dans la population étudiée?
87 \end{Exo}
88
89
90
91
92 \section{Distribution limite}
93
94 \subsection{Présentation}
95
96 On constate souvent que la distribution $p(t)$ converge vers une distribution limite $p$ si $t \rightarrow \infty$ .
97
98 \begin{Def}
99 Si tel est le cas, on dit que cette dernière définit un \emph{régime permanent}\index{processus stochastique!régime permanent} du processus stochastique.
100 \end{Def}
101
102 \begin{Rem}
103 Le régime permanent n'est pas influencé par le choix de la distribution initiale.
104 \end{Rem}
105
106 \subsection{Existence d'une distribution limite}
107
108 \begin{Th}
109 Si la matrice de transition $P$ est telle qu'une au moins de ses puissances n'a que des termes strictement positifs, alors $p(t) \longrightarrow p$ quelle que soit la distribution initiale $p(0)$ et $P^t \longrightarrow P^*$ lorsque $t\longrightarrow \infty$.
110
111 $p$ est un vecteur de probabilité strictement positif et $P*$ une matrice dont toutes les lignes sont identiques au vecteur limite $p$. En plus, $pP*=p$.
112 \end{Th}
113
114 \begin{Rem}
115 La démonstration de cette condition d'existence dépasse le cadre de ce cours.
116 \end{Rem}
117
118 \subsection{Exercices}
119
120 \begin{Exo}
121 Soit la matrice stochastique 
122 $$P = \left(
123 \begin{array}{ccc}
124 0,5 & 0,5 & 0\\
125 0,5 & 0 & 0,5 \\
126 0 & 1 & 0 \\
127 \end{array}
128 \right)
129 $$
130
131 Montrez que la chaîne de Markov définie par $P$ converge et calculez la distribution limite.
132 \end{Exo}
133
134
135
136 \begin{Exo}
137 Soit la matrice stochastique 
138 $$
139 P =
140 \left(
141 \begin{array}{cccc}
142 \dfrac{3}{5} & \dfrac{3}{10} & 0 & \dfrac{1}{10} \\
143 \dfrac{1}{10} & \dfrac{2}{5} & \dfrac{1}{2} & 0 \\
144 \dfrac{3}{4} & 0 &\dfrac{1}{5} & \dfrac{1}{20} \\
145 0 & 0 & 0 & 1 \\
146 \end{array}
147 \right)
148 $$
149
150 Montrez que la chaîne de Markov définie par P converge et calculez la distribution limite.
151 \end{Exo}
152
153 \begin{Exo}
154 Un service de météo a constaté après de longues années que le temps qu'il fera demain dépend essentiellement du temps qu'il faisait hier et du temps qu'il fait aujourd'hui. Les probabilités de transition ont été établies ainsi :
155
156 \begin{center}
157 \begin{tabular}{|c|c|c|c|}
158 \hline
159 Hier & Aujourd'hui & Beau demain & Mauvais demain\\
160 \hline
161 Beau & Beau & 0.8 & 0.2 \\
162 \hline
163 Beau & Mauvais & 0.4 & 0.6\\
164 \hline
165 Mauvais & Beau & 0.6 & 0.4 \\
166 \hline
167 Mauvais & Mauvais & 0.1 & 0.9\\
168 \hline
169 \end{tabular}
170 \end{center}
171
172 \begin{itemize}
173 \item Modélisez ce processus à l'aide d'une chaîne de Markov.
174 \item Calculez le nombre moyen de jours de beau temps par année.
175 \end{itemize}
176 \end{Exo}
177
178
179
180 \begin{Exo}
181 Un ivrogne se déplace dans les quatre bistrots d'un village, d'une manière bien personnelle : en sortant d'un bistrot, il lance une pièce de monnaie pour savoir dans lequel des deux autres bistrots les plus proches il entrera.
182
183 Ces quatre bistrots forment les sommets d'un carré.
184
185 \begin{enumerate}
186 \item Modélisez ce processus à l'aide d'une chaîne de Markov.
187 \item Montrez que cette chaîne de Markov n'a pas de distribution limite.
188 \end{enumerate}
189 \end{Exo}
190
191
192
193 \section{Chaîne absorbante}
194 \subsection{Généralités}
195 \subsubsection{Définitions}
196 \begin{Def}[\'Etat absorbant]
197 Un \emph{état absorbant}\index{état!absorbant} est un état que l'on ne quitte plus lorsqu'on y pénètre.
198 \end{Def}
199
200 \begin{Rem}
201  Autrement dit, l'état $j$ est absorbant si $p_{jj}=1$.
202 \end{Rem}
203
204 \begin{Def}[Chaîne de Markov absorbante]
205 Une chaîne de Markov est absorbante si et seulement si:
206 \begin{enumerate}
207 \item il y a au moins un état absorbant
208 \item de tout état non absorbant, on peut atteindre un état absorbant. 
209 \end{enumerate}
210 \end{Def}
211
212
213 \begin{Ex}
214 Par exemple, l'état 4 ci-dessous...
215
216 \begin{center}
217 \includegraphics[scale=0.7]{graphes/markov1}
218 \end{center}
219
220 ...est un état absorbant. Comme on peut atteindre cet état depuis tous les autres, la chaîne de Markov est absorbante.
221 \end{Ex}
222
223
224
225 \subsubsection{Propriété}
226
227 \begin{Th}
228 Pour toute chaîne de Markov absorbante et pour tout état de départ, la probabilité de se trouver dans un état absorbant au temps $t$ tend vers 1 lorsque $t$ tend vers l'infini.
229 \end{Th}
230
231
232
233 \subsection{Délais d'absorption et probabilité d'absorption}
234
235 \subsubsection{Présentation}
236
237 Lorsque l'on a affaire à une chaîne de Markov absorbante, on est généralement intéressé par les deux questions suivantes :
238 \begin{itemize}
239 \item Combien de temps faudra-t-il en moyenne pour arriver dans un état absorbant, étant donné son état initial?
240
241 \item S'il existe plusieurs états absorbants, quelle est la probabilité de tomber dans un état absorbant donné? 
242 \end{itemize}
243
244 \subsubsection{Forme canonique de P}
245
246 Si une chaîne de Markov est absorbante, on placera au début les états absorbants; on aura alors une matrice de transition de la forme :
247
248 $$
249 \left(
250 \begin{array}{c|c}
251  I & O \\
252 \hline
253   &  \\
254 R & Q \\
255   &  \\
256 \end{array}
257 \right)
258 $$
259
260 $I$ est une matrice unité et 0 une matrice de 0.
261
262 Dans l'exemple du phospore vu précédemment,
263
264 \begin{center}
265 \includegraphics[scale=0.7]{graphes/markov1}
266 \end{center}
267
268 nous avons (l'ordre des états est 4-1-2-3) :
269
270 $$
271 P =
272 \left(
273 \begin{array}{cccc}
274 1 & 0 & 0 & 0 \\
275 \dfrac{1}{10} & \dfrac{3}{5} & \dfrac{3}{10} & 0 \\
276 0 & \dfrac{1}{10} &\dfrac{2}{5} & \dfrac{1}{2} \\
277 \dfrac{1}{20} & \dfrac{3}{4} & 0 & \dfrac{1}{5} \\
278 \end{array}
279 \right)
280 $$
281
282 \subsubsection{Matrice fondamentale}
283
284 \begin{Def}[Matrice fondamentale de la chaîne absorbante]
285 La matrice $N = (I-Q)^{-1}$ est appelée la \emph{matrice fondamentale de la chaîne absorbante}\index{matrice!fondamentale de la chaîne absorbante}.
286 \end{Def}
287
288
289 \subsubsection{Résultats}
290
291 \begin{Th}
292 Le nombre moyen $e_{ij}$ de passages à l'état $j$ (non absorbant) avant l'absorption quand on part de l'état $i$ (non absorbant) est donnée par $e_{ij}= (N)_{ij}$.
293 \end{Th}
294
295
296 \begin{Th}
297 Le nombre moyen d'étapes avant absorption sachant que l'on part de l'état $i$ (non absorbant) est la somme des termes de la $i$-ème ligne de $N$.
298 \end{Th}
299
300
301 \begin{Ex}
302 Toujours dans l'exemple du phosphore, on a:
303
304 $$Q =\left(\begin{array}{ccc}
305 \frac{3}{5} & \frac{3}{10} & 0\\
306 \frac{1}{10} & \frac{2}{5} & \frac{1}{2}\\
307 \frac{3}{4} & 0 & \frac{1}{5}
308 \end{array} \right)
309 , I-Q = \left(\begin{array}{ccc} 
310 \frac{2}{5} & \frac{-3}{10} & 0\\
311 -\frac{1}{10} & \frac{3}{5} & -\frac{1}{2}\\
312 -\frac{3}{4} & 0 & \frac{4}{5}
313 \end{array} \right), \textrm{ d'où } N = (I-Q)-1 =\left(\begin{array}{ccc}
314 \frac{320}{37} & \frac{160}{37} & \frac{100}{37}\\
315 \frac{910}{111} & \frac{640}{111} & \frac{400}{111}\\
316 \frac{300}{37} & \frac{150}{37} & \frac{140}{37}
317 \end{array} \right)$$
318
319 D'où le nombre moyen d'étapes avant absorption en partant de l'état 1: (320 + 160 + 100) / 37 = 15.67
320 \end{Ex}
321
322 \begin{Th}
323 Dans une chaîne de Markov absorbante avec $P$ mise sous forme canonique, le terme $b_{ij}$ de la matrice $B = NR$ est la probabilité d'absorption par l'état absorbant $j$ sachant que l'on part de l'état $i$.
324 \end{Th}
325
326 \begin{Ex}
327 Dans l'exemple du phosphore, on a:
328
329 $$
330 R =\left( \begin{array}{c}
331 \frac{1}{10}\\
332 0\\
333 \frac{1}{20}
334 \end{array}
335 \right) \textrm{ d'où } B = N R = \left(\begin{array}{ccc}
336 \frac{320}{37} & \frac{160}{37} & \frac{100}{37}\\
337 \frac{910}{111} & \frac{640}{111} & \frac{400}{111}\\
338 \frac{300}{37} & \frac{150}{37} & \frac{140}{37}
339 \end{array} \right)  \left( \begin{array}{c}
340 \frac{1}{10}\\
341 0\\
342 \frac{1}{20}
343 \end{array}
344 \right) = \left( \begin{array}{c}
345 1\\
346 1\\
347 1
348 \end{array}
349 \right)
350 $$
351 La probabilité d'être absorbé par l'unique état absorbant est 1 quel que soit l'état initial!
352 \end{Ex}
353
354
355
356 \subsection{Exercices}
357
358
359 \begin{Exo}
360 Considérons un joueur qui possède 2 francs initialement. À chaque étape du jeu il peut gagner 1 franc avec probabilité p ou perdre 1 franc avec probabilité 1-p. Il s'arrête lorsqu'il a gagné 4 francs ou lorsqu'il a tout perdu.
361 \begin{enumerate}
362 \item Représentez cette expérience par une chaîne de Markov.
363 \item Avec p = 1/3, calculez la probabilité de la ruine du joueur.
364 \item Avec p = 1/3, calculez la longueur moyenne d'une partie. 
365 \end{enumerate}
366 \end{Exo}
367
368 \begin{Exo}
369 Monsieur X se rend au Salon du Livre de Rigoleville dans l'espoir de trouver enfin un exemplaire du livre de Stendhal Le Rose et le Vert. Le Salon compte cinq stands et les organisateurs se sont amusés aux cours des années précédentes à construire la matrice des probabilités de transition des visteurs d'un stand à un autre:
370
371 \begin{tabular}{|c|c|c|c|c|c|}
372 \hline
373 de \ à & Stand 1 & Stand 2 & Stand 3 & Stand 4 & Stand 5\\
374 \hline
375 Stand 1 & 0 & 0,8 & 0 & 0 & 0,2\\
376 \hline
377 Stand 2 & 0,2 & 0 & 0,5 & 0,3 & 0\\
378 \hline
379 Stand 3 & 0 & 0 & 0 & 0,6 & 0,4\\
380 \hline
381 Stand 4 & 0,9 & 0 & 0,1 & 0 & 0\\
382 \hline
383 Stand 5 & 0,8 & 0 & 0 & 0,2 & 0\\
384 \hline
385 \end{tabular}
386
387 Sachant que seuls les stands 4 et 5 disposent du livre recherché et que Monsieur X commence par visiter le stand 1, quelle est la probabilité qu'il achète son livre au stand 4 plutôt qu'au stand 5 (Monsieur X achètera le premier exemplaire qu'il trouvera)?
388 \end{Exo}
389
390 \begin{Exo}
391 Considérons une série de jets d'une pièce de monnaie normale. On notera P pour pile et F pour face.
392 \begin{enumerate}
393 \item Quelle est la probabilité d'obtenir une séquence PFP avant une séquence PPP?
394 \item Quel est le nombre de jets nécessaires en moyenne pour réaliser l'une des deux séquences PFP et PPP? 
395 \end{enumerate}
396 \end{Exo}
397
398
399 \begin{Exo}[La parade nuptiale des bourdons]
400 Une séance d'accouplement peut se décomposer en 7 phases:
401 \begin{description}
402 \item[Départ (D) :] mise en contact des bourdons mâle et des reines.
403 \item[Approche (App) :] un mâle se dirige vers la reine. Il s'approche à courte distance. Il est le comportement le plus fréquent et souvent suivi d'une récidive.
404 \item[Inspection de la femelle (IF) :] le mâle suit la reine avec ses antennes tendues vers elle. Il inspecte souvent la reine au niveau de la tête (région où se trouvent les glandes produisant les phéromones sexuelles), mais parfois au niveau de l'abdomen.
405 \item[Tentative d'accouplement (T) :] le mâle s'approche de la reine, il s'accroche à elle. Il frotte de ses pattes antérieures l'extrémité de l'abdomen de la femelle. Il sort ses génitalias (appareil reproducteur) et tente de pénétrer la reine.
406 \item[Accouplement (Acc) :] lors de l'accouplement, le comportement du mâle se caractérise par des mouvements de battements des pattes sur l'extrémité de l'abdomen de la reine.
407 \item[Sortie par abandon du mâle (SA) :] lors de la séquence de 15 minutes, le bourdon mâle peut adopter un comportement indifférent vis-à-vis de la reine; il sort de la parade nuptiale et n'y revient jamais.
408 \item[Sortie pour dépassement du temps (ST) :] l'observation est limitée à 15 minutes. Après cette durée, la probabilité d'accouplement peut être considérée comme presque nulle. 
409 \end{description}
410
411 Voici les statistiques obtenues pour 78 séances d'accouplement en laboratoire : par exemple App suivi de T = 202...
412
413 \begin{center}
414 \begin{tabular}{|c|c|c|c|c|c|c|c|}
415 \hline
416  & App & T & IF & Acc & ST & SA & Total \\
417 \hline
418 D & 78 & 0 & 0 & 0 & 0 & 0 & 78\\
419 \hline
420 App & 614 & 202 & 87 & 0 & 16 & 8 & 927\\
421 \hline
422 IF & 83 & 0 & 0 & 0 & 3 & 1 & 87\\
423 \hline
424 T & 152 & 0 & 0 & 35 & 7 & 8 & 202\\
425 \hline
426 \end{tabular}
427 \end{center}
428
429
430 \begin{enumerate}
431 \item Dessinez le graphe de transitions d'une parade nuptiale de bourdons.
432 \item Calculez les probabilités de transition d'un état à un autre et ajoutez-les au graphe.
433 \item Donnez la matrice correspondante de la chaîne de Markov.
434 \item Adaptez votre programme simulant une chaîne de Markov (voir exercice 1 sur l'introduction aux chaînes de Markov) à la situation présente. Utilisez ce programme pour simuler une parade nuptiale de bourdons.
435 \item Cette chaîne de Markov est une chaîne absorbante. Quel est le nombre moyen d'étapes avant absorption? Trouvez le résultat théoriquement et par simulation. 
436 \end{enumerate}
437 \end{Exo}
438
439
440 \gsaut
441 \centerline{\x{Fin du Chapitre}}