X-Git-Url: https://bilbo.iut-bm.univ-fcomte.fr/and/gitweb/hdrcouchot.git/blobdiff_plain/d4e1bfa4290a182013268daf63d78c1f4fce5b55..ab1271f8b9509a86f3434c2389be47fe3a1c4d04:/conclusion.tex diff --git a/conclusion.tex b/conclusion.tex index e2eac3e..98fcbc5 100644 --- a/conclusion.tex +++ b/conclusion.tex @@ -37,24 +37,25 @@ itérations. Elle est présentée au chapitre~\ref{chap:PRNG:gray}. Ces méthodes ont permis d'étendre à l'infini la classe des fonctions dont les itérations sont chaotiques. -Nous de plus entrepris d'étudier ces itérations et plus particulièrement leur +Nous avons aussi +entrepris d'étudier ces itérations et plus particulièrement leur apprentissage par un réseau de neurones. Nous avons notamment pu contribuer à montrer pratiquement qu'il est très difficile (voir impossible) de les prédire à l'aide d'outils d'intelligence artificielle (chapitre~\ref{chp:ANN}). -Avec la production d'une grande collection de fonctions à itérations chaotiques, -Nous avons donc proposé de répondre à la question suivante: comment engendrer des fonctions +Avec la production d'une grande collection de fonctions à itérations chaotiques, nous avons donc proposé de répondre à la question suivante: comment engendrer des fonctions dont les itérations vont produire des nombres simulant correctement l'aléa. En d'autres termes, quelles fonctions peuvent être embarquées dans un PRNG? Nous avons d'abord caractérisé les fonctions dont les itérations produisent des nombres selon une distribution uniforme (chapitre~\ref{chap:PRNG:chao}). Pour cela il a fallu réécrire l'algorithme de génération comme une marche aléatoire dans une partie du $\mathsf{N}$-cube, -de se ramener à une chaîne de Markov puis d'utiliser la théorie élaborée sur ce sujet +se ramener ensuite à une chaîne de Markov puis enfin +utiliser la théorie élaborée sur ce sujet pour conclure (chapitre~\ref{chap:PRNG:gray}). Parmi les fonctions retenues, celles issues de la suppression -d'un cycle hamiltonien dans un $\mathsf{N}$ ont retenu notre attention. +d'un cycle hamiltonien dans un $\mathsf{N}$-cube ont retenu notre attention. Nous nous sommes aussi attaché à montrer l'importance de l'équilibrage du cycle hamiltonien à enlever (chapitre~\ref{chap:PRNG:gray}). Nous avons de plus entrepris dans ce chapitre @@ -121,7 +122,7 @@ Nous avons fait sauter un premier verrou en proposant une méthode déterministe de Robinson-Cohn. Il est apparu récemment des algorithmes permettant d'obtenir des codes de Gray localement équilibrés, c.-à-d. où la longueur du plus grand nombre d'étapes entre deux changements d'un même bit est aussi petite que possible. -Dans tous les cas, aucun des ces codes n'est globalement équilibré ni même presque équilibré. +Dans tous les cas, aucun de ces codes n'est globalement équilibré ni même presque équilibré. Cette double propriété serait cependant très intéressante aussi bien théoriquement que pratiquement pour nos générateurs. Un second verrou consistera à adapter ces algorithmes pour proposer des codes possédant les