+\subsection{Les codes de Gray}
+
+L'utilisation des codes de Gray dans une démarche d'apprentissage
+(d'ecoulement d'air ou de fonctions chaotiques) ne s'est pas révélée comme
+concluante. Dans chacun des cas, la distance de Hamming entre deux
+configurations voisines peut etre très petite tandis que le chemin (dans le
+cycle hamitlonien) qui les relie peut être long et ce même
+pour des codes équilibrés.
+Je propose de travailler sur ce problème discret en mesurant la qualité
+du code de Gray à l'aide d'une fonction basée sur la longueur des chemins
+(du cycle hamiltonien) entre les configurations voisines.
+Je pense ainsi réduire ce problème à un problème d'optimisation et dégager
+une démarche de génération, comme je l'ai fait en bio-informatique.
+
+Jusqu'à présent, la production de codes de Gray équilibrés
+dans l'étape de construction de fonctions chaotiques pour la génération
+de nombres pseudo aléatoire bute sur des problèmes d'explosion combinatoire:
+les seuls algorithmes connus répondant à ce problème nécessitent a priori
+plus de $10^{36}$ évaluations pour $n=8$,
+ce qui n'est pas raisonnable de mettre en
+pratique lorsque chacune d'entre-elle prend 1s. On peut peut-être
+se contenter de code ``presque'' équilibrés, à défaut de pouvoir
+trouver ceux qui seront équilibrés.
+Je propose d'investiguer
+dans cette thématique en exploitant des approches itératives permettant
+d'optenir des optimums locaux et trouver ainsi des codes presque approximés.
+
+
+
+\subsection{Génération de nombres pseudo-alléatoires}
+
+La démarche actuelle de génération de nombres pseudo-alléatoires
+consiste à marcher dans une partie d'un $n$-cube en choisissant son chemin
+à l'aide d'un générateur fourni en entrée. Or ces générateurs sont tous des
+fonctions de $\{0,1\}^n$ dans lui même. Le problème semble pouvoir se réécrire
+comme un produit de deux automates à définir et à étudier.
+Je pense investiguer cette vois pour améliorer notre approche et
+s'affranchir, à terme, de tout autre générateur.
+Les propriété établies notament sur les temps d'arrêt devraient être conservées.
+il restera à le prouver.
+
+
+Jusqu'à présent, une seule expérimentation d'implantation de nos générateurs
+sur des dispositifs physiques comme les FPGAs a été réalisée. Celle-ci
+s'est faite automatiquement à l'aide de l'outil Matlab. Si le code engendré
+sur le circuit est bien une implantation fidèle à la spécification,
+il n'en est pas pour le autant efficace: le nombre de bits généré par surface
+est plutôt faible. Nous allons exploiter les meilleurs démarches mises en
+exherbe lors de la rédaction d'un état de l'art exhaustif sur les PRNG
+implantés sur FPGA pour produire du code optimisé.
+Je prévois de réaliser ceci dans la thèse de M. BAKIRI, en cours.
+
+Pour générér une fonction dont la matrice de Markov est doublement
+stochastique, nous avons proposé principalement deux méthodes
+(génération puis test, suppresion de chemin hamiltonien dans un $n$-cube).
+Ces deux méthodes ne passent pas à l'échelle, même pour des $n$ de ptite taille.
+Je pense attaquer ce problème algébriquement et en programmation logique avec
+contraintes. Dans le premier cas, on peut remarque composée de $1$ uniquement
+en $(i,i+1)$ est une réponse trivale au problème. Elle n'entre cependant dans
+aucune des solutions des deux premières démarches. Je pense continuer l'étude
+de ce genre de matrices et proposer une méthode plus générale de génération.
+Je prévois de réaliser ce travail avec M. S. Contassot, Pr à l'Université de Loraine.
+Le département DISC et l'équipe VESONTION
+a de fortes compétences en programmation logique avec
+contraintes. J'ai déjà démontré que ce problème peut être solluble par cette
+approche, sans avoir pour autant réussi à le faire.
+Je prévois des collaborations avec l'équipe VESONTIO du DISC sur ce sujet.
+
+
+Enfin, marcher dans une partie d'un $n$-cube est le modèle théorique que
+nous avons établi pour notre classe de générateur. On pourrait cependant
+penser à ``sauter'' dans ce $n$-cube, c'est à dire modifier plusieurs bits
+en une seule itération. J'ai commencé à étudier ce modèle avec les résultats
+pratiques suivants: le nombre d'itérations suffisant pour un mélange
+correct est plus petit que celui obtenu en marchant. De plus,
+il diminue à mesure que $n$ augmente ce qui n'est pas le cas en marchant.
+Cependant, pour l'instant, nous n'avons pas réussi à obtenir des bornes
+du temps d'arrêt. Je propose d'investiguer aussi dans cette direction.
+
+
+
+\subsection{Masquage d'information}
+Jusqu'à présent, autant que je sache les méthodes algébriques
+de réducution de domaine (analyse par composant principaux, SVD)
+n'ont pas été intégrées dans les outils permettant de décider si un
+média contient ou non un message caché. Ces méthodes ont déjà été
+appliquées avec succès lorsqu'elles sont combinées avec des méthodes
+d'apprentissage, par exemple dans de la reconnaissance faciale.
+
+
+
+\subsection{Bio-informatique}
+
+reconstruction d'ancètre
+
+
+
+
+
+