+
+\subsection{Synthèses des contributions}
+
+Les principales contributions gravitent autour des mathématiques discrètes et plus particulièrement
+les itérations de systèmes dynamiques discrets.
+
+Pour chacun des modes et des conditions de synchronisme,
+il existe des critères (suffisants) de convergence
+globale ou locale.
+
+Nous avons formalisé le mode des
+\emph{itérations mixtes} (introduit par Pr. J. M. Bahi en 2005 notamment)
+qui combine synchronisme et asynchronisme (chapitre~\ref{chap:sdd})
+et leur extension les \emph{itérations mixtes avec délais uniformes}.
+Nous avons pu ainsi énoncer puis démontrer des résultats
+établissant que pour des conditions classiques de convergence des itérations
+synchrones, les itérations mixtes à délai uniforme
+convergent aussi vers le même point fixe.
+
+Nous avons de plus démontré (chapitre~\ref{chap:promela}) qu'on peut simuler
+des SDDs selon tous les modes avec l'outil SPIN de \emph{Model-Checking} pour établir
+formellement leur convergence (ou pas).
+Nous avons énoncé puis prouvé ensuite la correction et la complétude de la démarche.
+Des données pratiques comme la complexité et des synthèses d'expérimentation
+ont aussi été fournies.
+
+Nous nous sommes ensuite intéressés à l'étude du problème dual
+de l'étude de divergence d'un SDD.
+Nous avons proposé plusieurs méthodes de construction de
+fonctions permettant d'obtenir des itérations chaotiques.
+La première non naïve est basée sur des
+conditions suffisantes sur le graphe d'interaction à $\mathsf{N}$ sommets
+(chapitre~\ref{chap:carachaos}).
+Une seconde méthode plus efficace permet en plus de disposer d'une chaîne de Markov doublement
+stochastique et s'appuie sur les cycles hamiltoniens du graphe des
+itérations. Elle est présentée au chapitre~\ref{chap:PRNG:gray}.
+Ces méthodes ont permis d'étendre à l'infini la classe des fonctions
+dont les itérations sont chaotiques.
+
+Nous de plus entrepris d'étudier ces itérations et plus particulièrement leur
+apprentissage par un réseau de neurones.
+Nous avons notamment pu contribuer à montrer pratiquement qu'il
+est très difficile (voir impossible) de les prédire
+à l'aide d'outils d'intelligence artificielle (chapitre~\ref{chp:ANN}).
+
+Avec la production d'une grande collection de fonctions à itérations chaotiques,
+Nous avons donc proposé de répondre à la question suivante: comment engendrer des fonctions
+dont les itérations vont produire des nombres simulant correctement l'aléa.
+En d'autres termes, quelles fonctions peuvent être embarquées dans un PRNG?
+Nous avons d'abord caractérisé les fonctions dont les itérations produisent des nombres
+selon une distribution uniforme (chapitre~\ref{chap:PRNG:chao}). Pour cela il a fallu réécrire
+l'algorithme de génération comme une marche aléatoire dans une partie du $\mathsf{N}$-cube,
+de se ramener à une chaîne de Markov puis d'utiliser la théorie élaborée sur ce sujet
+pour conclure (chapitre~\ref{chap:PRNG:gray}).
+
+Parmi les fonctions retenues, celles issues de la suppression
+d'un cycle hamiltonien dans un $\mathsf{N}$ ont retenu notre attention.
+Nous nous sommes aussi attaché à montrer l'importance de l'équilibrage du cycle
+hamiltonien à enlever (chapitre~\ref{chap:PRNG:gray}).
+Nous avons de plus entrepris dans ce chapitre
+de trouver un majorant du nombre d'itérations suffisant à
+l'obtention d'une distribution uniforme
+
+Nous avons renforcé la thématique de marquage de document numérique de l'équipe AND en
+embarquant ces fonctions dans des outils de watermarking.
+Nous avons participé à la formalisation de la méthode de
+marquage de médias (chapitre~\ref{chap:watermarking}) et particularisé
+ceci à des images numériques fournissant un
+nouveau contexte pour l'étude théorique et mathématique d'algorithmes de marquage.
+Des instances de ces algorithmes ont été présentées en sélectionnant de manière
+pertinente les fonctions à itérer pour garantir une robustesse
+élevée.
+
+D'autre méthodes de watermarking ont été investies (mais plus dans le domaine discret),
+particulièrement celles basées sur la Quantization Index Modulation (QIM), méthodes
+étant supposées comme les plus robustes. Nos principales contributions
+sur ce travail ont été
+d'intégrer ceci à du marquage de document PDF puis de
+présenter ce problème comme un problème d'optimisation (chapitre~\ref{chap:watermarking:pdf}).
+
+Nous avons de plus conçu l'algorithme STABYLO (chapitre~\ref{chap:stabylo})
+qui est un schéma de stéganographie basé sur l'enfouissement de l'information dans les contours
+présents dans une image. Cet algorithme présente un bon compromis entre sécurité
+fournie et complexité algorithmique.
+Nous avons enfin proposé d'exprimer les fonctions de distorsion classiquement utilisées en stéganographie
+comme des méthodes de calcul de gradient
+ou de matrice Hessienne. Grâce à l'étude de ces matrices, nous avons proposé un nouveau schéma de
+stéganographie sécurisé (chapitre~\ref{chap:th:yousra}).
+
+\subsection{Quelques perspectives}
+
+\subsubsection{Étendons les PRNGs}
+La démarche actuelle de génération de nombres pseudo-aléatoires
+consiste à marcher dans une partie d'un $\mathsf{N}$-cube en choisissant son chemin
+à l'aide d'un générateur fourni en entrée. Or ces générateurs sont tous des
+fonctions de $\{0,1\}^{\mathsf{N}}$ dans lui-même. Cette approche
+semble pouvoir se réécrire comme un produit synchrone de deux automates.
+L'intérêt d'une telle réécriture est qu'on pourrait exploiter
+les résultats théoriques et pratiques déjà connus dans la communauté
+des automates.
+Nous pensons investiguer cette voie pour améliorer notre approche,
+s'affranchir, à terme, de tout autre générateur et améliorer la
+connaissance à ce sujet.
+
+De plus, marcher dans une partie d'un $\mathsf{N}$-cube est le modèle théorique que
+nous avons établi pour notre classe de générateurs. On a vu, via les itérations généralisées
+qu'on pouvait modifier plusieurs bits
+en une seule itération. Les premiers travaux pratiques réalisés ont montré
+que le nombre d'itérations suffisant pour converger vers une distribution uniforme
+est plus petit que celui obtenu en marchant et qu'il diminue à mesure que $\mathsf{N}$
+augmente. Pour l'instant, nous n'avons pas réussi à obtenir une majoration du nombre d'itérations
+pour le temps d'arrêt, ce qui pourrait être une perspective.
+
+\subsubsection{Des codes de Gray localement et globalement équilibrés}
+Enfin, pour générer une fonction dont la matrice de Markov est doublement
+stochastique
+--condition nécessaire pour fournir une sortie uniformément distribuée--,
+nous avons proposé principalement la méthode de
+suppression de chemin hamiltonien dans un $\mathsf{N}$-cube.
+Nous avons fait sauter un premier verrou en proposant une méthode déterministe à l'extension
+de Robinson-Cohn. Il est apparu récemment des algorithmes permettant d'obtenir des codes de Gray
+localement équilibrés, c.-à-d. où la longueur du plus grand nombre d'étapes entre
+deux changements d'un même bit est aussi petite que possible.
+Dans tous les cas, aucun des ces codes n'est globalement équilibré ni même presque équilibré.
+Cette double propriété serait cependant très intéressante aussi bien théoriquement que pratiquement
+pour nos générateurs.
+Un second verrou consistera à adapter ces algorithmes pour proposer des codes possédant les
+deux propriétés d'équilibrage.
+
+\subsubsection{Stéganalyse par deep learning}
+
+Les démarches de stéganalyse sont souvent composées de 2 étapes:
+caractérisation puis classification.
+On extrait au préalable une grande quantité des caractéristiques du média
+puis on utilise une méthode de
+classification basée sur celles-ci. La communauté voit souvent cette
+seconde étape comme une boite noire et se concentre
+sur la construction de l'ensemble des caractéristiques les plus discriminantes.
+Autant que nous sachions, les méthodes algébriques
+de réduction de domaine (analyse par composant principaux, SVD)
+ont rarement été utilisées comme une étape intermédiaire entre la caractérisation et
+la classification. Ces méthodes ont déjà été
+appliquées avec succès lorsqu'elles sont combinées avec des méthodes
+d'apprentissage, par exemple dans de la reconnaissance faciale.
+Je propose d'étudier cette piste dans ce domaine.
+
+
+De plus les résultats obtenus en stéganalyse à l'aide de deep learning à base de convolutions
+sont très prometteurs lorsque la clef qui a servi à l'embarquement est constante.
+Malheureusement, lorsque la clef varie, nous n'avons pas réussi à généraliser ces avancées.
+Les démarches les plus efficaces demeurent
+celles obtenues par des approches classiques à base de caractéristiques statistiques (features)
+d'images.
+Cependant, en étudiant plus finement les features, on constate que nombreuses sont celles qui sont aussi
+basées sur des produits de convolution.
+Je propose d'étudier exhaustivement ces features pour d'abord traduire
+en deep-learning celles qui sont des convolutions directes. Il restera ensuite
+à adapter l'outil de deep learning aux caractéristiques restantes ce qui est un autre challenge
+scientifique.
+