2 \subsection{Synthèses des contributions}
4 Les principales contributions gravitent autour des mathématiques discrètes et plus particulièrement
5 les itérations de systèmes dynamiques discrets.
7 Pour chacun des modes et des conditions de synchronisme,
8 il existe des critères (suffisants) de convergence
11 Nous avons formalisé le mode des
12 \emph{itérations mixtes} (introduit par Pr. J. M. Bahi en 2005 notamment)
13 qui combine synchronisme et asynchronisme (chapitre~\ref{chap:sdd})
14 et leur extension les \emph{itérations mixtes avec délais uniformes}.
15 Nous avons pu ainsi énoncer puis démontrer des résultats
16 établissant que pour des conditions classiques de convergence des itérations
17 synchrones, les itérations mixtes à délai uniforme
18 convergent aussi vers le même point fixe.
20 Nous avons de plus démontré (chapitre~\ref{chap:promela}) qu'on peut simuler
21 des SDDs selon tous les modes avec l'outil SPIN de \emph{Model-Checking} pour établir
22 formellement leur convergence (ou pas).
23 Nous avons énoncé puis prouvé ensuite la correction et la complétude de la démarche.
24 Des données pratiques comme la complexité et des synthèses d'expérimentation
25 ont aussi été fournies.
27 Nous nous sommes ensuite intéressés à l'étude du problème dual
28 de l'étude de divergence d'un SDD.
29 Nous avons proposé plusieurs méthodes de construction de
30 fonctions permettant d'obtenir des itérations chaotiques.
31 La première non naïve est basée sur des
32 conditions suffisantes sur le graphe d'interaction à $\mathsf{N}$ sommets
33 (chapitre~\ref{chap:carachaos}).
34 Une seconde méthode plus efficace permet en plus de disposer d'une chaîne de Markov doublement
35 stochastique et s'appuie sur les cycles hamiltoniens du graphe des
36 itérations. Elle est présentée au chapitre~\ref{chap:PRNG:gray}.
37 Ces méthodes ont permis d'étendre à l'infini la classe des fonctions
38 dont les itérations sont chaotiques.
40 Nous de plus entrepris d'étudier ces itérations et plus particulièrement leur
41 apprentissage par un réseau de neurones.
42 Nous avons notamment pu contribuer à montrer pratiquement qu'il
43 est très difficile (voir impossible) de les prédire
44 à l'aide d'outils d'intelligence artificielle (chapitre~\ref{chp:ANN}).
46 Avec la production d'une grande collection de fonctions à itérations chaotiques,
47 Nous avons donc proposé de répondre à la question suivante: comment engendrer des fonctions
48 dont les itérations vont produire des nombres simulant correctement l'aléa.
49 En d'autres termes, quelles fonctions peuvent être embarquées dans un PRNG?
50 Nous avons d'abord caractérisé les fonctions dont les itérations produisent des nombres
51 selon une distribution uniforme (chapitre~\ref{chap:PRNG:chao}). Pour cela il a fallu réécrire
52 l'algorithme de génération comme une marche aléatoire dans une partie du $\mathsf{N}$-cube,
53 de se ramener à une chaîne de Markov puis d'utiliser la théorie élaborée sur ce sujet
54 pour conclure (chapitre~\ref{chap:PRNG:gray}).
56 Parmi les fonctions retenues, celles issues de la suppression
57 d'un cycle hamiltonien dans un $\mathsf{N}$ ont retenu notre attention.
58 Nous nous sommes aussi attaché à montrer l'importance de l'équilibrage du cycle
59 hamiltonien à enlever (chapitre~\ref{chap:PRNG:gray}).
60 Nous avons de plus entrepris dans ce chapitre
61 de trouver un majorant du nombre d'itérations suffisant à
62 l'obtention d'une distribution uniforme
64 Nous avons renforcé la thématique de marquage de document numérique de l'équipe AND en
65 embarquant ces fonctions dans des outils de watermarking.
66 Nous avons participé à la formalisation de la méthode de
67 marquage de médias (chapitre~\ref{chap:watermarking}) et particularisé
68 ceci à des images numériques fournissant un
69 nouveau contexte pour l'étude théorique et mathématique d'algorithmes de marquage.
70 Des instances de ces algorithmes ont été présentées en sélectionnant de manière
71 pertinente les fonctions à itérer pour garantir une robustesse
74 D'autre méthodes de watermarking ont été investies (mais plus dans le domaine discret),
75 particulièrement celles basées sur la Quantization Index Modulation (QIM), méthodes
76 étant supposées comme les plus robustes. Nos principales contributions
77 sur ce travail ont été
78 d'intégrer ceci à du marquage de document PDF puis de
79 présenter ce problème comme un problème d'optimisation (chapitre~\ref{chap:watermarking:pdf}).
81 Nous avons de plus conçu l'algorithme STABYLO (chapitre~\ref{chap:stabylo})
82 qui est un schéma de stéganographie basé sur l'enfouissement de l'information dans les contours
83 présents dans une image. Cet algorithme présente un bon compromis entre sécurité
84 fournie et complexité algorithmique.
85 Nous avons enfin proposé d'exprimer les fonctions de distorsion classiquement utilisées en stéganographie
86 comme des méthodes de calcul de gradient
87 ou de matrice Hessienne. Grâce à l'étude de ces matrices, nous avons proposé un nouveau schéma de
88 stéganographie sécurisé (chapitre~\ref{chap:th:yousra}).
90 \subsection{Quelques perspectives}
92 \subsubsection{Étendons les PRNGs}
93 La démarche actuelle de génération de nombres pseudo-aléatoires
94 consiste à marcher dans une partie d'un $\mathsf{N}$-cube en choisissant son chemin
95 à l'aide d'un générateur fourni en entrée. Or ces générateurs sont tous des
96 fonctions de $\{0,1\}^{\mathsf{N}}$ dans lui-même. Cette approche
97 semble pouvoir se réécrire comme un produit synchrone de deux automates.
98 L'intérêt d'une telle réécriture est qu'on pourrait exploiter
99 les résultats théoriques et pratiques déjà connus dans la communauté
101 Nous pensons investiguer cette voie pour améliorer notre approche,
102 s'affranchir, à terme, de tout autre générateur et améliorer la
103 connaissance à ce sujet.
105 De plus, marcher dans une partie d'un $\mathsf{N}$-cube est le modèle théorique que
106 nous avons établi pour notre classe de générateurs. On a vu, via les itérations généralisées
107 qu'on pouvait modifier plusieurs bits
108 en une seule itération. Les premiers travaux pratiques réalisés ont montré
109 que le nombre d'itérations suffisant pour converger vers une distribution uniforme
110 est plus petit que celui obtenu en marchant et qu'il diminue à mesure que $\mathsf{N}$
111 augmente. Pour l'instant, nous n'avons pas réussi à obtenir une majoration du nombre d'itérations
112 pour le temps d'arrêt, ce qui pourrait être une perspective.
114 \subsubsection{Des codes de Gray localement et globalement équilibrés}
115 Enfin, pour générer une fonction dont la matrice de Markov est doublement
117 --condition nécessaire pour fournir une sortie uniformément distribuée--,
118 nous avons proposé principalement la méthode de
119 suppression de chemin hamiltonien dans un $\mathsf{N}$-cube.
120 Nous avons fait sauter un premier verrou en proposant une méthode déterministe à l'extension
121 de Robinson-Cohn. Il est apparu récemment des algorithmes permettant d'obtenir des codes de Gray
122 localement équilibrés, c.-à-d. où la longueur du plus grand nombre d'étapes entre
123 deux changements d'un même bit est aussi petite que possible.
124 Dans tous les cas, aucun des ces codes n'est globalement équilibré ni même presque équilibré.
125 Cette double propriété serait cependant très intéressante aussi bien théoriquement que pratiquement
126 pour nos générateurs.
127 Un second verrou consistera à adapter ces algorithmes pour proposer des codes possédant les
128 deux propriétés d'équilibrage.
130 \subsubsection{Stéganalyse par deep learning}
132 Les démarches de stéganalyse sont souvent composées de 2 étapes:
133 caractérisation puis classification.
134 On extrait au préalable une grande quantité des caractéristiques du média
135 puis on utilise une méthode de
136 classification basée sur celles-ci. La communauté voit souvent cette
137 seconde étape comme une boite noire et se concentre
138 sur la construction de l'ensemble des caractéristiques les plus discriminantes.
139 Autant que nous sachions, les méthodes algébriques
140 de réduction de domaine (analyse par composant principaux, SVD)
141 ont rarement été utilisées comme une étape intermédiaire entre la caractérisation et
142 la classification. Ces méthodes ont déjà été
143 appliquées avec succès lorsqu'elles sont combinées avec des méthodes
144 d'apprentissage, par exemple dans de la reconnaissance faciale.
145 Je propose d'étudier cette piste dans ce domaine.
148 De plus les résultats obtenus en stéganalyse à l'aide de deep learning à base de convolutions
149 sont très prometteurs lorsque la clef qui a servi à l'embarquement est constante.
150 Malheureusement, lorsque la clef varie, nous n'avons pas réussi à généraliser ces avancées.
151 Les démarches les plus efficaces demeurent
152 celles obtenues par des approches classiques à base de caractéristiques statistiques (features)
154 Cependant, en étudiant plus finement les features, on constate que nombreuses sont celles qui sont aussi
155 basées sur des produits de convolution.
156 Je propose d'étudier exhaustivement ces features pour d'abord traduire
157 en deep-learning celles qui sont des convolutions directes. Il restera ensuite
158 à adapter l'outil de deep learning aux caractéristiques restantes ce qui est un autre challenge