]> AND Private Git Repository - hdrcouchot.git/blob - conclusion.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
la veille
[hdrcouchot.git] / conclusion.tex
1 Ce travail a été guidé par la volonté de 
2 comprendre une partie des avancées théoriques et pratiques autour des systèmes discrets,
3 de formuler de nouvelles propositions dans ce champ thématique et
4 de les démontrer lorsque nos connaissances le permettaient.
5 Ce travail est le fruit d'une équipe et nombreux sont ceux qui y ont pris part.
6
7 Ce chapitre en présente tout d'abord une synthèse (section~\ref{sec:concl:synth}).
8 Quelques perspectives qui s'en dégagent sont ensuite esquissées (section~\ref{sec:concl:persp}).
9
10
11 \section{Synthèses des contributions}\label{sec:concl:synth}
12
13 Les principales contributions gravitent autour des mathématiques discrètes et plus particulièrement 
14 les itérations de systèmes dynamiques discrets.
15
16 Pour chacun des modes et des conditions de synchronisme,
17 il existe des critères  (suffisants) de convergence
18 globale ou locale.
19
20 Nous avons formalisé le mode des 
21 \emph{itérations mixtes} (introduit par Pr. J. M.  Bahi en 2005 notamment)
22 qui combine synchronisme et asynchronisme (chapitre~\ref{chap:sdd})
23 et leur extension  les \emph{itérations mixtes avec délais uniformes}.
24 Nous avons pu ainsi énoncer puis démontrer des résultats
25 établissant que pour des conditions classiques de convergence des itérations
26 synchrones, les itérations mixtes à délai uniforme
27 convergent aussi vers le même point fixe.
28
29 Nous avons de plus démontré (chapitre~\ref{chap:promela}) qu'on peut simuler 
30 des SDDs selon tous les modes avec l'outil SPIN de \emph{Model-Checking} pour établir 
31 formellement leur convergence (ou pas).
32 Nous avons énoncé puis prouvé ensuite la  correction et la complétude de la démarche.
33 Des données pratiques comme la complexité et des synthèses d'expérimentation
34 ont aussi été fournies.
35
36 Nous nous sommes ensuite intéressés à l'étude du problème dual 
37 de l'étude de divergence d'un SDD. 
38 Nous avons proposé plusieurs méthodes de construction de 
39 fonctions permettant d'obtenir des itérations chaotiques.
40 La première non naïve est basée sur des
41 conditions suffisantes sur le graphe d'interaction à $\mathsf{N}$ sommets 
42 (chapitre~\ref{chap:carachaos}).
43 Une seconde méthode plus efficace permet en plus de disposer d'une chaîne de Markov doublement 
44 stochastique  et s'appuie sur les cycles hamiltoniens du graphe des
45 itérations. Elle est présentée au chapitre~\ref{chap:PRNG:gray}.
46 Ces méthodes ont permis d'étendre à l'infini la classe des fonctions 
47 dont les itérations sont chaotiques.
48
49 Nous avons aussi 
50 entrepris d'étudier ces itérations et plus particulièrement leur 
51 apprentissage par un réseau de neurones. 
52 Nous avons notamment pu contribuer à montrer pratiquement qu'il
53 est très difficile (voir impossible) de les prédire 
54 à l'aide d'outils d'intelligence artificielle (chapitre~\ref{chp:ANN}).
55
56 Avec la production d'une grande collection de fonctions à itérations chaotiques, nous avons donc proposé de répondre à la question suivante: comment engendrer des fonctions 
57 dont les itérations vont produire des nombres simulant correctement l'aléa. 
58 En d'autres termes, quelles fonctions peuvent être embarquées dans un PRNG? 
59 Nous avons d'abord caractérisé les fonctions dont les itérations produisent des nombres 
60 selon une distribution uniforme (chapitre~\ref{chap:PRNG:chao}). Pour cela il a fallu réécrire
61 l'algorithme de génération comme une marche aléatoire dans une partie du $\mathsf{N}$-cube,
62 se ramener ensuite à une chaîne de Markov puis  enfin 
63 utiliser la théorie élaborée sur ce sujet 
64 pour conclure (chapitre~\ref{chap:PRNG:gray}).
65
66 Parmi les fonctions retenues, celles issues de la suppression 
67 d'un cycle hamiltonien dans un $\mathsf{N}$-cube ont retenu notre attention. 
68 Nous nous sommes aussi attaché à montrer l'importance de l'équilibrage du cycle
69 hamiltonien à enlever (chapitre~\ref{chap:PRNG:gray}).
70 Nous avons de plus entrepris dans ce chapitre 
71 de trouver un majorant du nombre d'itérations suffisant à
72 l'obtention d'une distribution uniforme 
73
74 Nous avons renforcé la thématique de marquage de document numérique de l'équipe AND en 
75 embarquant ces fonctions dans des outils de watermarking.
76 Nous avons participé à la formalisation de la méthode de
77 marquage de médias (chapitre~\ref{chap:watermarking}) et particularisé
78 ceci à des images numériques fournissant un 
79 nouveau contexte pour l'étude théorique et mathématique d'algorithmes de marquage.
80 Des instances de ces algorithmes ont été présentées en sélectionnant de manière 
81 pertinente les fonctions à itérer  pour garantir une robustesse 
82 élevée.
83
84 D'autre méthodes de watermarking ont été investies (mais plus dans le domaine discret), 
85 particulièrement celles basées sur la Quantization Index Modulation (QIM), méthodes 
86 étant supposées comme les plus robustes. Nos principales contributions 
87 sur ce travail ont été 
88 d'intégrer ceci à du marquage de document PDF puis de 
89 présenter ce problème comme un problème d'optimisation (chapitre~\ref{chap:watermarking:pdf}).
90
91 Nous avons de plus conçu l'algorithme STABYLO (chapitre~\ref{chap:stabylo})
92 qui est un schéma de stéganographie basé sur l'enfouissement de l'information dans les contours 
93 présents dans une image. Cet algorithme présente un bon compromis entre sécurité
94 fournie et complexité algorithmique.
95 Nous avons enfin proposé d'exprimer les fonctions de distorsion classiquement utilisées en stéganographie 
96 comme des méthodes de calcul de gradient 
97 ou de matrice Hessienne. Grâce à l'étude de ces matrices, nous avons proposé un nouveau schéma de 
98 stéganographie sécurisé (chapitre~\ref{chap:th:yousra}).
99
100 \section{Quelques perspectives}\label{sec:concl:persp}
101 Les expériences, résultats et connaissances acquises lors de ce travail conduisent vers de nouvelles perspectives présentées ci-après.
102 \subsection{Autour des PRNGs}
103 La démarche actuelle de génération de nombres pseudo-aléatoires
104 consiste à marcher dans une partie d'un $\mathsf{N}$-cube en choisissant son chemin
105 à l'aide d'un générateur fourni en entrée. Or ces générateurs sont tous des 
106 fonctions de $\{0,1\}^{\mathsf{N}}$ dans lui-même. Cette approche
107 semble pouvoir se réécrire comme un produit synchrone de deux automates.
108 L'intérêt d'une telle réécriture est qu'on pourrait exploiter 
109 les résultats théoriques et pratiques déjà connus dans la communauté
110 des automates. 
111 Nous  pensons investiguer cette voie pour améliorer notre approche, 
112 s'affranchir, à terme, de tout autre générateur et améliorer la
113 connaissance à ce sujet.
114
115 De plus, marcher dans une partie d'un $\mathsf{N}$-cube est le modèle théorique que 
116 nous avons établi pour notre classe de générateurs. On a vu, via les itérations généralisées 
117 qu'on pouvait modifier plusieurs bits 
118 en une seule itération. Les premiers travaux pratiques réalisés ont montré 
119 que le nombre d'itérations suffisant pour converger vers une distribution uniforme
120 est plus petit que celui obtenu en marchant et, plus intéressant encore,
121 qu'il diminue à mesure que $\mathsf{N}$ 
122 augmente. Pour l'instant, nous n'avons pas réussi à obtenir une majoration du nombre d'itérations 
123 pour le temps d'arrêt ce que nous pourrons faire dans un avenir proche.
124
125 Il nous paraît aussi important de déployer tout le travail fait autour des PRNG sur des plates-formes physiques.
126 On pense aux circuits logiques programmables (FPGA) ou aux circuits intégrés dédiés à une application (ASIC).
127 Un premier travail~\cite{DBLP:conf/secrypt/MohammedCG16} a été réalisé en ce sens et a consisté à comparer, sur FPGA uniquement, 
128 les implantations existantes de PRNGs de la littérature ainsi que celles à base d'itérations unaires. 
129 Poursuivre le déploiement sur ces deux familles d'architecture, intégrer les itérations généralisées et les combiner nous 
130 est une piste de recherche que nous allons poursuivre. 
131
132
133
134
135
136 \subsection{Des codes de Gray localement et globalement équilibrés}
137 Enfin, pour générer une fonction dont la matrice de Markov est doublement
138 stochastique
139 --condition nécessaire pour fournir une sortie uniformément distribuée--, 
140 nous avons proposé principalement la méthode de
141 suppression de chemin hamiltonien dans un $\mathsf{N}$-cube. 
142 Nous avons fait sauter un premier verrou en proposant une méthode déterministe à l'extension
143 de Robinson-Cohn. Il est apparu récemment des algorithmes permettant d'obtenir des codes de Gray 
144 localement équilibrés, c.-à-d. où la longueur du plus grand nombre d'étapes entre 
145 deux changements d'un même bit est aussi petite que possible.
146 Dans tous les cas, aucun de ces codes n'est globalement équilibré ni même presque équilibré.
147 Cette double propriété serait cependant très intéressante aussi bien théoriquement que pratiquement
148 pour nos générateurs.
149 Un second verrou consistera à adapter ces algorithmes pour proposer des codes possédant les 
150 deux propriétés d'équilibrage.
151  
152 \subsection{Stéganalyse par deep learning}
153
154 Les démarches de stéganalyse sont souvent composées de 2 étapes: 
155 caractérisation puis classification. 
156 On extrait au préalable une grande quantité des caractéristiques du média 
157 puis on utilise une méthode de 
158 classification basée sur celles-ci. La communauté voit souvent cette 
159 seconde étape comme une boite noire et se concentre 
160 sur la construction de l'ensemble des caractéristiques les plus discriminantes.
161 Autant que nous sachions, les méthodes algébriques 
162 de réduction de domaine (analyse par composant principaux, SVD) 
163 ont rarement été utilisées comme une étape intermédiaire entre la caractérisation et 
164 la classification. Ces méthodes ont déjà été 
165 appliquées avec succès lorsqu'elles sont combinées avec des méthodes 
166 d'apprentissage, par exemple dans de la reconnaissance faciale.
167 Je propose d'étudier cette piste dans ce domaine. 
168
169
170 De plus les résultats obtenus en stéganalyse à l'aide de deep learning à base de convolutions
171 sont très prometteurs  lorsque la clef qui a servi à l'embarquement est constante. 
172 Malheureusement, lorsque la clef varie, nous n'avons pas réussi à généraliser ces avancées.
173 Les démarches les plus efficaces demeurent 
174 celles obtenues par des approches classiques à base de caractéristiques statistiques (features) 
175 d'images.
176 Cependant, en étudiant plus finement les features, on constate que nombreuses sont celles qui sont aussi
177 basées sur des produits de convolution.
178 Je propose d'étudier exhaustivement ces features pour d'abord traduire
179 en deep-learning celles qui sont des convolutions directes. Il restera ensuite 
180 à adapter l'outil de deep learning aux caractéristiques restantes ce qui est un autre challenge 
181 scientifique. 
182
183
184