]> AND Private Git Repository - hdrcouchot.git/blobdiff - conclusion.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
la veille
[hdrcouchot.git] / conclusion.tex
index e2eac3e7b89caebfc0d6d26b19c4ac1e6b3c0a63..716f6ed0bf5364f505441978cb856b7c73ad1ac4 100644 (file)
@@ -1,5 +1,14 @@
+Ce travail a été guidé par la volonté de 
+comprendre une partie des avancées théoriques et pratiques autour des systèmes discrets,
+de formuler de nouvelles propositions dans ce champ thématique et
+de les démontrer lorsque nos connaissances le permettaient.
+Ce travail est le fruit d'une équipe et nombreux sont ceux qui y ont pris part.
 
 
-\subsection{Synthèses des contributions}
+Ce chapitre en présente tout d'abord une synthèse (section~\ref{sec:concl:synth}).
+Quelques perspectives qui s'en dégagent sont ensuite esquissées (section~\ref{sec:concl:persp}).
+
+
+\section{Synthèses des contributions}\label{sec:concl:synth}
 
 Les principales contributions gravitent autour des mathématiques discrètes et plus particulièrement 
 les itérations de systèmes dynamiques discrets.
 
 Les principales contributions gravitent autour des mathématiques discrètes et plus particulièrement 
 les itérations de systèmes dynamiques discrets.
@@ -37,24 +46,25 @@ itérations. Elle est présentée au chapitre~\ref{chap:PRNG:gray}.
 Ces méthodes ont permis d'étendre à l'infini la classe des fonctions 
 dont les itérations sont chaotiques.
 
 Ces méthodes ont permis d'étendre à l'infini la classe des fonctions 
 dont les itérations sont chaotiques.
 
-Nous de plus entrepris d'étudier ces itérations et plus particulièrement leur 
+Nous avons aussi 
+entrepris d'étudier ces itérations et plus particulièrement leur 
 apprentissage par un réseau de neurones. 
 Nous avons notamment pu contribuer à montrer pratiquement qu'il
 est très difficile (voir impossible) de les prédire 
 à l'aide d'outils d'intelligence artificielle (chapitre~\ref{chp:ANN}).
 
 apprentissage par un réseau de neurones. 
 Nous avons notamment pu contribuer à montrer pratiquement qu'il
 est très difficile (voir impossible) de les prédire 
 à l'aide d'outils d'intelligence artificielle (chapitre~\ref{chp:ANN}).
 
-Avec la production d'une grande collection de fonctions à itérations chaotiques, 
-Nous avons donc proposé de répondre à la question suivante: comment engendrer des fonctions 
+Avec la production d'une grande collection de fonctions à itérations chaotiques, nous avons donc proposé de répondre à la question suivante: comment engendrer des fonctions 
 dont les itérations vont produire des nombres simulant correctement l'aléa. 
 En d'autres termes, quelles fonctions peuvent être embarquées dans un PRNG? 
 Nous avons d'abord caractérisé les fonctions dont les itérations produisent des nombres 
 selon une distribution uniforme (chapitre~\ref{chap:PRNG:chao}). Pour cela il a fallu réécrire
 l'algorithme de génération comme une marche aléatoire dans une partie du $\mathsf{N}$-cube,
 dont les itérations vont produire des nombres simulant correctement l'aléa. 
 En d'autres termes, quelles fonctions peuvent être embarquées dans un PRNG? 
 Nous avons d'abord caractérisé les fonctions dont les itérations produisent des nombres 
 selon une distribution uniforme (chapitre~\ref{chap:PRNG:chao}). Pour cela il a fallu réécrire
 l'algorithme de génération comme une marche aléatoire dans une partie du $\mathsf{N}$-cube,
-de se ramener à une chaîne de Markov puis d'utiliser la théorie élaborée sur ce sujet 
+se ramener ensuite à une chaîne de Markov puis  enfin 
+utiliser la théorie élaborée sur ce sujet 
 pour conclure (chapitre~\ref{chap:PRNG:gray}).
 
 Parmi les fonctions retenues, celles issues de la suppression 
 pour conclure (chapitre~\ref{chap:PRNG:gray}).
 
 Parmi les fonctions retenues, celles issues de la suppression 
-d'un cycle hamiltonien dans un $\mathsf{N}$ ont retenu notre attention. 
+d'un cycle hamiltonien dans un $\mathsf{N}$-cube ont retenu notre attention. 
 Nous nous sommes aussi attaché à montrer l'importance de l'équilibrage du cycle
 hamiltonien à enlever (chapitre~\ref{chap:PRNG:gray}).
 Nous avons de plus entrepris dans ce chapitre 
 Nous nous sommes aussi attaché à montrer l'importance de l'équilibrage du cycle
 hamiltonien à enlever (chapitre~\ref{chap:PRNG:gray}).
 Nous avons de plus entrepris dans ce chapitre 
@@ -87,9 +97,9 @@ comme des méthodes de calcul de gradient
 ou de matrice Hessienne. Grâce à l'étude de ces matrices, nous avons proposé un nouveau schéma de 
 stéganographie sécurisé (chapitre~\ref{chap:th:yousra}).
 
 ou de matrice Hessienne. Grâce à l'étude de ces matrices, nous avons proposé un nouveau schéma de 
 stéganographie sécurisé (chapitre~\ref{chap:th:yousra}).
 
-\subsection{Quelques perspectives}
-
-\subsubsection{Étendons les PRNGs}
+\section{Quelques perspectives}\label{sec:concl:persp}
+Les expériences, résultats et connaissances acquises lors de ce travail conduisent vers de nouvelles perspectives présentées ci-après.
+\subsection{Autour des PRNGs}
 La démarche actuelle de génération de nombres pseudo-aléatoires
 consiste à marcher dans une partie d'un $\mathsf{N}$-cube en choisissant son chemin
 à l'aide d'un générateur fourni en entrée. Or ces générateurs sont tous des 
 La démarche actuelle de génération de nombres pseudo-aléatoires
 consiste à marcher dans une partie d'un $\mathsf{N}$-cube en choisissant son chemin
 à l'aide d'un générateur fourni en entrée. Or ces générateurs sont tous des 
@@ -107,11 +117,23 @@ nous avons établi pour notre classe de générateurs. On a vu, via les itérati
 qu'on pouvait modifier plusieurs bits 
 en une seule itération. Les premiers travaux pratiques réalisés ont montré 
 que le nombre d'itérations suffisant pour converger vers une distribution uniforme
 qu'on pouvait modifier plusieurs bits 
 en une seule itération. Les premiers travaux pratiques réalisés ont montré 
 que le nombre d'itérations suffisant pour converger vers une distribution uniforme
-est plus petit que celui obtenu en marchant et qu'il diminue à mesure que $\mathsf{N}$ 
+est plus petit que celui obtenu en marchant et, plus intéressant encore,
+qu'il diminue à mesure que $\mathsf{N}$ 
 augmente. Pour l'instant, nous n'avons pas réussi à obtenir une majoration du nombre d'itérations 
 augmente. Pour l'instant, nous n'avons pas réussi à obtenir une majoration du nombre d'itérations 
-pour le temps d'arrêt, ce qui pourrait être une perspective.
+pour le temps d'arrêt ce que nous pourrons faire dans un avenir proche.
+
+Il nous paraît aussi important de déployer tout le travail fait autour des PRNG sur des plates-formes physiques.
+On pense aux circuits logiques programmables (FPGA) ou aux circuits intégrés dédiés à une application (ASIC).
+Un premier travail~\cite{DBLP:conf/secrypt/MohammedCG16} a été réalisé en ce sens et a consisté à comparer, sur FPGA uniquement, 
+les implantations existantes de PRNGs de la littérature ainsi que celles à base d'itérations unaires. 
+Poursuivre le déploiement sur ces deux familles d'architecture, intégrer les itérations généralisées et les combiner nous 
+est une piste de recherche que nous allons poursuivre. 
+
 
 
-\subsubsection{Des codes de Gray localement et globalement équilibrés}
+
+
+
+\subsection{Des codes de Gray localement et globalement équilibrés}
 Enfin, pour générer une fonction dont la matrice de Markov est doublement
 stochastique
 --condition nécessaire pour fournir une sortie uniformément distribuée--, 
 Enfin, pour générer une fonction dont la matrice de Markov est doublement
 stochastique
 --condition nécessaire pour fournir une sortie uniformément distribuée--, 
@@ -121,13 +143,13 @@ Nous avons fait sauter un premier verrou en proposant une méthode déterministe
 de Robinson-Cohn. Il est apparu récemment des algorithmes permettant d'obtenir des codes de Gray 
 localement équilibrés, c.-à-d. où la longueur du plus grand nombre d'étapes entre 
 deux changements d'un même bit est aussi petite que possible.
 de Robinson-Cohn. Il est apparu récemment des algorithmes permettant d'obtenir des codes de Gray 
 localement équilibrés, c.-à-d. où la longueur du plus grand nombre d'étapes entre 
 deux changements d'un même bit est aussi petite que possible.
-Dans tous les cas, aucun des ces codes n'est globalement équilibré ni même presque équilibré.
+Dans tous les cas, aucun de ces codes n'est globalement équilibré ni même presque équilibré.
 Cette double propriété serait cependant très intéressante aussi bien théoriquement que pratiquement
 pour nos générateurs.
 Un second verrou consistera à adapter ces algorithmes pour proposer des codes possédant les 
 deux propriétés d'équilibrage.
  
 Cette double propriété serait cependant très intéressante aussi bien théoriquement que pratiquement
 pour nos générateurs.
 Un second verrou consistera à adapter ces algorithmes pour proposer des codes possédant les 
 deux propriétés d'équilibrage.
  
-\subsubsection{Stéganalyse par deep learning}
+\subsection{Stéganalyse par deep learning}
 
 Les démarches de stéganalyse sont souvent composées de 2 étapes: 
 caractérisation puis classification. 
 
 Les démarches de stéganalyse sont souvent composées de 2 étapes: 
 caractérisation puis classification. 
@@ -158,3 +180,5 @@ en deep-learning celles qui sont des convolutions directes. Il restera ensuite
 à adapter l'outil de deep learning aux caractéristiques restantes ce qui est un autre challenge 
 scientifique. 
 
 à adapter l'outil de deep learning aux caractéristiques restantes ce qui est un autre challenge 
 scientifique. 
 
+
+