]> AND Private Git Repository - hdrcouchot.git/blobdiff - conclusion.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
la veille
[hdrcouchot.git] / conclusion.tex
index 98fcbc57d4b45af29b772036068617b493786944..716f6ed0bf5364f505441978cb856b7c73ad1ac4 100644 (file)
@@ -1,5 +1,14 @@
+Ce travail a été guidé par la volonté de 
+comprendre une partie des avancées théoriques et pratiques autour des systèmes discrets,
+de formuler de nouvelles propositions dans ce champ thématique et
+de les démontrer lorsque nos connaissances le permettaient.
+Ce travail est le fruit d'une équipe et nombreux sont ceux qui y ont pris part.
 
 
-\subsection{Synthèses des contributions}
+Ce chapitre en présente tout d'abord une synthèse (section~\ref{sec:concl:synth}).
+Quelques perspectives qui s'en dégagent sont ensuite esquissées (section~\ref{sec:concl:persp}).
+
+
+\section{Synthèses des contributions}\label{sec:concl:synth}
 
 Les principales contributions gravitent autour des mathématiques discrètes et plus particulièrement 
 les itérations de systèmes dynamiques discrets.
 
 Les principales contributions gravitent autour des mathématiques discrètes et plus particulièrement 
 les itérations de systèmes dynamiques discrets.
@@ -88,9 +97,9 @@ comme des méthodes de calcul de gradient
 ou de matrice Hessienne. Grâce à l'étude de ces matrices, nous avons proposé un nouveau schéma de 
 stéganographie sécurisé (chapitre~\ref{chap:th:yousra}).
 
 ou de matrice Hessienne. Grâce à l'étude de ces matrices, nous avons proposé un nouveau schéma de 
 stéganographie sécurisé (chapitre~\ref{chap:th:yousra}).
 
-\subsection{Quelques perspectives}
-
-\subsubsection{Étendons les PRNGs}
+\section{Quelques perspectives}\label{sec:concl:persp}
+Les expériences, résultats et connaissances acquises lors de ce travail conduisent vers de nouvelles perspectives présentées ci-après.
+\subsection{Autour des PRNGs}
 La démarche actuelle de génération de nombres pseudo-aléatoires
 consiste à marcher dans une partie d'un $\mathsf{N}$-cube en choisissant son chemin
 à l'aide d'un générateur fourni en entrée. Or ces générateurs sont tous des 
 La démarche actuelle de génération de nombres pseudo-aléatoires
 consiste à marcher dans une partie d'un $\mathsf{N}$-cube en choisissant son chemin
 à l'aide d'un générateur fourni en entrée. Or ces générateurs sont tous des 
@@ -108,11 +117,23 @@ nous avons établi pour notre classe de générateurs. On a vu, via les itérati
 qu'on pouvait modifier plusieurs bits 
 en une seule itération. Les premiers travaux pratiques réalisés ont montré 
 que le nombre d'itérations suffisant pour converger vers une distribution uniforme
 qu'on pouvait modifier plusieurs bits 
 en une seule itération. Les premiers travaux pratiques réalisés ont montré 
 que le nombre d'itérations suffisant pour converger vers une distribution uniforme
-est plus petit que celui obtenu en marchant et qu'il diminue à mesure que $\mathsf{N}$ 
+est plus petit que celui obtenu en marchant et, plus intéressant encore,
+qu'il diminue à mesure que $\mathsf{N}$ 
 augmente. Pour l'instant, nous n'avons pas réussi à obtenir une majoration du nombre d'itérations 
 augmente. Pour l'instant, nous n'avons pas réussi à obtenir une majoration du nombre d'itérations 
-pour le temps d'arrêt, ce qui pourrait être une perspective.
+pour le temps d'arrêt ce que nous pourrons faire dans un avenir proche.
+
+Il nous paraît aussi important de déployer tout le travail fait autour des PRNG sur des plates-formes physiques.
+On pense aux circuits logiques programmables (FPGA) ou aux circuits intégrés dédiés à une application (ASIC).
+Un premier travail~\cite{DBLP:conf/secrypt/MohammedCG16} a été réalisé en ce sens et a consisté à comparer, sur FPGA uniquement, 
+les implantations existantes de PRNGs de la littérature ainsi que celles à base d'itérations unaires. 
+Poursuivre le déploiement sur ces deux familles d'architecture, intégrer les itérations généralisées et les combiner nous 
+est une piste de recherche que nous allons poursuivre. 
+
 
 
-\subsubsection{Des codes de Gray localement et globalement équilibrés}
+
+
+
+\subsection{Des codes de Gray localement et globalement équilibrés}
 Enfin, pour générer une fonction dont la matrice de Markov est doublement
 stochastique
 --condition nécessaire pour fournir une sortie uniformément distribuée--, 
 Enfin, pour générer une fonction dont la matrice de Markov est doublement
 stochastique
 --condition nécessaire pour fournir une sortie uniformément distribuée--, 
@@ -128,7 +149,7 @@ pour nos générateurs.
 Un second verrou consistera à adapter ces algorithmes pour proposer des codes possédant les 
 deux propriétés d'équilibrage.
  
 Un second verrou consistera à adapter ces algorithmes pour proposer des codes possédant les 
 deux propriétés d'équilibrage.
  
-\subsubsection{Stéganalyse par deep learning}
+\subsection{Stéganalyse par deep learning}
 
 Les démarches de stéganalyse sont souvent composées de 2 étapes: 
 caractérisation puis classification. 
 
 Les démarches de stéganalyse sont souvent composées de 2 étapes: 
 caractérisation puis classification. 
@@ -159,3 +180,5 @@ en deep-learning celles qui sont des convolutions directes. Il restera ensuite
 à adapter l'outil de deep learning aux caractéristiques restantes ce qui est un autre challenge 
 scientifique. 
 
 à adapter l'outil de deep learning aux caractéristiques restantes ce qui est un autre challenge 
 scientifique. 
 
+
+