X-Git-Url: https://bilbo.iut-bm.univ-fcomte.fr/and/gitweb/hdrcouchot.git/blobdiff_plain/ac26aa33009d503bf9c04a2b00244c5bf723e694..c1f6ce3a24b92bfb8dd4da3d9092666c73adbcc9:/conclusion.tex?ds=sidebyside diff --git a/conclusion.tex b/conclusion.tex index c544c43..716f6ed 100644 --- a/conclusion.tex +++ b/conclusion.tex @@ -1,5 +1,14 @@ +Ce travail a été guidé par la volonté de +comprendre une partie des avancées théoriques et pratiques autour des systèmes discrets, +de formuler de nouvelles propositions dans ce champ thématique et +de les démontrer lorsque nos connaissances le permettaient. +Ce travail est le fruit d'une équipe et nombreux sont ceux qui y ont pris part. -\subsection{Synthèses des contributions} +Ce chapitre en présente tout d'abord une synthèse (section~\ref{sec:concl:synth}). +Quelques perspectives qui s'en dégagent sont ensuite esquissées (section~\ref{sec:concl:persp}). + + +\section{Synthèses des contributions}\label{sec:concl:synth} Les principales contributions gravitent autour des mathématiques discrètes et plus particulièrement les itérations de systèmes dynamiques discrets. @@ -88,9 +97,9 @@ comme des méthodes de calcul de gradient ou de matrice Hessienne. Grâce à l'étude de ces matrices, nous avons proposé un nouveau schéma de stéganographie sécurisé (chapitre~\ref{chap:th:yousra}). -\subsection{Quelques perspectives} - -\subsubsection{Étendons les PRNGs} +\section{Quelques perspectives}\label{sec:concl:persp} +Les expériences, résultats et connaissances acquises lors de ce travail conduisent vers de nouvelles perspectives présentées ci-après. +\subsection{Autour des PRNGs} La démarche actuelle de génération de nombres pseudo-aléatoires consiste à marcher dans une partie d'un $\mathsf{N}$-cube en choisissant son chemin à l'aide d'un générateur fourni en entrée. Or ces générateurs sont tous des @@ -108,11 +117,23 @@ nous avons établi pour notre classe de générateurs. On a vu, via les itérati qu'on pouvait modifier plusieurs bits en une seule itération. Les premiers travaux pratiques réalisés ont montré que le nombre d'itérations suffisant pour converger vers une distribution uniforme -est plus petit que celui obtenu en marchant et qu'il diminue à mesure que $\mathsf{N}$ +est plus petit que celui obtenu en marchant et, plus intéressant encore, +qu'il diminue à mesure que $\mathsf{N}$ augmente. Pour l'instant, nous n'avons pas réussi à obtenir une majoration du nombre d'itérations -pour le temps d'arrêt, ce qui pourrait être une perspective. +pour le temps d'arrêt ce que nous pourrons faire dans un avenir proche. + +Il nous paraît aussi important de déployer tout le travail fait autour des PRNG sur des plates-formes physiques. +On pense aux circuits logiques programmables (FPGA) ou aux circuits intégrés dédiés à une application (ASIC). +Un premier travail~\cite{DBLP:conf/secrypt/MohammedCG16} a été réalisé en ce sens et a consisté à comparer, sur FPGA uniquement, +les implantations existantes de PRNGs de la littérature ainsi que celles à base d'itérations unaires. +Poursuivre le déploiement sur ces deux familles d'architecture, intégrer les itérations généralisées et les combiner nous +est une piste de recherche que nous allons poursuivre. + -\subsubsection{Des codes de Gray localement et globalement équilibrés} + + + +\subsection{Des codes de Gray localement et globalement équilibrés} Enfin, pour générer une fonction dont la matrice de Markov est doublement stochastique --condition nécessaire pour fournir une sortie uniformément distribuée--, @@ -128,7 +149,7 @@ pour nos générateurs. Un second verrou consistera à adapter ces algorithmes pour proposer des codes possédant les deux propriétés d'équilibrage. -\subsubsection{Stéganalyse par deep learning} +\subsection{Stéganalyse par deep learning} Les démarches de stéganalyse sont souvent composées de 2 étapes: caractérisation puis classification. @@ -159,4 +180,5 @@ en deep-learning celles qui sont des convolutions directes. Il restera ensuite à adapter l'outil de deep learning aux caractéristiques restantes ce qui est un autre challenge scientifique. -\subsection{} \ No newline at end of file + +