X-Git-Url: https://bilbo.iut-bm.univ-fcomte.fr/and/gitweb/hdrcouchot.git/blobdiff_plain/d4e1bfa4290a182013268daf63d78c1f4fce5b55..refs/heads/master:/conclusion.tex diff --git a/conclusion.tex b/conclusion.tex index e2eac3e..716f6ed 100644 --- a/conclusion.tex +++ b/conclusion.tex @@ -1,5 +1,14 @@ +Ce travail a été guidé par la volonté de +comprendre une partie des avancées théoriques et pratiques autour des systèmes discrets, +de formuler de nouvelles propositions dans ce champ thématique et +de les démontrer lorsque nos connaissances le permettaient. +Ce travail est le fruit d'une équipe et nombreux sont ceux qui y ont pris part. -\subsection{Synthèses des contributions} +Ce chapitre en présente tout d'abord une synthèse (section~\ref{sec:concl:synth}). +Quelques perspectives qui s'en dégagent sont ensuite esquissées (section~\ref{sec:concl:persp}). + + +\section{Synthèses des contributions}\label{sec:concl:synth} Les principales contributions gravitent autour des mathématiques discrètes et plus particulièrement les itérations de systèmes dynamiques discrets. @@ -37,24 +46,25 @@ itérations. Elle est présentée au chapitre~\ref{chap:PRNG:gray}. Ces méthodes ont permis d'étendre à l'infini la classe des fonctions dont les itérations sont chaotiques. -Nous de plus entrepris d'étudier ces itérations et plus particulièrement leur +Nous avons aussi +entrepris d'étudier ces itérations et plus particulièrement leur apprentissage par un réseau de neurones. Nous avons notamment pu contribuer à montrer pratiquement qu'il est très difficile (voir impossible) de les prédire à l'aide d'outils d'intelligence artificielle (chapitre~\ref{chp:ANN}). -Avec la production d'une grande collection de fonctions à itérations chaotiques, -Nous avons donc proposé de répondre à la question suivante: comment engendrer des fonctions +Avec la production d'une grande collection de fonctions à itérations chaotiques, nous avons donc proposé de répondre à la question suivante: comment engendrer des fonctions dont les itérations vont produire des nombres simulant correctement l'aléa. En d'autres termes, quelles fonctions peuvent être embarquées dans un PRNG? Nous avons d'abord caractérisé les fonctions dont les itérations produisent des nombres selon une distribution uniforme (chapitre~\ref{chap:PRNG:chao}). Pour cela il a fallu réécrire l'algorithme de génération comme une marche aléatoire dans une partie du $\mathsf{N}$-cube, -de se ramener à une chaîne de Markov puis d'utiliser la théorie élaborée sur ce sujet +se ramener ensuite à une chaîne de Markov puis enfin +utiliser la théorie élaborée sur ce sujet pour conclure (chapitre~\ref{chap:PRNG:gray}). Parmi les fonctions retenues, celles issues de la suppression -d'un cycle hamiltonien dans un $\mathsf{N}$ ont retenu notre attention. +d'un cycle hamiltonien dans un $\mathsf{N}$-cube ont retenu notre attention. Nous nous sommes aussi attaché à montrer l'importance de l'équilibrage du cycle hamiltonien à enlever (chapitre~\ref{chap:PRNG:gray}). Nous avons de plus entrepris dans ce chapitre @@ -87,9 +97,9 @@ comme des méthodes de calcul de gradient ou de matrice Hessienne. Grâce à l'étude de ces matrices, nous avons proposé un nouveau schéma de stéganographie sécurisé (chapitre~\ref{chap:th:yousra}). -\subsection{Quelques perspectives} - -\subsubsection{Étendons les PRNGs} +\section{Quelques perspectives}\label{sec:concl:persp} +Les expériences, résultats et connaissances acquises lors de ce travail conduisent vers de nouvelles perspectives présentées ci-après. +\subsection{Autour des PRNGs} La démarche actuelle de génération de nombres pseudo-aléatoires consiste à marcher dans une partie d'un $\mathsf{N}$-cube en choisissant son chemin à l'aide d'un générateur fourni en entrée. Or ces générateurs sont tous des @@ -107,11 +117,23 @@ nous avons établi pour notre classe de générateurs. On a vu, via les itérati qu'on pouvait modifier plusieurs bits en une seule itération. Les premiers travaux pratiques réalisés ont montré que le nombre d'itérations suffisant pour converger vers une distribution uniforme -est plus petit que celui obtenu en marchant et qu'il diminue à mesure que $\mathsf{N}$ +est plus petit que celui obtenu en marchant et, plus intéressant encore, +qu'il diminue à mesure que $\mathsf{N}$ augmente. Pour l'instant, nous n'avons pas réussi à obtenir une majoration du nombre d'itérations -pour le temps d'arrêt, ce qui pourrait être une perspective. +pour le temps d'arrêt ce que nous pourrons faire dans un avenir proche. + +Il nous paraît aussi important de déployer tout le travail fait autour des PRNG sur des plates-formes physiques. +On pense aux circuits logiques programmables (FPGA) ou aux circuits intégrés dédiés à une application (ASIC). +Un premier travail~\cite{DBLP:conf/secrypt/MohammedCG16} a été réalisé en ce sens et a consisté à comparer, sur FPGA uniquement, +les implantations existantes de PRNGs de la littérature ainsi que celles à base d'itérations unaires. +Poursuivre le déploiement sur ces deux familles d'architecture, intégrer les itérations généralisées et les combiner nous +est une piste de recherche que nous allons poursuivre. + -\subsubsection{Des codes de Gray localement et globalement équilibrés} + + + +\subsection{Des codes de Gray localement et globalement équilibrés} Enfin, pour générer une fonction dont la matrice de Markov est doublement stochastique --condition nécessaire pour fournir une sortie uniformément distribuée--, @@ -121,13 +143,13 @@ Nous avons fait sauter un premier verrou en proposant une méthode déterministe de Robinson-Cohn. Il est apparu récemment des algorithmes permettant d'obtenir des codes de Gray localement équilibrés, c.-à-d. où la longueur du plus grand nombre d'étapes entre deux changements d'un même bit est aussi petite que possible. -Dans tous les cas, aucun des ces codes n'est globalement équilibré ni même presque équilibré. +Dans tous les cas, aucun de ces codes n'est globalement équilibré ni même presque équilibré. Cette double propriété serait cependant très intéressante aussi bien théoriquement que pratiquement pour nos générateurs. Un second verrou consistera à adapter ces algorithmes pour proposer des codes possédant les deux propriétés d'équilibrage. -\subsubsection{Stéganalyse par deep learning} +\subsection{Stéganalyse par deep learning} Les démarches de stéganalyse sont souvent composées de 2 étapes: caractérisation puis classification. @@ -158,3 +180,5 @@ en deep-learning celles qui sont des convolutions directes. Il restera ensuite à adapter l'outil de deep learning aux caractéristiques restantes ce qui est un autre challenge scientifique. + +