]> AND Private Git Repository - hdrcouchot.git/blobdiff - oxford.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
après correction sylvaine
[hdrcouchot.git] / oxford.tex
index 92d4d92f6f04fa495641238dceb1d3b823376da5..5cc17c073d68274e462763b7b262ddd7f25490fd 100644 (file)
@@ -1,4 +1,27 @@
-\JFC{Dire que c'est une synthèse du chapitre 22 de la thèse de Tof}
+La propriété de régularité des fonctions chaotiques est à l'origine du marquage de documents numériques: de tout média, même tronqué, on peut réextraire la 
+marque. 
+Dans ce chapitre, le processus d'embarquement d'un message dans 
+un média est formalisé en section~\ref{sec:watermarking:formulation}.
+La sécurité des approches de watermarking est étudiée selon deux approches:
+l'approche probabiliste (section~\ref{sec:watermarking:security:probas}) 
+et l'approche chaotique (section~\ref{sec:watermarking:security:chaos}).
+Une proposition d'embarquement dans le domaine fréquentiel est abordée
+en section~\ref{sec:watermarking:frequentiel}.
+
+On remarque cependant que l'algorithme formalisé dans ces sections ne permet
+d'embarquer \textit{in fine} qu'un bit qui est vrai si l'image est marquée 
+et faux dans le cas contraire. 
+Il ne permet pas d'extraire le contenu du message initial à partir de
+l'image marquée. La section~\ref{sec:watermarking:extension}
+propose une solution à ce problème.
+
+Les trois premières sections de ce chapitre sont une reformulation 
+du chapitre 22 de~\cite{guyeux10}. Elles ont été publiées à~\cite{bcg11:ij}.
+L'extension a quant à elle été publiée dans~\cite{bcfg+13:ip}.
+
+
+
+\section{Processus de marquage binaire}\label{sec:watermarking:formulation}
 
 Par la suite, le message numérique qu'on cherche à embarquer est 
 noté $y$ et le support dans lequel se fait l'insertion est noté $x$. 
@@ -6,32 +29,35 @@ noté $y$ et le support dans lequel se fait l'insertion est noté $x$.
 Le processus de marquage est fondé sur les itérations unaires d'une fonction 
 selon une stratégie donnée.  Cette fonction et cette stratégie 
 sont paramétrées par un entier naturel permettant à la méthode d'être
-appliquable à un média de n'importe quelle taille.
+applicable à un média de n'importe quelle taille.
 On parle alors respectivement de \emph{mode} et d'\emph{adapteur de stratégies} 
 
-\begin{definition}[Mode]
+\subsection{Embarquement}
+
+
+\begin{Def}[Mode]
 \label{def:mode}
 Soit $\mathsf{N}$ un entier naturel. 
 Un mode est une application de $\mathds{B}^{\mathsf{N}}$
 dans lui même.
-\end{definition}
+\end{Def}
 
 
 
-\begin{definition}[Adapteur de Stratégie]
+\begin{Def}[Adapteur de Stratégie]
   \label{def:strategy-adapter}
   
   Un  \emph{adapteur de stratégie} est une fonction $\mathcal{S}$ 
   de  $\Nats$ dans l'ensemble des séquences d'entiers 
   qui associe à chaque entier naturel
   $\mathsf{N}$ la suite 
-  $S \in  \llbracket 1, n\rrbracket^{\mathds{N}}$.
-\end{definition}
+  $S \in  [\mathsf{N}]^{\mathds{N}}$.
+\end{Def}
 
 
 On définit par exemple  l'adapteur CIIS (\emph{Chaotic Iterations with Independent Strategy})
 paramétré par $(K,y,\alpha,l) \in [0,1]\times [0,1] \times ]0, 0.5[ \times \mathds{N}$
-qui associe à chque entier  $n \in \Nats$  la suite
+qui associe à chaque entier  $\mathsf{N} \in \Nats$  la suite
 $(S^t)^{t \in \mathds{N}}$ définie par:
  \begin{itemize}
  \item $K^0 = \textit{bin}(y) \oplus \textit{bin}(K)$: $K^0$ est le nombre binaire (sur 32 bits)
@@ -39,48 +65,13 @@ $(S^t)^{t \in \mathds{N}}$ définie par:
    entre les décompositions binaires sur 32 bits des réels $y$ et  $K$
    (il est aussi compris entre 0 et 1),
  \item $\forall t \leqslant l, K^{t+1} = F(K^t,\alpha)$,
- \item $\forall t \leqslant l, S^t = \left \lfloor n \times K^t \right \rfloor + 1$,
+ \item $\forall t \leqslant l, S^t = \left \lfloor \mathsf{N} \times K^t \right \rfloor + 1$,
  \item $\forall t > l, S^t = 0$,
  \end{itemize}
-où  est la fonction chaotique linéaire par morceau~\cite{Shujun1}.
+où $F$  est la fonction chaotique linéaire par morceau~\cite{Shujun1}.
 Les paramètres $K$ et $\alpha$ de cet adapteur de stratégie peuvent être vus
 comme des clefs. 
-
-% Les paramère Parameters of CIIS strategy-adapter will be instantiate as follows: 
-% $K$ is the secret embedding key, $y$ is the secret message, 
-% $\alpha$ is the threshold of the piecewise linear chaotic map,
-% which can be set as $K$ or can act as a second secret key.
-% Lastly, $l$ is for the iteration number bound:
-% enlarging its value improve the chaotic behavior of the scheme,
-% but the time required to achieve the embedding grows too.
-
-% Another strategy-adapter is the 
-% \emph{Chaotic Iterations with Dependent Strategy} (CIDS) 
-% with parameters $(l,X) \in \mathds{N}\times \mathds{B}^\mathds{N}$, 
-% which is the function that maps any $ n \in \mathds{N}$ to
-% the sequence $\left(S^t\right)^{t \in \mathds{N}}$ defined by:
-% \begin{itemize}
-% \item $\forall t \leqslant l$, if $t \leqslant l$ and $X^t = 1$, 
-%   then $S^t=t$, else $S^t=1$.
-% \item $\forall t > l, S^t = 0$.
-% \end{itemize}
-
-
-
-
-% Let us notice that the terms of $x$ that may be replaced by terms issued
-% from $y$ are less important than other: they could be changed 
-% without be perceived as such. More generally, a 
-% \emph{signification function} 
-% attaches a weight to each term defining a digital media,
-% w.r.t. its position $t$:
-
-% \begin{definition}[Signification function]
-% A \emph{signification function} 
-% $(u^k)^{k \in \Nats}$. % with a limit equal to 0.
-% \end{definition}
-
-
+On remarque que cette stratégie est unaire.
 
 
 
@@ -89,33 +80,27 @@ On peut attribuer à chaque bit du média hôte $x$ sa valeur d'importance
 sous la forme d'un réel.
 Ceci se fait à l'aide d'une fonction de signification. 
 
-%We first notice that terms of $x$ that may be replaced by terms issued
-%from $y$ are less important than other: they could be changed 
-%without being perceived as such. More generally, a 
-%\emph{signification function} 
-%attaches a weight to each terms defining a digital media,
-%depending on its position $t$, as follows.
 
-\begin{definition}[Fonction de signification ]
+\begin{Def}[Fonction de signification ]
 Une  \emph{fonction de signification } 
-est une fonction $u$ qui a toute 
+est une fonction $u$ qui à toute 
 séquence finie de bit $x$ associe la séquence 
 $(u^k(x))$ de taille $\mid x \mid$ à valeur dans les réels.
 Cette fonction peut dépendre du message $y$ à embarquer, ou non.
-\end{definition}
+\end{Def}
 
-Pour alléger le discours, par la suite, on nottera $(u^k(x))$ pour $(u^k)$ 
+Pour alléger le discours, par la suite, on notera $(u^k(x))$ pour $(u^k)$ 
 lorsque cela n'est pas ambigüe.
-Il reste à partionner les bits  de $x$ selon qu'ils sont 
+Il reste à partitionner les bits  de $x$ selon qu'ils sont 
 peu, moyennement ou très significatifs. 
 
-\begin{definition}[Signification des bits]\label{def:msc,lsc}
+\begin{Def}[Signification des bits]\label{def:msc,lsc}
 Soit $u$ une fonction de signification, 
 $m$ et  $M$ deux réels  t.q. $m < M$.  Alors:
-$u_M$, $u_m$ et $u_p$ sont les vecteurs finis respectivements des 
+$u_M$, $u_m$ et $u_p$ sont les vecteurs finis respectivement des 
 \emph{bits les plus significatifs  (MSBs)} de $x$,
 \emph{bits les moins significatifs (LSBs)} de $x$ 
-\emph{bits passifs} of $x$ définis par:
+\emph{bits passifs} de $x$ définis par:
 \begin{eqnarray*}
   u_M &=& \left( k ~ \big|~ k \in \mathds{N} \textrm{ et } u^k 
     \geqslant M \textrm{ et }  k \le \mid x \mid \right) \\
@@ -124,13 +109,13 @@ $u_M$, $u_m$ et $u_p$ sont les vecteurs finis respectivements des
    u_p &=& \left( k ~ \big|~ k \in \mathds{N} \textrm{ et } 
 u^k \in ]m;M[ \textrm{ et }  k \le \mid x \mid \right)
 \end{eqnarray*}
- \end{definition}
+ \end{Def}
 
-On peut alors définir une fonction de décompostion  
+On peut alors définir une fonction de décomposition  
 puis de recomposition pour un hôte $x$:
 
 
-\begin{definition}[Fonction de décomposition ]
+\begin{Def}[Fonction de décomposition ]
 Soit $u$ une fonction de signification, 
 $m$ et $M$ deux réels t.q  $m < M$.  
 Tout hôte $x$ peut se décomposer en
@@ -144,12 +129,12 @@ avec
 \end{itemize}
 La fonction qui associe $(u_M,u_m,u_p,\phi_{M},\phi_{m},\phi_{p})$
 pour chaque hôte $x$ est la  \emph{fonction de décomposition}, plus tard notée 
-$\textit{dec}(u,m,M)$ puisuq'elle est paramétrée par 
-$u$, $m$ and $M$. 
-\end{definition
+$\textit{dec}(u,m,M)$ puisqu'elle est paramétrée par 
+$u$, $m$ et $M$. 
+\end{Def
 
 
-\begin{definition}[Recomposition]
+\begin{Def}[Recomposition]
 Soit un sextuplet 
 $(u_M,u_m,u_p,\phi_{M},\phi_{m},\phi_{p}) \in 
 \mathfrak{N} \times 
@@ -160,7 +145,7 @@ $(u_M,u_m,u_p,\phi_{M},\phi_{m},\phi_{p}) \in
 \mathfrak{B} 
 $ tel que
 \begin{itemize}
-\item les ensembles $u_M$, $u_m$ et  $u_p$ forment une partition de  $[n]$;
+\item les ensembles $u_M$, $u_m$ et  $u_p$ forment une partition de  $[\mathsf{N}]$;
 \item $|u_M| = |\varphi_M|$, $|u_m| = |\varphi_m|$ et $|u_p| = |\varphi_p|$.  
 \end{itemize}
 Soit la base canonique sur l'espace vectoriel $\mathds{R}^{\mid x \mid}$ composée des vecteurs 
@@ -175,241 +160,485 @@ x =
 La fonction qui associe $x$ à chaque sextuplet 
 $(u_M,u_m,u_p,\phi_{M},\phi_{m},\phi_{p})$ défini comme ci-dessus est appelée 
 \emph{fonction de recomposition}.
-\end{definition}
+\end{Def}
 
 Un embarquement consiste à modifier les valeurs de  
 $\phi_{m}$ (de $x$) en tenant compte de $y$. 
 Cela se formalise comme suit:
 
-\begin{definition}[Embedding media]
-Soit une fonction de décomposition  $\textit{dec}(u,m,M)$ be a decomposition function,
-$x$ be a host content,
-$(u_M,u_m,u_p,\phi_{M},\phi_{m},\phi_{p})$ be its image by $\textit{dec}(u,m,M)$, 
-and $y$ be a digital media of size $|u_m|$.
-The digital media $z$ resulting on the embedding of $y$ into $x$ is 
-% the
-% result of the \emph{embedding} of $y$ in $x$ if 
-%  $$
-%  \forall n \in \llbracket1, |x|\rrbracket , z^n = \left\{
-%  \begin{array}{ll}
-%  x^n & \textrm{if } \phi^n_m > m,\\
-%  y^n & \textrm{else.}
-%  \end{array}
-%  \right.
-%  $$
-%  
-% In other words, $z$ is
-the image of $(u_M,u_m,u_p,\phi_{M},y,\phi_{p})$
-by  the recomposition function $\textit{rec}$.
-\end{definition}
-
-Let us then define the dhCI information hiding scheme
-presented in~\cite{gfb10:ip}:
-
-\begin{definition}[Data hiding dhCI]
- \label{def:dhCI}
-Let $\textit{dec}(u,m,M)$ be a decomposition function,
-$f$ be a mode, 
-$\mathcal{S}$ be a strategy adapter,
-$x$ be an host content,\linebreak
+\begin{Def}[Embarquement de message]
+Soit une fonction de décomposition  $\textit{dec}(u,m,M)$,  
+$x$ un support, 
+$(u_M,u_m,u_p,\phi_{M},\phi_{m},\phi_{p})$ son image par $\textit{dec}(u,m,M)$, 
+et $y$ un média numérique de taille $|u_m|$.
+Le média $z$ résultant de l'embarquement d'$y$ dans $x$ est l'image de 
+$(u_M,u_m,u_p,\phi_{M},y,\phi_{p})$
+par la fonction de recomposition $\textit{rec}$.
+%  avec 
+% $g : \Bool^{|u_m|} \times \Bool^{|u_m|} \to \Bool^{|u_m|} $
+% est la fonction de modification des bits de $u_m$ selon $y$.
+\end{Def}
+
+On peut étendre l'algorithme dhCI~\cite{gfb10:ip} d'embarquement de message comme suit:  
+
+\begin{Def}[Embarquement dhCI étendu]
+ \label{def:dhCI:ext}
+Soit $\textit{dec}(u,m,M)$ une fonction de décomposition,
+$f$ un mode, 
+$\mathcal{S}$ un adapteur de stratégie,
+$x$ un hôte, 
 $(u_M,u_m,u_p,\phi_{M},\phi_{m},\phi_{p})$ 
-be its image by $\textit{dec}(u,m,M)$,
-$q$ be a positive natural number,  
-and $y$ be a digital media of size $l=|u_m|$.
+son image par  $\textit{dec}(u,m,M)$,
+$q$ un entier naturel positif
+et $y$ un média numérique de taille $l=|u_m|$.
 
-
-The dhCI dissimulation  maps any
-$(x,y)$  to the digital media $z$ resulting on the embedding of
-$\hat{y}$ into $x$, s.t.
+L'algorithme d'embarquement de message associe à chaque 
+couple $(x,y)$  le média  $z$ résultat de l'embarquement de 
+$\hat{y}$ dans $x$, t. q.:
 
 \begin{itemize}
-\item We instantiate the mode $f$ with parameter $l=|u_m|$, leading to 
-  the function $f_{l}:\Bool^{l} \rightarrow \Bool^{l}$.
-\item We instantiate the strategy adapter $\mathcal{S}$ 
-with parameter $y$ (and some other ones eventually). 
-This instantiation leads to the strategy $S_y \in \llbracket 1;l\rrbracket ^{\Nats}$.
-
-\item We iterate $G_{f_l}$ with initial configuration $(S_y,\phi_{m})$.
-\item $\hat{y}$ is finally the $q$-th term of these iterations.
+\item le mode $f$ est instancié avec le paramètre $l=|u_m|$, engendrant la 
+  fonction $f_{l}:\Bool^{l} \rightarrow \Bool^{l}$;
+\item l'adapteur de stratégie $\mathcal{S}$ est instancié avec le paramètre
+$y$, engendrant une stratégie $S_y \in [l]$;
+\item on itère la fonction $G_{f_l}$ en prenant la configuration
+  initiale $(S_y,\phi_{m})$ selon le schéma défini 
+  à l'équation~(\ref{eq:sch:unaire}). 
+\item $\hat{y}$ est le second membre du $q^{\textrm{ème}}$ terme obtenu.
 \end{itemize}
-\end{definition}
-
-
-To summarize, iterations are realized on the LSCs of the
-host content
-(the mode gives the iterate function,  
-the strategy-adapter gives its strategy), 
-and the last computed configuration is re-injected into the host content, 
-in place of the former LSCs.
-
-
-
-%\begin{definition}[Significance of coefficients]\label{def:msc,lsc}
-%Let $(u^k)^{k \in \Nats}$ be a signification function, 
-%$m$ and $M$ be two reals s.t. $m < M$. Then 
-%the \emph{most significant coefficients (MSCs)} of $x$ is the finite 
-%  vector $u_M$, 
-%the \emph{least significant coefficients (LSCs)} of $x$ is the 
-%finite vector $u_m$, and 
-%the \emph{passive coefficients} of $x$ is the finite vector $u_p$ such that:
-%\begin{eqnarray*}
-%  u_M &=& \left( k ~ \big|~ k \in \mathds{N} \textrm{ and } u^k 
-%    \geqslant M \textrm{ and }  k \le \mid x \mid \right) \\
-%  u_m &=& \left( k ~ \big|~ k \in \mathds{N} \textrm{ and } u^k 
-%  \le m \textrm{ and }  k \le \mid x \mid \right) \\
-%   u_p &=& \left( k ~ \big|~ k \in \mathds{N} \textrm{ and } 
-%u^k \in ]m;M[ \textrm{ and }  k \le \mid x \mid \right)
-%\end{eqnarray*}
-% \end{definition}
-
-%For a given host content $x$,
-%MSCs are then ranks of $x$  that describe the relevant part
-%of the image, whereas LSCs translate its less significant parts.
-%We are then ready to decompose an host $x$ into its coefficients and 
-%then to recompose it. Next definitions formalize these two steps. 
-
-%\begin{definition}[Decomposition function]
-%Let $(u^k)^{k \in \Nats}$ be a signification function, 
-%$\mathfrak{B}$ the set of finite binary sequences,
-%$\mathfrak{N}$ the set of finite integer sequences, 
-%$m$ and $M$ be two reals s.t. $m < M$.  
-%Any host $x$ may be decomposed into 
-%$$
-%(u_M,u_m,u_p,\phi_{M},\phi_{m},\phi_{p})
-%\in
-%\mathfrak{N} \times 
-%\mathfrak{N} \times 
-%\mathfrak{N} \times 
-%\mathfrak{B} \times 
-%\mathfrak{B} \times 
-%\mathfrak{B} 
-%$$
-%where
-%\begin{itemize}
-%\item $u_M$, $u_m$, and $u_p$ are coefficients defined in Definition  
-%\ref{def:msc,lsc};
-%\item $\phi_{M} = \left( x^{u^1_M}, x^{u^2_M}, \ldots,x^{u^{|u_M|}_M}\right)$;
-% \item $\phi_{m} = \left( x^{u^1_m}, x^{u^2_m}, \ldots,x^{u^{|u_m|}_m} \right)$;
-% \item $\phi_{p} =\left( x^{u^1_p}, x^{u^2_p}, \ldots,x^{u^{|u_p|}_p}\right) $.
-% \end{itemize}
-%The function that associates the decomposed host to any digital host is 
-%the \emph{decomposition function}. It is 
-%further referred as $\textit{dec}(u,m,M)$ since it is parametrized by 
-%$u$, $m$, and $M$. Notice that $u$ is a shortcut for $(u^k)^{k \in \Nats}$.
-%\end{definition} 
-
-
-%\begin{definition}[Recomposition]
-%Let 
-%$(u_M,u_m,u_p,\phi_{M},\phi_{m},\phi_{p}) \in 
-%\mathfrak{N} \times 
-%\mathfrak{N} \times 
-%\mathfrak{N} \times 
-%\mathfrak{B} \times 
-%\mathfrak{B} \times 
-%\mathfrak{B} 
-%$ s.t.
-%\begin{itemize}
-%\item the sets of elements in $u_M$, elements in $u_m$, and 
-%elements in $u_p$ are a partition of $\llbracket 1, n\rrbracket$;
-%\item $|u_M| = |\varphi_M|$, $|u_m| = |\varphi_m|$, and $|u_p| = |\varphi_p|$.  
-%\end{itemize}
-%One may associate the vector 
-%$$x = 
-%\sum_{i=1}^{|u_M|} \varphi^i_M . e_{{u^i_M}} +  
-%\sum_{i=1}^{|u_m|} \varphi^i_m .e_{{u^i_m}} +  
-%\sum_{i=1}^{|u_p|} \varphi^i_p. e_{{u^i_p}} 
-%$$
-%\noindent where $e_i$ is the sequence whose $j-$th term is equal to $\overline{\Delta(i,j)}$, \emph{i.e.}, $(e_i)_{i \in \mathds{N}}$ is the usual basis of the $\mathds{R}-$vectorial space $\left(\mathds{R}^\mathds{N}, +, .\right)$.
-%The function that associates $x$ to any 
-%$(u_M,u_m,u_p,\phi_{M},\phi_{m},\phi_{p})$ following the above constraints 
-%is called the \emph{recomposition function}.
-%\end{definition}
-
-%The embedding consists to the replacement of the values of 
-%$\phi_{m}$ of $x$'s LSCs  by $y$. 
-%It then composes the two decomposition and
-%recomposition functions seen previously. More formally:
-
-
-%\begin{definition}[Embedding digital media]
-%Let $\textit{dec}(u,m,M)$ be a decomposition function,
-%$x$ be a host content,
-%$(u_M,u_m,u_p,\phi_{M},\phi_{m},\phi_{p})$ be its image by $\textit{dec}(u,m,M)$,
-%and $y$ be a digital media of size $|u_m|$.
-%The digital media $z$ resulting on the embedding of $y$ into $x$ is 
-%% the
-%% result of the \emph{embedding} of $y$ in $x$ if 
-%%  $$
-%%  \forall n \in \llbracket1, |x|\rrbracket , z^n = \left\{
-%%  \begin{array}{ll}
-%%  x^n & \textrm{if } \phi^n_m > m,\\
-%%  y^n & \textrm{else.}
-%%  \end{array}
-%%  \right.
-%%  $$
-%%  
-%% In other words, $z$ is
-%the image of $(u_M,u_m,u_p,\phi_{M},y,\phi_{p})$
-%by  the recomposition function $\textit{rec}$.
-%\end{definition}
-
-%We can now define the information hiding scheme called \emph{dhCI}:
-
-%\begin{definition}[Data hiding dhCI]
-% \label{def:dhCI}
-%Let $\textit{dec}(u,m,M)$ be a decomposition function,
-%$f$ be a mode, 
-%$\mathcal{S}$ be a strategy adapter,
-%$x$ be an host content,\linebreak
-%$(u_M,u_m,u_p,\phi_{M},\phi_{m},\phi_{p})$ be its image by $\textit{dec}(u,m,M)$,  
-%and $y$ be a digital media of size $l=|u_m|$.
-
-
-%The \emph{dhCI dissimulation} is the application that maps any
-%$(x,y)$  to the digital media $z$ resulting on the embedding of
-%$\hat{y}$ into $x$, s.t.
-
-%\begin{itemize}
-%\item We instantiate the mode $f$ with parameter $l=|u_m|$, leading to 
-%  the function $f_{l}:\Bool^{l} \rightarrow \Bool^{l}$.
-%\item We instantiate the strategy adapter $\mathcal{S}$ 
-%with parameter $y$ (and some other ones eventually). 
-%This instantiation leads to the strategy $S_y \in \llbracket 1;l\rrbracket ^{\Nats}$.
-
-%\item We iterate $G_{f_l}$ with initial configuration $(S_y,\phi_{m})$.
-%\item $\hat{y}$ is finally the $l$-th term of these iterations.
-%\end{itemize}
-%\end{definition}
-
-
-%To summarize, some iterations are realized on the LSCs of the
-%host content
-%(the mode gives the iterate function,  
-%the strategy-adapter gives its strategy), 
-%and the last computed state is re-injected into the host content, 
-%in place of the former LSCs.
-
-
-
-
-
-
-Notice that in order to preserve the unpredictable behavior of the system, 
-the size of the digital medias is not fixed.
-This approach is thus self adapted to any media, and more particularly to
-any size of LSCs. 
-However this flexibility enlarges the complexity of the presentation: 
-we had to give Definitions~\ref{def:mode} and~\ref{def:strategy-adapter} 
-respectively of mode and strategy adapter.
+\end{Def}
+
+
+La figure~\ref{fig:organigramme} synthétise la démarche.
 
 \begin{figure}[ht]
 \centering
 %\includegraphics[width=8.5cm]{organigramme2.pdf}
-\includegraphics[width=8.5cm]{organigramme2.eps}
-\caption{The dhCI dissimulation scheme}
+\includegraphics[width=8.5cm]{organigramme22}
+\caption{Le schéma de marquage dhCI}
 \label{fig:organigramme}
 \end{figure}
 
 
-Next section shows how to check whether a media contains a mark.
+
+
+\subsection{Détection d'un média marqué}\label{sub:wmdecoding}
+
+On caractérise d'abord ce qu'est un média marqué selon la méthode énoncée 
+à la section précédente. On considère que l'on connaît
+la marque à embarquer $y$, le support $x$ et que l'on a face à soi un média 
+$z$.
+
+
+\begin{Def}[Média marqué]
+Soit $\textit{dec}(u,m,M)$ une fonction de décomposition,
+$f$ un  mode, 
+$\mathcal{S}$ un adapteur de stratégie,
+$q$ un entier naturel strictement positif,
+$y$ un média digital et soit  
+$(u_M,u_m,u_p,\phi_{M},\phi_{m},\phi_{p})$ l'image par 
+$\textit{dec}(u,m,M)$  du média  $x$. 
+Alors, $z$ est \emph{marqué} avec $y$ si l'image 
+par $\textit{dec}(u,m,M)$ de $z$ est 
+$(u_M,u_m,u_p,\phi_{M},\hat{y},\phi_{p})$, où
+$\hat{y}$ est le second membre de  $G_{f_l}^q(S_y,\phi_{m})$.
+\end{Def}
+
+% Plusieurs stratégies peuvent être utilisées pour déterminer si une image $z$ 
+% est marquée, en particulier si l'image a été attaquée entre temps.
+% On s'intéressera aux mesures de similarité entre $x$ et $z$.
+
+\section{Analyse de sécurité (probabilistes)}\label{sec:watermarking:security:probas}
+
+
+Récemment~\cite{Cayre2005,Perez06} ont proposé des classes de sécurité pour le
+marquage d'information. Parmi celles-ci, la stego-sécurité a été au centre 
+des travaux puisqu'elle représente la classe la plus élevée dans le contexte où
+l'attaquant n'a accès qu'à l'hôte marqué $z$.
+
+Cette définition probabiliste est rappelée ci-après.
+Soit $\mathds{K}$ un ensemble de clefs, $p(X)$ un modèle probabiliste 
+de $N_0$ hôtes,  et $p(Y|K)$ le modèle probabiliste de $N_0$ contenus marqués avec la 
+même clé $K$ et le même algorithme d'embarquement.
+
+\begin{Def}[Stégo-Sécurité~\cite{Cayre2008}]
+\label{Def:Stego-security} 
+La fonction d'embarquement est \emph{stégo-sécure}
+si la propriété $\forall K \in \mathds{K}, p(Y|K)=p(X)$ est établie.
+\end{Def}
+
+Il a déjà été démontré~\cite{guyeuxphd,gfb10:ip}
+que l'algorithme de marquage dont le mode est la fonction 
+négation est stégo-sécure. 
+Un des intérêts de l'algorithme présenté ici est qu'il est paramétré par un mode.
+Lorsque celui-ci a les même propriétés que celles vues pour la création de PRNG (\textit{i.e.} graphe des itérations fortement connexes et matrice de Markov doublement 
+stochastique), on a un marquage qui peut être rendu stégo-sécure à $\varepsilon$ près,
+ce que précise le théorème suivant. La preuve de ce théorème est donnée 
+en annexes~\ref{anx:marquage}.
+
+
+\begin{restatable}[$\varepsilon$-stego sécurité]{theorem}{theoremstegoscureepsilon}
+\label{th:stego}
+Soit  $\varepsilon$ un nombre positif, 
+$l$ un nombre de LSBs, 
+$X   \sim \mathbf{U}\left(\mathbb{B}^l\right)$,
+un adapteur de stratégie uniformément distribué indépendant de $X$
+$f_l$ un mode tel que  
+$\textsc{giu}(f_l)$ est fortement connexe et la 
+matrice de Markov associée à  $f_l$ est doublement stochastique.
+Il existe un nombre $q$ d'itérations tel que 
+$|p(Y|K)- p(X)| < \varepsilon$. 
+\end{restatable}
+
+
+
+\section{Analyse de sécurité (chaos)}\label{sec:watermarking:security:chaos}
+On rappelle uniquement la définition de chaos-sécurité
+introduite dans~\cite{guyeuxphd}.
+
+
+\begin{Def}[Chaos-sécurité]
+\label{DefinitionChaosSecure}
+Un schéma de marquage $S$ est chaos-sécure sur un espace topologique
+$(\mathcal{X},\tau)$
+si sa version itérative 
+a un comportement chaotique sur celui-ci.
+\end{Def}
+
+Tout repose ainsi sur la capacité que l'on a à produire des fonctions 
+dont le graphe des itérations unaires sera fortement connexe.
+Ceci a déjà été traité au chapitre~\ref{chap:carachaos}.
+La seule complexité est l'adaptabilité de la fonction au  nombre $l$ de LSBs.
+
+On considère par exemple le  mode
+$f_l: \Bool^l \rightarrow \Bool^l$ t.q. le $i^{\textrm{ème}}$ composant 
+est défini par 
+\begin{equation}
+{f_l}(x)_i =
+\left\{
+\begin{array}{l}
+\overline{x_i} \textrm{ si $i$ est impair} \\
+x_i \oplus x_{i-1} \textrm{ si $i$ est pair}
+\end{array}
+\right.
+\end{equation}\label{eq:fqq}
+
+on peut déduire immédiatement du théorème~\ref{th:Adrien} (chap.~\ref{chap:carachaos})
+que le graphe $\textsc{giu}(f_l)$ est fortement connexe.
+La preuve de double-stochasticité de la matrice associée 
+à $f_l$ est donnée en annexe~\ref{anx:marquage:dblesto}.
+On dispose ainsi d'un nouvel algorithme de marquage $\varepsilon$-stégo-sécure et 
+chaos-sécure.
+
+\section{Applications aux domaines fréquentiels}\label{sec:watermarking:frequentiel}
+Le schéma d'algorithme présenté dans ce chapitre a été appliqué au marquage d'images 
+dans les coefficients DCT et les DWT.
+
+\subsection{Fonction de signification pour l'embarquement dans les DCT} 
+On considère un hôte $x$ de taille $H \times L$ dans le domaine fréquentiel DCT.
+Dans chaque bloc de taille $8\times 8$, à chaque bit
+la fonction de signification $u$ associe
+
+\begin{itemize}
+\item 1 si c'est un bit apparaissant dans la représentation binaire de la valeur d'un coefficient dont les coordonnées appartiennent à $\{(1,1),(2,1),(1,2)\}$,
+\item 1 si c'est un bit apparaissant dans la représentation binaire de la valeur 
+  d'un coefficient dont les 
+  coordonnées appartiennent à $\{(3,1),(2,2),(1,3)\}$ et qui n'est pas un des trois 
+  bits de poids faible de cette représentation,
+\item -1 si c'est un bit apparaissant dans la représentation binaire
+de la valeur d'un coefficient dont les 
+  coordonnées appartiennent à $\{(3,1),(2,2),(1,3)\}$ et qui est un des 
+ trois bits de poids faible  de cette valeur,
+\item 0 sinon.
+\end{itemize}
+Le choix de l'importance de chaque coefficient est défini grâce aux seuils  
+$(m,M)=(-0.5,0.5)$ 
+permettant d'engendrer les MSBs, LSBs, et bits passifs.
+
+
+\subsection{Fonction de signification pour l'embarquement dans les DWT} 
+
+On considère un hôte dans le domaine des DWT. La fonction de signification 
+se concentre sur les seconds niveaux de détail (\textit{i.e.}, LH2, HL2 et HH2).
+Pour chaque bit, on dit qu'il est peu significatif si c'est un des trois bits de 
+poids faible d'un coefficient de  LH2, HL2 ou de  HH2.
+Formellement  à chaque bit
+la fonction de signification $u$ associe
+
+\begin{itemize}
+\item 1 si c'est un bit apparaissant dans la représentation binaire de la valeur d'un coefficient de type LL2, 
+\item 1 si c'est un bit apparaissant dans la représentation binaire de la valeur d'un coefficient de type LH2, HL2, HH2 et qui n'est pas un des trois 
+  bits de poids faible de cette représentation,
+\item 0 si c'est un bit apparaissant dans la représentation binaire de la valeur d'un coefficient de type LH2, HL2, HH2 et qui est un des trois 
+  bits de poids faible de cette représentation,
+\item -1 sinon.
+\end{itemize}
+Le choix de l'importance de chaque coefficient est encore défini grâce aux seuils  
+$(m,M)=(-0.5,0.5)$ 
+permettant d'engendrer les MSBs, LSBs, et bits passifs.
+
+
+\subsection{Etude de robustesse}
+Cette partie synthétise une étude de robustesse de la démarche présentée ci-avant.
+Dans ce qui suit, {dwt}(neg), 
+{dwt}(fl), {dct}(neg), {dct}(fl) 
+correspondant respectivement aux embarquements en fréquentiels 
+dans les domaines  DWT et  DCT 
+avec le mode de négation et celui issu de la fonction $f_l$
+détaillée à l'équation~\ref{eq:fqq}.
+
+A chaque série d'expériences, un ensemble de 50 images est choisi aléatoirement 
+de la base du concours BOSS~\cite{Boss10}. Chaque hôte est une image 
+en $512\times 512$ en niveau de gris et la marque $y$ est une suite de
+4096 bits.
+La résistance à la robustesse est évaluée en appliquant successivement
+sur l'image marquée des attaques de découpage, de compression, de 
+transformations géométriques. 
+Si les différences entre  $\hat{y}$ and $\varphi_m(z)$.
+sont en dessous d'un seuil (que l'on définit), 
+l'image est dite marquée (et non marquée dans le cas contraire).
+Cette différence exprimée en pourcentage est rappelée pour chacune des attaques
+à la figure~\ref{fig:atq:dhc}.
+
+
+\begin{figure}[ht]
+  \centering
+  \subfigure[Découpage]{
+    \includegraphics[width=0.5\textwidth]{atq-dec}\label{Fig:atq:dec:curves}
+  }
+  \subfigure[Compression JPEG]{
+    \includegraphics[width=0.45\textwidth]{atq-jpg}\label{Fig:atq:jpg:curves}
+  }
+  \subfigure[Compression JPEG 2000]{
+    \includegraphics[width=0.45\textwidth]{atq-jp2}\label{Fig:atq:jp2:curves}
+  }
+  \subfigure[Modification du contraste]{
+    % \includegraphics[width=0.45\textwidth]{atq-contrast.pdf}\label{Fig:atq:cont:curve}}
+    \includegraphics[width=0.45\textwidth]{atq-contrast}\label{Fig:atq:cont:curve}
+  }
+  \subfigure[Accentuation des bords]{
+    % \includegraphics[width=0.45\textwidth]{atq-flou.pdf}\label{Fig:atq:sh:curve}}
+    \includegraphics[width=0.45\textwidth]{atq-flou}\label{Fig:atq:sh:curve}
+  }
+  \subfigure[Rotation]{
+    % \includegraphics[width=0.45\textwidth]{atq-rot.pdf}\label{Fig:atq:rot:curve}}
+    \includegraphics[width=0.45\textwidth]{atq-rot}\label{Fig:atq:rot:curve}
+  }
+\caption{Illustration de la robustesse}\label{fig:atq:dhc}
+\end{figure}
+
+
+\subsection{Évaluation de l'embarquement}\label{sub:roc}
+Pour évaluer le seuil qui permet de dire avec la plus grande précision 
+si une image est marquée ou non, nous avons appliqué la démarche suivante.
+A partir d'un ensemble de 100 images du challenge BOSS, les trois 
+ensembles suivants sont construits: celui des images marquées $W$,
+celui contenant des images marquées puis attaquée $\textit{WA}$,
+et celui des images uniquement attaquées $A$. Les attaques sont choisies parmi 
+celles données ci dessus.
+
+Pour chaque entier $t$ entre 5 et 55 
+et chaque  image $x \in \textit{WA} \cup A$,
+on calcule la différence entre  $\hat{y}$ et $\varphi_m(z)$.
+L'image est dite marquée si cette différence est en dessous du seuil $t$  considéré  
+\begin{itemize}
+\item si elle est dite marquée et si $x$ appartient  à $\textit{WA}$
+  c'est un vrai cas positif (TP);
+\item si elle est dite non marquée et si $x$ appartient cependant à $\textit{WA}$
+  c'est un faux cas négatif (FN);
+\item si elle est dite marquée et si $x$ appartient cependant à $\textit{A}$
+  c'est un faux cas positif (FP);
+\item enfin si elle est dite non marquée et si $x$ appartient à $\textit{A}$
+  c'est un vrai cas négatif (TN).
+\end{itemize}
+
+
+\begin{figure}[ht]
+\begin{center}
+\includegraphics[width=7cm]{ROC}
+\end{center}
+\caption{Courbes ROC de seuils de détection}\label{fig:roc:dwt}
+\end{figure}
+
+La courbe ROC construite à partir des points de coordonnées (TP,FP) issus 
+de ces seuils est 
+donnée à la figure~\ref{fig:roc:dwt}. 
+Pour la fonction $f_l$ et pour la fonction négation respectivement, 
+la détection est optimale pour le seuil de 45\% correspondant au point (0.01, 0.88)
+et pour le seuil de  46\%  correspondant au point (0.04, 0.85) 
+dans le domaine DWT.
+Pour les deux modes dans le domaine DCT, 
+la détection est optimale pour le seuil de 44\% 
+(correspondant aux points (0.05, 0.18) et (0.05, 0.28)).
+On peut alors donner des intervalles de confiance pour les attaques évaluées.
+L'approche est résistante:
+\begin{itemize}
+\item à tous les découpages où le pourcentage est inférieur à 85\%;
+\item aux compression dont le ratio est supérieur à 82\% dans le domaine 
+  DWT et  67\% dans celui des DCT;
+\item aux modifications du contraste lorsque le renforcement est dans 
+  $[0.76,1.2]$ dans le domaine DWT et  $[0.96,1.05]$ dans le domaine DCT;
+\item à toutes les rotations dont l'angle est inférieur à 20 degrés dans le domaine DCT et 
+  celles dont l'angle est inférieur à 13 degrés dans le domaine DWT.
+\end{itemize}
+
+
+\section{Embarquons davantage qu'1 bit}\label{sec:watermarking:extension}
+L'algorithme présenté dans les sections précédentes
+ne  permet de savoir, \textit{in fine}, 
+que si l'image est marquée ou pas. Cet algorithme ne permet pas
+de retrouver le contenu de la marque à partir de l'image marquée.
+C'est l'objectif de l'algorithme présenté dans cette section et introduit 
+dans~\cite{fgb11:ip}.
+Pour des raisons de lisibilité, il n'est pas 
+présenté pas dans le formalisme de la première section et
+est grandement synthétisé.
+Il a cependant été prouvé comme étant chaos-sécure~\cite{fgb11:ip}.
+
+
+
+Commençons par quelques conventions de notations: 
+\begin{itemize}
+\item $\mathbb{S}_\mathsf{k}$ est l'ensemble des stratégies unaire sur $[k]$;
+\item $m^0 \in \mathbb{B}^{\mathsf{P}}$ est un vecteur de $\mathsf{P}$ bits
+  représentant la marque;
+\item comme précédemment, 
+  $x^0 \in \mathbb{B}^\mathsf{N}$ est le vecteurs des
+   $\mathsf{N}$ bits sélectionnés où la marque est embarquée.
+ \item $S_p \in \mathbb{S}_\mathsf{N}$ 
+   est la \emph{stratégie de place} et définit quel 
+   élément de $x$ est modifié à chaque itération;
+  \item $S_c \in \mathbb{S}_\mathsf{P}$ est la \textbf{stratégie de  choix}
+    qui définit quel indice du vecteur de marque est embarqué à chaque 
+    itération;
+  \item $S_m \in \mathbb{S}_\mathsf{P}$ est la \textbf{stratégie de mélange}
+    qui précise quel élément de la marque est inversé à chaque itération.
+\end{itemize}
+
+% In what follows, $x^0$ and $m^0$ are sometimes replaced by
+% $x$ and $m$ for the sake of brevity, 
+% when such abridge does not introduce confusion. 
+
+
+% \subsection{The $\CID$ scheme}\label{sub:ci2:scheme}
+Le processus itératif modifiant $x$ est défini comme suit.
+Pour chaque $(n,i,j) \in  
+\mathds{N}^{\ast} \times \llbracket 0;\mathsf{N}-1\rrbracket \times \llbracket
+0;\mathsf{P}-1\rrbracket$, on a:
+\begin{equation*}
+\left\{
+\begin{array}{l}
+x_i^n=\left\{
+\begin{array}{ll}
+x_i^{n-1} & \text{ si }S_p^n\neq i \\
+m_{S_c^n}^{n-1} & \text{ si }S_p^n=i.
+\end{array}
+\right.
+\\
+\\
+m_j^n=\left\{
+\begin{array}{ll}
+m_j^{n-1} & \text{ si }S_m^n\neq j \\
+ & \\
+\overline{m_j^{n-1}} & \text{ si }S_m^n=j.
+\end{array}
+\right.
+\end{array}
+\right.
+\end{equation*}
+%\end{Def}
+\noindent où $\overline{m_j^{n-1}}$ est la négation booléenne de $m_j^{n-1}$.
+On impose de plus la contrainte suivante.
+Soit $\Im(S_p) = \{S^1_p, S^2_p, \ldots,  S^l_p\}$ 
+l'ensemble de cardinalité $k \leq l$ (les doublons sont supprimés).  
+qui contient la liste des indices $i$, $1 \le i \le p$,
+tels que $x_i$ a été modifié.
+On considère $\Im(S_c)_{|D}= \{S^{d_1}_c, S^{d_2}_c, \ldots,  S^{d_k}_c\}$
+où  
+$d_i$ est la dernière date où l'élément $i \in \Im(S_p)$ a été modifié.   
+Cet ensemble doit être égal à $\llbracket 0 ;\mathsf{P} -1 \rrbracket$.
+
+Pour peu que l'on sache satisfaire la contrainte précédente,
+on remplace $x $ par $x^l \in \mathbb{B}^{\mathsf{N}}$ dans
+l'hôte et on obtient un contenu marqué.
+
+
+Sans attaque, le schéma doit garantir qu'un utilisateur qui dispose des bonnes 
+clefs de création des stratégies est capable d'extraire une marque et que 
+celle-ci est la marque insérée.
+Ceci correspond respectivement aux propriétés de complétude et de correction
+de l'approche.
+L'étude de ces propriétés est l'objectif de la section qui suit.
+
+
+
+
+
+
+\subsection{Correction et complétude du schéma}\label{sub:ci2:discussion}
+
+On ne donne ici que le théorème. La preuve est placée en annexes~\ref{anx:preuve:marquage:correctioncompletue}.
+
+\begin{restatable}[Correction et complétude du marquage]{theorem}{marquagecorrectioncompl}
+La condition de l'algorithme de marquage est nécessaire et suffisante
+pour permettre l'extraction du message du média marqué.
+\end{restatable}
+
+Sous ces hypothèse, on peut donc extraire un message.
+De plus,  le cardinal $k$ de  
+$\Im(S_p)$ est supérieur ou égal à  $\mathsf{P}$.
+Ainsi le bit  $j$ du message original $m^0$ peut être 
+embarqué plusieurs fois dans $x^l$. 
+Or, en comptant le nombre de fois où ce  bit a été inversé dans 
+$S_m$, la valeur de $m_j$ peut se déduire en plusieurs places. 
+Sans attaque, toutes ces valeurs sont identiques 
+et le message est obtenu immédiatement.
+Si attaque il y a, la valeur de $m_j$ peut s'obtenir en prenant la valeur 
+moyenne de toutes les valeurs obtenues. 
+
+\subsection{Détecter si le média est marqué}\label{sub:ci2:distances}
+On considère un média $y$ marqué par un message $m$. 
+Soit $y'$ une version altérée de $y$, c.-à-d. une version  
+où certains bits ont été modifiés et soit
+$m'$ le message extrait de   $y'$. 
+
+Pour mesurer la distance entre $m'$ et $m$, on 
+considère respectivement 
+$M$ et $M'$ l'ensemble des indices de $m$ et de $m'$ 
+où $m_i$ vaut 1 et ou $m'_1$ vaut 1.
+
+Beaucoup de mesures de similarité~\cite{yule1950introduction,Anderberg-Cluster-1973,Rifqi:2000:DPM:342947.342970}, dépendent des ensembles
+$a$, $b$, $c$ et $d$ définis par
+$a = |M \cap M' |$, 
+$b = |M \setminus M' |$,
+$c = |M' \setminus M|$ et 
+$d = |\overline{M} \cap \overline{M'}|$
+
+Selon ~\cite{rifq/others03} la mesure de Fermi-Dirac $S_{\textit{FD}}$
+est celle dont le pouvoir de discrimination est le plus fort, 
+c.-à-d. celle qui permet la séparation la plus forte entre des vecteurs 
+corrélés et des des vecteurs qui ne le sont pas.
+La distance entre $m$ et $m'$ est construite selon cette mesure 
+et produit un réel dans $[0;1]$. Si elle est inférieure à un certain 
+seuil (à définir), le média $y'$ est déclaré 
+comme marqué et le message doit pouvoir être extrait.
+
+\subsection{Etude de robustesse}\label{sec:watermarking:robustesse} 
+La méthode d'expérimentation de robustesse appliquée à la section précédente 
+pourrait être réappliquée ici et nous pourrions obtenir, grâce aux courbes de 
+ROC une valeur seuil pour déterminer si une marque est présente ou pas.
+Dans~\cite{bcfg+13:ip}, nous n'avons cependant pas poussé
+la démarche plus loin que dans la direction de l'embarquement 
+dans les bits de poids faible en spatial et l'on sait que ceci est 
+particulièrement peu robuste. 
+
+
+\section{Conclusion}
+Grâce à la formalisation du processus de watermarking par itérations discrètes, nous avons pu dans ce chapitre montrer que le processus possédait les propriétés
+attendues, à savoir stego-sécurité, chaos sécurité et une robustesse relative.
+Pour étendre le champ applicatif, nous avons proposé un second algorithme
+permettant de particulariser la marque à embarquer et donc à extraire.
+Le chapitre suivant s'intéresse au marquage, mais dans un autre domaine que celui des images.
+