]> AND Private Git Repository - chaos1.git/blob - main.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
Fin de la relecture
[chaos1.git] / main.tex
1 % ****** Start of file chaos-paper.tex ******
2 %
3 \documentclass[%
4 aip,
5 cha,% long, 
6 numerical bibliography, %(default)
7 %jcp,% short, numerical bibliography, 
8 %jmp,
9 amsmath,amssymb,
10 preprint,%
11 %reprint,%
12 %author-year,%
13 %author-numerical,%
14 ]{revtex4-1}
15
16 \usepackage{graphicx}% Include figure files
17 \usepackage{dcolumn}% Align table columns on decimal point
18 \usepackage{bm}% bold math
19 \usepackage{color}
20 \usepackage{ulem}
21 \usepackage[mathlines]{lineno}% Enable numbering of text and display math
22 \linenumbers\relax % Commence numbering lines
23 % The amssymb package provides various useful mathematical symbols
24 \usepackage{amssymb}
25 % The amsthm package provides various useful mathematical fonts
26 \usepackage{amsfonts}
27 % Various mathematical packages
28 \PassOptionsToPackage{cmex10draft}{graphics}
29 \usepackage[standard]{ntheorem}
30 % Various packages
31 \usepackage{stmaryrd} % llbracket
32 \usepackage{dsfont}   % mathds
33 \usepackage{multirow} % tables
34
35 \newcommand{\ie}{\textit{i.e.}}
36 \newcommand{\Nats}[0]{\ensuremath{\mathds{N}}}
37 \newcommand{\R}[0]{\ensuremath{\mathds{R}}}
38 \newcommand{\Bool}[0]{\ensuremath{\mathds{B}}}
39
40 \begin{document}
41
42 \title[Neural Networks and Chaos]{Neural Networks and Chaos:
43 Construction, Evaluation of Chaotic Networks, \\
44 and Prediction of Chaos with Multilayer Feedforward Networks
45 }
46
47 \author{Jacques M. Bahi}
48 \author{Jean-Fran\c{c}ois Couchot}
49 \author{Christophe Guyeux}
50 \email{christophe.guyeux@univ-fcomte.fr.}
51 \author{Michel Salomon}
52 \altaffiliation[Authors in ]{alphabetic order} 
53 \affiliation{
54 Computer Science Laboratory (LIFC), University of Franche-Comt\'e, \\
55 IUT de Belfort-Montb\'eliard, BP 527, \\
56 90016 Belfort Cedex, France
57 }
58
59 \date{\today}
60
61 \newcommand{\CG}[1]{\begin{color}{red}\textit{#1}\end{color}}
62 \newcommand{\JFC}[1]{\begin{color}{blue}\textit{#1}\end{color}}
63 \newcommand{\MS}[1]{\begin{color}{green}\textit{#1}\end{color}}
64
65 \begin{abstract}
66 %% Text of abstract
67 Many  research works  deal with  chaotic neural  networks  for various
68 fields  of application. Unfortunately,  up to  now these  networks are
69 usually  claimed to be  chaotic without  any mathematical  proof.  The
70 purpose of this paper is to establish, based on a rigorous theoretical
71 framework,  an  equivalence between  chaotic  iterations according  to
72 Devaney and a particular class of  neural networks. On the one hand we
73 show  how to build  such a  network, on  the other  hand we  provide a
74 method to  check if a neural  network is a chaotic  one.  Finally, the
75 ability of classical feedforward  multilayer perceptrons to learn sets
76 of data obtained from a dynamical system is regarded.  Various Boolean
77 functions are  iterated on finite  states. Iterations of some  of them
78 are  proven to  be  chaotic as  it  is defined  by  Devaney.  In  that
79 context,  important   differences  occur  in   the  training  process,
80 establishing with  various neural networks that  chaotic behaviors are
81 far more difficult to learn.
82 \end{abstract}
83
84 %%\pacs{Valid PACS appear here}% PACS, the Physics and Astronomy
85 % Classification Scheme.
86 %%\keywords{Suggested keywords}%Use showkeys class option if keyword
87 %display desired
88 \maketitle
89
90 \begin{quotation}
91
92 Chaotic neural  networks have received a  lot of attention  due to the
93 appealing   properties  of   deterministic   chaos  (unpredictability,
94 sensitivity,  and so  on). However,  such networks  are  often claimed
95 chaotic without  any rigorous mathematical proof.   Therefore, in this
96 work  a theoretical  framework based  on the  Devaney's  definition of
97 chaos is  introduced.  Starting  with a relationship  between discrete
98 iterations  and  Devaney's chaos,  we  firstly  show  how to  build  a
99 recurrent  neural network  that is  equivalent  to a  chaotic map  and
100 secondly  a way  to check  whether  an already  available network  is
101 chaotic  or not.  We  also study  different topological  properties of
102 these  truly  chaotic neural  networks.   Finally,  we  show that  the
103 learning,  with   neural  networks  having   a  classical  feedforward
104 structure, of chaotic behaviors represented by data sets obtained from
105 chaotic maps, is far more difficult than non chaotic behaviors.
106 \end{quotation}
107
108 %% Main text
109 \section{Introduction}
110 \label{S1}
111
112 Several research  works have proposed or used  chaotic neural networks
113 these last  years.  The  complex dynamics of  such networks  lead to
114 various       potential      application       areas:      associative
115 memories~\cite{Crook2007267}  and  digital  security tools  like  hash
116 functions~\cite{Xiao10},                                       digital
117 watermarking~\cite{1309431,Zhang2005759},           or          cipher
118 schemes~\cite{Lian20091296}.  In the  former case, the background idea
119 is to  control chaotic dynamics in  order to store  patterns, with the
120 key advantage  of offering a  large storage capacity.  For  the latter
121 case,   the  use   of   chaotic  dynamics   is   motivated  by   their
122 unpredictability and random-like behaviors.  Indeed, investigating new
123 concepts  is crucial  for  the computer  security  field, because  new
124 threats  are constantly  emerging.   As an  illustrative example,  the
125 former  standard in hash  functions, namely  the SHA-1  algorithm, has
126 been recently weakened after flaws were discovered.
127
128 Chaotic neural networks have  been built with different approaches. In
129 the context of associative  memory, chaotic neurons like the nonlinear
130 dynamic  state neuron  \cite{Crook2007267}  frequently constitute  the
131 nodes of the network. These neurons have an inherent chaotic behavior,
132 which  is usually  assessed through  the computation  of  the Lyapunov
133 exponent.  An alternative approach  is to consider a well-known neural
134 network architecture: the  MultiLayer Perceptron (MLP). These networks
135 are  suitable to model  nonlinear relationships  between data,  due to
136 their            universal            approximator            capacity
137 \cite{Cybenko89,DBLP:journals/nn/HornikSW89}.   Thus,   this  kind  of
138 networks can  be trained  to model a  physical phenomenon known  to be
139 chaotic such as Chua's circuit \cite{dalkiran10}.  Sometime a neural
140 network,  which is build  by combining  transfer functions  and initial
141 conditions  that are  both chaotic,  is itself  claimed to  be chaotic
142 \cite{springerlink:10.1007/s00521-010-0432-2}.
143
144 What all of these chaotic neural  networks have in common is that they
145 are claimed to be chaotic  despite a lack of any rigorous mathematical
146 proof.   The first contribution  of this  paper is  to fill  this gap,
147 using  a theoretical framework  based on  the Devaney's  definition of
148 chaos \cite{Devaney}.  This mathematical theory of chaos provides both
149 qualitative and quantitative tools to evaluate the complex behavior of
150 a  dynamical  system:  ergodicity,   expansivity,  and  so  on.   More
151 precisely, in  this paper,  which is an  extension of a  previous work
152 \cite{bgs11:ip},   we  establish   the  equivalence   between  chaotic
153 iterations  and  a  class  of  globally  recurrent  MLP.   The  second
154 contribution is a  study of the converse problem,  indeed we investigate the
155 ability  of classical  multiLayer  perceptrons to  learn a  particular
156 family of discrete chaotic  dynamical systems.  This family is defined
157 by a Boolean vector, an update function, and a sequence defining the
158 component  to  update  at  each  iteration.  It  has  been  previously
159 established that  such dynamical systems are  chaotically iterated (as
160 it  is defined by  Devaney) when  the chosen  function has  a strongly
161 connected iterations  graph.  In this document,  we experiment several
162 MLPs and  try to  learn some  iterations of this  kind.  We  show that
163 non-chaotic  iterations  can  be  learned,  whereas  it  is  far  more
164 difficult for  chaotic ones.   That is to  say, we have  discovered at
165 least  one  family of  problems  with  a  reasonable size,  such  that
166 artificial  neural  networks  should  not  be  applied  due  to  their
167 inability to learn chaotic behaviors in this context.
168
169 The remainder of this research  work is organized as follows. The next
170 section is devoted to the basics of Devaney's chaos.  Section~\ref{S2}
171 formally  describes  how  to  build  a neural  network  that  operates
172 chaotically.  Section~\ref{S3} is devoted to the dual case of checking
173 whether  an existing neural  network is  chaotic or  not.  Topological
174 properties of chaotic neural networks are discussed in Sect.~\ref{S4}.
175 The  Section~\ref{section:translation}  shows  how to  translate  such
176 iterations  into  an Artificial  Neural  Network  (ANN),  in order  to
177 evaluate the  capability for this  latter to learn  chaotic behaviors.
178 This  ability  is  studied in  Sect.~\ref{section:experiments},  where
179 various ANNs try to learn two  sets of data: the first one is obtained
180 by chaotic iterations while the  second one results from a non-chaotic
181 system.  Prediction success rates are  given and discussed for the two
182 sets.  The paper ends with a conclusion section where our contribution
183 is summed up and intended future work is exposed.
184
185 \section{Chaotic Iterations according to  Devaney}
186
187 In this section, the well-established notion of Devaney's mathematical
188 chaos is  firstly recalled.   Preservation of the  unpredictability of
189 such dynamical  system when implemented  on a computer is  obtained by
190 using  some discrete  iterations  called ``asynchronous  iterations'',
191 which are  thus introduced.  The result establishing  the link between
192 such iterations and Devaney's chaos is finally presented at the end of
193 this section.
194
195 In what follows and for  any function $f$, $f^n$ means the composition
196 $f \circ f \circ \hdots \circ f$ ($n$ times) and an {\bf iteration} of
197 a {\bf  dynamical system}  is the step  that consists in  updating the
198 global  state  $x^t$  at time  $t$  with  respect  to a  function  $f$
199 s.t. $x^{t+1} = f(x^t)$.
200
201 \subsection{Devaney's chaotic dynamical systems}
202
203 Various domains such as  physics, biology, or economy, contain systems
204 that exhibit a chaotic behavior,  a well-known example is the weather.
205 These  systems   are  in   particular  highly  sensitive   to  initial
206 conditions, a concept usually presented as the butterfly effect: small
207 variations in the initial conditions possibly lead to widely different
208 behaviors.  Theoretically speaking, a  system is sensitive if for each
209 point  $x$ in  the  iteration space,  one  can find  a  point in  each
210 neighborhood of $x$ having a significantly different future evolution.
211 Conversely, a  system seeded with  the same initial  conditions always
212 has  the same  evolution.   In  other words,  chaotic  systems have  a
213 deterministic  behavior  defined through  a  physical or  mathematical
214 model  and a  high  sensitivity to  the  initial conditions.   Besides
215 mathematically this  kind of unpredictability  is also referred  to as
216 deterministic chaos.  For example, many weather forecast models exist,
217 but they give only suitable predictions for about a week, because they
218 are initialized with conditions  that reflect only a partial knowledge
219 of the current weather.  Even  if the differences are initially small,
220 they are  amplified in the course  of time, and thus  make difficult a
221 long-term prediction.  In fact,  in a chaotic system, an approximation
222 of  the current  state is  a  quite useless  indicator for  predicting
223 future states.
224
225 From  mathematical  point  of   view,  deterministic  chaos  has  been
226 thoroughly studied  these last decades, with  different research works
227 that  have   provide  various  definitions  of   chaos.   Among  these
228 definitions,    the   one    given   by    Devaney~\cite{Devaney}   is
229 well-established.   This  definition  consists  of  three  conditions:
230 topological  transitivity, density of  periodic points,  and sensitive
231 point dependence on initial conditions.
232
233 {\bf  Topological transitivity} is  checked when,  for any  point, any
234 neighborhood of its future evolution eventually overlap with any other
235 given region.  This property implies that a dynamical system cannot be
236 broken into simpler subsystems.   Intuitively, its complexity does not
237 allow any  simplification.  
238
239 However, chaos needs some regularity to ``counteracts'' the effects of
240 transitivity. % Thus, two points close to each other can behave in a completely different manner, the first one visiting the whole space whereas the second one has a regular orbit.
241 In the Devaney's formulation, a dense set  of periodic
242 points is the element of regularity that a chaotic dynamical system has
243 to exhibit.
244 %\begin{definition} \label{def3}
245 We recall that a  point $x$ is a {\bf periodic point} for $f$ of 
246 period~$n \in \mathds{N}^{\ast}$ if $f^{n}(x)=x$.
247 %\end{definition}
248 Then, the map 
249 %\begin{definition} \label{def4}
250 $f$ is {\bf regular}  on the topological space $(\mathcal{X},\tau)$ if
251 the set of periodic points for  $f$ is dense in $\mathcal{X}$ (for any
252 $x \in \mathcal{X}$, we can find at least one periodic point in any of
253 its neighborhood).
254 %\end{definition}
255 Thus, due to these two properties,  two points close to each other can
256 behave in  a completely different manner,  leading to unpredictability
257 for the whole system.
258
259 Let  us recall  that  $f$  has {\bf  sensitive  dependence on  initial
260   conditions} if  there exists  $\delta >0$ such  that, for  any $x\in
261 \mathcal{X}$ and any neighborhood $V$ of $x$, there exist $y\in V$ and
262 $n  > 0$ such  that $d\left(f^{n}(x),  f^{n}(y)\right) >\delta  $. The
263 value $\delta$ is called the {\bf constant of sensitivity} of $f$.
264
265 Finally,  the  dynamical system  that  iterates  $f$  is {\bf  chaotic
266   according  to Devaney}  on $(\mathcal{X},\tau)$  if $f$  is regular,
267 topologically transitive, and has  sensitive dependence to its initial
268 conditions.   In  what follows,  iterations  are  said  to be  chaotic
269 (according to Devaney)  when the corresponding  dynamical system  is  chaotic, as it is defined in the Devaney's formulation.
270
271 %Let us notice that for a  metric space the last condition follows from
272 %the two first ones~\cite{Banks92}.
273
274 \subsection{Asynchronous Iterations}
275
276 %This section  presents some basics on  topological chaotic iterations.
277 Let us  firstly discuss about the  domain of iteration.  As  far as we
278 know, no result rules that  the chaotic behavior of a dynamical system
279 that  has been  theoretically  proven  on $\R$  remains  valid on  the
280 floating-point numbers, which is  the implementation domain.  Thus, to
281 avoid  loss of chaos  this work  presents an  alternative, that  is to
282 iterate Boolean maps: results  that are theoretically obtained in that
283 domain are preserved in implementations.
284
285 Let us denote by $\llbracket  a ; b \rrbracket$ the following interval
286 of integers: $\{a, a+1, \hdots, b\}$, where $a~<~b$.  In this section,
287 a {\it  system} under consideration iteratively  modifies a collection
288 of $n$~components.  Each component  $i \in \llbracket 1; n \rrbracket$
289 takes  its  value $x_i$  among  the  domain  $\Bool=\{0,1\}$.  A  {\it
290   configuration} of the system at discrete time $t$ is the vector
291 %\begin{equation*}   
292 $x^{t}=(x_1^{t},\ldots,x_{n}^{t}) \in \Bool^n$.
293 %\end{equation*}
294 The dynamics of the system is  described according to a  function $f :
295 \Bool^n \rightarrow \Bool^n$ such that
296 %\begin{equation*} 
297 $f(x)=(f_1(x),\ldots,f_n(x))$.
298 %\end{equation*}
299 % Notice that $f^k$ denotes the 
300 % $k-$th composition $f\circ \ldots \circ f$ of the function $f$.
301
302 Let    be   given    a   configuration    $x$.    In    what   follows
303 $N(i,x)=(x_1,\ldots,\overline{x_i},\ldots,x_n)$  is  the configuration
304 obtained by switching the $i-$th component of $x$ ($\overline{x_i}$ is
305 indeed  the negation  of $x_i$).   Intuitively, $x$  and  $N(i,x)$ are
306 neighbors.   The discrete  iterations of  $f$ are  represented  by the
307 oriented  {\it graph  of iterations}  $\Gamma(f)$.  In  such  a graph,
308 vertices are configurations  of $\Bool^n$ and there is  an arc labeled
309 $i$ from $x$ to $N(i,x)$ if and only if $f_i(x)$ is $N(i,x)$. 
310
311 In the  sequel, the  {\it strategy} $S=(S^{t})^{t  \in \Nats}$  is the
312 sequence defining  which component to  update at time $t$  and $S^{t}$
313 denotes its $t-$th term.  This iteration scheme that only modifies one
314 element at each iteration is usually referred as {\it asynchronous
315   iterations}.  More precisely, we have for any $i$, $1\le i \le n$,
316 \begin{equation}
317 \left\{ \begin{array}{l}
318 x^{0}  \in \Bool^n \\ 
319 x^{t+1}_i = \left\{ 
320 \begin{array}{l}
321   f_i(x^t) \textrm{ if $S^t = i$}\enspace , \\
322   x_i^t \textrm{ otherwise}\enspace . 
323  \end{array}
324 \right.
325 \end{array} \right.
326 \end{equation}
327
328 Next  section  shows  the  link between  asynchronous  iterations  and
329 Devaney's chaos.
330
331 \subsection{On the link between asynchronous iterations and
332   Devaney's Chaos}
333
334 In  this subsection  we recall  the link  we have  established between
335 asynchronous   iterations  and   Devaney's  chaos.    The  theoretical
336 framework is fully described in \cite{guyeux09}.
337
338 We  introduce the  function  $F_{f}$  that is  defined  for any  given
339 application     $f:\Bool^{n}     \to     \Bool^{n}$     by     $F_{f}:
340 \llbracket1;n\rrbracket\times        \mathds{B}^{n}        \rightarrow
341 \mathds{B}^{n}$, s.t.
342 \begin{equation}
343 \label{eq:CIs}
344   F_{f}(s,x)_j  =  
345     \left\{
346     \begin{array}{l}
347     f_j(x) \textrm{ if } j= s \enspace , \\ 
348     x_{j} \textrm{ otherwise} \enspace .
349     \end{array}
350     \right. 
351 \end{equation}
352
353 \noindent With such a notation, asynchronously obtained configurations
354 are defined for times \linebreak $t=0,1,2,\ldots$ by:
355 \begin{equation}\label{eq:sync}   
356 \left\{\begin{array}{l}   
357   x^{0}\in \mathds{B}^{n} \textrm{ and}\\
358   x^{t+1}=F_{f}(S^t,x^{t}) \enspace .
359 \end{array}\right.
360 \end{equation}
361
362 \noindent  Finally, iterations defined  in Eq.~(\ref{eq:sync})  can be
363 described by the following system:
364 \begin{equation} 
365 \left\{
366 \begin{array}{lll} 
367 X^{0} & = &  ((S^t)^{t \in \Nats},x^0) \in 
368 \llbracket1;n\rrbracket^\Nats \times \Bool^{n}\\ 
369 X^{k+1}& = & G_{f}(X^{k})\\
370 \multicolumn{3}{c}{\textrm{where } G_{f}\left(((S^t)^{t \in \Nats},x)\right)
371 = \left(\sigma((S^t)^{t \in \Nats}),F_{f}(S^0,x)\right) \enspace ,}
372 \end{array} 
373 \right.
374 \label{eq:Gf}
375 \end{equation}
376 where  $\sigma$ is the so-called shift function that  removes the  first term  of the
377 strategy  ({\it  i.e.},~$S^0$).    This  definition  allows  to  link
378 asynchronous  iterations  with  classical  iterations of  a  dynamical
379 system. Note that it can be extended by considering subsets for $S^t$.
380
381 To study topological properties of  these iterations, we are then left
382 to  introduce a  {\bf distance}  $d$  between two  points $(S,x)$  and
383 $(\check{S},\check{x})$ in $\mathcal{X} = \llbracket1;n\rrbracket^\Nats
384 \times \Bool^{n}$. Let $\Delta(x,y) = 0$ if $x=y$, and $\Delta(x,y) = 1$ else, be a distance on $\mathds{B}$. The distance $d$ is defined by 
385 \begin{equation}
386 d((S,x);(\check{S},\check{x}))=d_{e}(x,\check{x})+d_{s}(S,\check{S})
387 \enspace ,
388 \end{equation}
389 where
390 \begin{equation}
391 d_{e}(x,\check{x})=\sum_{j=1}^{n}\Delta
392 (x_{j},\check{x}_{j}) \in \llbracket  0 ; n \rrbracket 
393 \end{equation}
394 \noindent and   
395 \begin{equation}
396 d_{s}(S,\check{S})=\frac{9}{2n}\sum_{t=0}^{\infty
397 }\frac{|S^{t}-\check{S}^{t}|}{10^{t+1}} \in [0 ; 1] \enspace .
398 \end{equation}
399
400 This    distance    is    defined    to    reflect    the    following
401 information. Firstly, the more  two systems have different components,
402 the  larger the  distance between  them.  Secondly,  two  systems with
403 similar components and strategies, which have the same starting terms,
404 must  induce only a  small distance.   The proposed  distance fulfills
405 these  requirements: on  the one  hand  its floor  value reflects  the
406 difference between  the cells, on  the other hand its  fractional part
407 measures the difference between the strategies.
408
409 The relation  between $\Gamma(f)$ and  $G_f$ is obvious: there  exists a
410 path from  $x$ to $x'$  in $\Gamma(f)$ if  and only if there  exists a
411 strategy  $s$ such  that iterations  of $G_f$  from the  initial point
412 $(s,x)$   reach   the   configuration   $x'$.   Using   this   link,
413 Guyeux~\cite{GuyeuxThese10} has proven that,
414 \begin{theorem}%[Characterization of $\mathcal{C}$]
415 \label{Th:Caracterisation   des   IC   chaotiques}  
416 Let $f:\Bool^n\to\Bool^n$. Iterations of $G_f$ are chaotic  according 
417 to  Devaney if and only if  $\Gamma(f)$ is strongly connected.
418 \end{theorem}
419
420 Checking if  a graph  is strongly connected  is not difficult  (by the
421 Tarjan's algorithm for  instance).  Let be given a  strategy $S$ and a
422 function  $f$ such that  $\Gamma(f)$ is  strongly connected.   In that
423 case, iterations of the function $G_f$ as defined in Eq.~(\ref{eq:Gf})
424 are chaotic according to Devaney.
425
426
427 Let   us  then   define  two   functions  $f_0$   and  $f_1$   both  in
428 $\Bool^n\to\Bool^n$ that are used all along this paper.  The former is
429 the   vectorial  negation,   \textit{i.e.},  $f_{0}(x_{1},\dots,x_{n})
430 =(\overline{x_{1}},\dots,\overline{x_{n}})$.      The     latter    is
431 $f_1\left(x_1,\dots,x_n\right)=\left(
432 \overline{x_1},x_1,x_2,\dots,x_{n-1}\right)$.  It is not hard to check
433 that $\Gamma(f_0)$ and $\Gamma(f_1)$ are both strongly connected, then
434 iterations  of $G_{f_0}$  and of  $G_{f_1}$ are  chaotic  according to
435 Devaney.
436
437 With this  material, we are now  able to build a  first chaotic neural
438 network, as defined in the Devaney's formulation.
439
440 \section{A chaotic neural network in the sense of Devaney}
441 \label{S2}
442
443 Let  us   build  a  multilayer  perceptron   neural  network  modeling
444 $F_{f_0}:\llbracket   1;   n   \rrbracket  \times   \mathds{B}^n   \to
445 \mathds{B}^n$ associated  to the vectorial  negation.  More precisely,
446 for   all   inputs   $(s,x)   \in  \llbracket   1;n\rrbracket   \times
447 \mathds{B}^n$, the  output layer  will produce $F_{f_0}(s,x)$.   It is
448 then possible to link the output  layer and the input one, in order to
449 model the  dependence between two successive iterations.   As a result
450 we obtain  a global recurrent  neural network that behaves  as follows
451 (see Fig.~\ref{Fig:perceptron}).
452
453 \begin{itemize}
454 \item   The   network   is   initialized   with   the   input   vector
455   $\left(S^0,x^0\right)    \in    \llbracket   1;n\rrbracket    \times
456   \mathds{B}^n$      and      computes      the     output      vector
457   $x^1=F_{f_0}\left(S^0,x^0\right)$. This last  vector is published as
458   an output one of the chaotic  neural network and is sent back to the
459   input layer through the feedback links.
460 \item When  the network  is activated at  the $t^{th}$  iteration, the
461   state of the system $x^t  \in \mathds{B}^n$ received from the output
462   layer and  the initial  term of the  sequence $(S^t)^{t  \in \Nats}$
463   (\textit{i.e.}, $S^0  \in \llbracket 1;n\rrbracket$)  are used  to compute  the new
464   output vector.  This  new vector, which represents the  new state of
465   the dynamical system, satisfies:
466   \begin{equation}
467     x^{t+1}=F_{f_0}(S^0, x^t) \in \mathds{B}^n \enspace .
468   \end{equation}
469 \end{itemize}
470
471 \begin{figure}
472   \centering
473   \includegraphics[scale=0.625]{perceptron}
474   \caption{A perceptron equivalent to chaotic iterations}
475   \label{Fig:perceptron}
476 \end{figure}
477
478 The behavior of the neural network is such that when the initial state
479 is  $x^0~\in~\mathds{B}^n$ and  a  sequence $(S^t)^{t  \in \Nats}$  is
480 given  as outside  input,
481 then  the sequence  of  successive published
482 output vectors $\left(x^t\right)^{t \in \mathds{N}^{\ast}}$ is exactly
483 the  one produced  by  the chaotic  iterations  formally described  in
484 Eq.~(\ref{eq:Gf}).  It  means that  mathematically if we  use similar
485 input  vectors   they  both  generate  the   same  successive  outputs
486 $\left(x^t\right)^{t \in \mathds{N}^{\ast}}$,  and therefore that they
487 are  equivalent  reformulations  of  the iterations  of  $G_{f_0}$  in
488 $\mathcal{X}$. Finally, since the  proposed neural network is built to
489 model  the  behavior  of  $G_{f_0}$,  whose iterations are
490   chaotic  according  to the
491 Devaney's definition  of chaos,  we can conclude  that the  network is
492 also chaotic in this sense.
493
494 The previous construction scheme  is not restricted to function $f_0$.
495 It can  be extended to any function  $f$ such that $G_f$  is a chaotic
496 map by training the network to model $F_{f}:\llbracket 1; n \rrbracket
497 \times      \mathds{B}^n      \to      \mathds{B}^n$.      Due      to
498 Theorem~\ref{Th:Caracterisation  des  IC  chaotiques},  we  can  find
499 alternative functions  $f$ for $f_0$  through a simple check  of their
500 graph of  iterations $\Gamma(f)$.  For  example, we can  build another
501 chaotic neural network by using $f_1$ instead of $f_0$.
502
503 \section{Checking whether a neural network is chaotic or not}
504 \label{S3}
505
506 We focus now on the case  where a neural network is already available,
507 and for  which we want  to know if  it is chaotic. Typically,  in many
508 research  papers neural  network  are usually  claimed  to be  chaotic
509 without any  convincing mathematical proof. We propose  an approach to
510 overcome  this  drawback  for  a  particular  category  of  multilayer
511 perceptrons defined below, and for the Devaney's formulation of chaos.
512 In  spite of  this restriction,  we think  that this  approach  can be
513 extended to a large variety of neural networks.
514
515 We consider a multilayer perceptron  of the following form: inputs are
516 $n$ binary digits  and one integer value, while  outputs are $n$ bits.
517 Moreover, each  binary output is connected with  a feedback connection
518 to an input one.
519
520 \begin{itemize}
521 \item  During  initialization, the  network  is  seeded with  $n$~bits
522   denoted $\left(x^0_1,\dots,x^0_n\right)$ and  an integer value $S^0$
523   that belongs to $\llbracket1;n\rrbracket$.
524 \item     At     iteration~$t$,     the     last     output     vector
525   $\left(x^t_1,\dots,x^t_n\right)$   defines  the  $n$~bits   used  to
526   compute the new output one $\left(x^{t+1}_1,\dots,x^{t+1}_n\right)$.
527   While  the remaining  input receives  a new  integer value  $S^t \in
528   \llbracket1;n\rrbracket$, which is provided by the outside world.
529 \end{itemize}
530
531 The topological  behavior of these  particular neural networks  can be
532 proven to be chaotic through the following process. Firstly, we denote
533 by  $F:  \llbracket  1;n  \rrbracket \times  \mathds{B}^n  \rightarrow
534 \mathds{B}^n$     the     function     that     maps     the     value
535 $\left(s,\left(x_1,\dots,x_n\right)\right)    \in    \llbracket    1;n
536 \rrbracket      \times      \mathds{B}^n$      into     the      value
537 $\left(y_1,\dots,y_n\right)       \in       \mathds{B}^n$,       where
538 $\left(y_1,\dots,y_n\right)$  is the  response of  the  neural network
539 after    the    initialization     of    its    input    layer    with
540 $\left(s,\left(x_1,\dots, x_n\right)\right)$.  Secondly, we define $f:
541 \mathds{B}^n       \rightarrow      \mathds{B}^n$       such      that
542 $f\left(x_1,x_2,\dots,x_n\right)$ is equal to
543 \begin{equation}
544 \left(F\left(1,\left(x_1,x_2,\dots,x_n\right)\right),\dots,
545   F\left(n,\left(x_1,x_2,\dots,x_n\right)\right)\right) \enspace .
546 \end{equation}
547 Thus, for any $j$, $1 \le j \le n$, we have 
548 $f_j\left(x_1,x_2,\dots,x_n\right) = 
549 F\left(j,\left(x_1,x_2,\dots,x_n\right)\right)$.
550 If this recurrent  neural network is seeded with 
551 $\left(x_1^0,\dots,x_n^0\right)$    and   $S   \in    \llbracket   1;n
552 \rrbracket^{\mathds{N}}$, it produces  exactly the
553 same      output      vectors  than the 
554 chaotic iterations of $F_f$  with initial
555 condition  $\left(S,(x_1^0,\dots,  x_n^0)\right)  \in  \llbracket  1;n
556 \rrbracket^{\mathds{N}}  \times \mathds{B}^n$.
557 Theoretically  speaking, such iterations  of $F_f$  are thus  a formal
558 model of these kind of recurrent  neural networks. In the rest of this
559 paper,  we will  call such  multilayer perceptrons  ``CI-MLP($f$)'', which
560 stands for ``Chaotic Iterations based MultiLayer Perceptron''.
561
562 Checking  if CI-MLP($f$)  behaves chaotically  according  to Devaney's
563 definition  of  chaos  is  simple:  we  need just  to  verify  if  the
564 associated graph  of iterations  $\Gamma(f)$ is strongly  connected or
565 not. As  an incidental consequence,  we finally obtain  an equivalence
566 between  chaotic  iterations   and  CI-MLP($f$).   Therefore,  we  can
567 obviously  study such multilayer  perceptrons with  mathematical tools
568 like  topology  to  establish,  for  example,  their  convergence  or,
569 contrarily, their unpredictable behavior.   An example of such a study
570 is given in the next section.
571
572 \section{Topological properties of chaotic neural networks}
573 \label{S4}
574
575 Let us first recall  two fundamental definitions from the mathematical
576 theory of chaos.
577
578 \begin{definition} \label{def8}
579 A  function   $f$  is   said  to  be   {\bf  expansive}   if  $\exists
580 \varepsilon>0$, $\forall  x \neq y$,  $\exists n \in  \mathds{N}$ such
581 that $d\left(f^n(x),f^n(y)\right) \geq \varepsilon$.
582 \end{definition}
583
584 \noindent In  other words, a small  error on any  initial condition is
585 always amplified  until $\varepsilon$,  which denotes the  constant of
586 expansivity of $f$.
587
588 \begin{definition} \label{def9}
589 A discrete dynamical  system is said to be  {\bf topologically mixing}
590 if  and only  if,  for any  pair  of disjoint  open  sets $U$,$V  \neq
591 \emptyset$, we  can find some $n_0  \in \mathds{N}$ such  that for any
592 $n$, $n\geq n_0$, we have $f^n(U) \cap V \neq \emptyset$.
593 \end{definition}
594
595 \noindent Topologically mixing means that the dynamical system evolves
596 in  time such that  any given  region of  its topological  space might
597 overlap with any other region.
598
599 It has been proven in Ref.~\cite{gfb10:ip} that chaotic iterations are
600 expansive and topologically mixing  when $f$ is the vectorial negation
601 $f_0$.    Consequently,  these   properties  are   inherited   by  the
602 CI-MLP($f_0$)  recurrent neural  network  previously presented,  which
603 induce  a greater  unpredictability.   Any difference  on the  initial
604 value of the input layer is  in particular magnified up to be equal to
605 the expansivity constant.
606
607 Let  us then  focus on  the consequences  for a  neural network  to be
608 chaotic   according  to   Devaney's   definition.   Intuitively,   the
609 topological transitivity property  implies indecomposability, which is
610 formally defined as follows:
611
612 \begin{definition} \label{def10}
613 A  dynamical  system  $\left(   \mathcal{X},  f\right)$  is  {\bf  not
614   decomposable}  if it  is not  the  union of  two closed  sets $A,  B
615 \subset \mathcal{X}$ such that $f(A) \subset A, f(B) \subset B$.
616 \end{definition}
617
618 \noindent Hence, reducing the set of outputs generated by CI-MLP($f$),
619 in order to  simplify its complexity, is impossible  if $\Gamma(f)$ is
620 strongly connected.  Moreover, under this  hypothesis CI-MLPs($f$) are
621 strongly transitive:
622
623 \begin{definition} \label{def11}
624 A  dynamical system  $\left( \mathcal{X},  f\right)$ is  {\bf strongly
625   transitive}  if  $\forall   x,y  \in  \mathcal{X}$,  $\forall  r>0$,
626 $\exists z \in \mathcal{X}$,  $d(z,x)~\leq~r \Rightarrow \exists n \in
627 \mathds{N}^{\ast}$, $f^n(z)=y$.
628 \end{definition}
629
630 \noindent According to  this definition, for all pairs  of points $(x,
631 y)$ in the  phase space, a point $z$ can be  found in the neighborhood
632 of $x$  such that one  of its iterates  $f^n(z)$ is $y$.  Indeed, this
633 result  has been  established  during the  proof  of the  transitivity
634 presented  in Ref.~\cite{guyeux09}.   Among other  things,  the strong
635 transitivity  leads to  the fact  that  without the  knowledge of  the
636 initial input layer, all outputs are possible.  Additionally, no point
637 of the output space can be discarded when studying CI-MLPs: this space
638 is  intrinsically   complicated  and   it  cannot  be   decomposed  or
639 simplified.
640
641 Furthermore, these  recurrent neural networks  exhibit the instability
642 property:
643 \begin{definition}
644 A dynamical  system $\left( \mathcal{X}, f\right)$ is {\bf unstable}
645 if for
646 all  $x  \in  \mathcal{X}$,   the  orbit  $\gamma_x:n  \in  \mathds{N}
647 \longmapsto f^n(x)$  is unstable,  that means: $\exists  \varepsilon >
648 0$, $\forall  \delta>0$, $\exists y  \in \mathcal{X}$, $\exists  n \in
649 \mathds{N}$,        such        that        $d(x,y)<\delta$        and
650 $d\left(\gamma_x(n),\gamma_y(n)\right) \geq \varepsilon$.
651 \end{definition}
652
653 \noindent  This property,  which  is implied  by  the sensitive  point
654 dependence  on initial  conditions,  leads  to the  fact  that in  all
655 neighborhoods of any point $x$, there  are points that can be apart by
656 $\varepsilon$    in   the   future    through   iterations    of   the
657 CI-MLP($f$). Thus,  we can  claim that the  behavior of these  MLPs is
658 unstable when $\Gamma (f)$ is strongly connected.
659
660 Let  us  now consider  a  compact  metric space  $(M,  d)$  and $f:  M
661 \rightarrow M$  a continuous map. For  each natural number  $n$, a new
662 metric $d_n$ is defined on $M$ by
663 \begin{equation}
664 d_n(x,y)=\max\{d(f^i(x),f^i(y)): 0\leq i<n\} \enspace .
665 \end{equation}
666
667 Given any $\varepsilon > 0$ and $n \geqslant 1$, two points of $M$ are
668 $\varepsilon$-close  with respect to  this metric  if their  first $n$
669 iterates are $\varepsilon$-close.
670
671 This metric  allows one to distinguish  in a neighborhood  of an orbit
672 the points  that move away from  each other during  the iteration from
673 the points  that travel together.  A subset  $E$ of $M$ is  said to be
674 $(n, \varepsilon)$-separated if each pair of distinct points of $E$ is
675 at  least $\varepsilon$  apart in  the metric  $d_n$. Denote  by $H(n,
676 \varepsilon)$     the    maximum     cardinality     of    an     $(n,
677 \varepsilon)$-separated set,
678 \begin{definition}
679 The {\bf topological entropy} of the  map $f$ is defined by (see e.g.,
680 Ref.~\cite{Adler65} or Ref.~\cite{Bowen})
681 $$h(f)=\lim_{\varepsilon\to      0}      \left(\limsup_{n\to      \infty}
682 \frac{1}{n}\log H(n,\varepsilon)\right) \enspace .$$
683 \end{definition}
684
685 Then we have the following result \cite{GuyeuxThese10},
686 \begin{theorem}
687 $\left( \mathcal{X},d\right)$  is compact and  the topological entropy
688 of $(\mathcal{X},G_{f_0})$ is infinite.
689 \end{theorem}
690
691 \begin{figure}
692   \centering
693   \includegraphics[scale=0.5]{scheme}
694   \caption{Summary of addressed neural networks and chaos problems}
695   \label{Fig:scheme}
696 \end{figure}
697
698 Figure~\ref{Fig:scheme} is a summary  of addressed neural networks and
699 chaos  problems.   In  Section~\ref{S2}   we  have  explained  how  to
700 construct    a    truly    chaotic    neural   networks,    $A$    for
701 instance. Section~\ref{S3} has shown how  to check whether a given MLP
702 $A$ or $C$ is chaotic or not  in the sens of Devaney, and how to study
703 its  topological  behavior.   The  last  thing  to  investigate,  when
704 comparing neural networks and Devaney's chaos, is to determine whether
705 an  artificial neural network  $C$ is  able to  learn or  predict some
706 chaotic  behaviors  of  $B$,  as   it  is  defined  in  the  Devaney's
707 formulation  (when  they are  not  specifically  constructed for  this
708 purpose).  This statement is studied in the next section.
709
710 \section{Suitability of Feedforward Neural Networks 
711 for Predicting Chaotic and Non-chaotic Behaviors}
712
713 In  the context  of computer  science  different topic  areas have  an
714 interest       in       chaos,       as       for       steganographic
715 techniques~\cite{1309431,Zhang2005759}.    Steganography  consists  in
716 embedding a  secret message within  an ordinary one, while  the secret
717 extraction takes place once  at destination.  The reverse ({\it i.e.},
718 automatically detecting the presence  of hidden messages inside media)
719 is  called   steganalysis.   Among  the   deployed  strategies  inside
720 detectors,          there         are          support         vectors
721 machines~\cite{Qiao:2009:SM:1704555.1704664},                    neural
722 networks~\cite{10.1109/ICME.2003.1221665,10.1109/CIMSiM.2010.36},  and
723 Markov   chains~\cite{Sullivan06steganalysisfor}.    Most   of   these
724 detectors  give quite  good results  and are  rather  competitive when
725 facing steganographic  tools.  However, to  the best of  our knowledge
726 none of the considered information hiding schemes fulfills the Devaney
727 definition  of chaos~\cite{Devaney}.  Indeed,  one can  wonder whether
728 detectors  continue to  give good  results when  facing  truly chaotic
729 schemes.  More  generally, there remains the open  problem of deciding
730 whether artificial intelligence is suitable for predicting topological
731 chaotic behaviors.
732
733 \subsection{Representing Chaotic Iterations for Neural Networks} 
734 \label{section:translation}
735
736 The  problem  of  deciding  whether  classical  feedforward  ANNs  are
737 suitable  to approximate  topological chaotic  iterations may  then be
738 reduced to  evaluate such neural  networks on iterations  of functions
739 with  Strongly  Connected  Component  (SCC)~graph of  iterations.   To
740 compare with  non-chaotic iterations, the experiments  detailed in the
741 following  sections  are carried  out  using  both  kinds of  function
742 (chaotic and non-chaotic). Let  us emphasize on the difference between
743 this  kind  of  neural  networks  and  the  Chaotic  Iterations  based
744 multilayer peceptron.
745
746 We are  then left to compute  two disjoint function  sets that contain
747 either functions  with topological chaos properties  or not, depending
748 on  the strong  connectivity of  their iterations graph.  This  can be
749 achieved for  instance by removing a  set of edges  from the iteration
750 graph $\Gamma(f_0)$ of the vectorial negation function~$f_0$.  One can
751 deduce whether  a function verifies the topological  chaos property or
752 not  by checking  the strong  connectivity of  the resulting  graph of
753 iterations.
754
755 For instance let us consider  the functions $f$ and $g$ from $\Bool^4$
756 to $\Bool^4$ respectively defined by the following lists:
757 $$[0,  0,  2,   3,  13,  13,  6,   3,  8,  9,  10,  11,   8,  13,  14,
758   15]$$ $$\mbox{and } [11, 14, 13, 14, 11, 10, 1, 8, 7, 6, 5, 4, 3, 2,
759   1, 0]  \enspace.$$ In  other words,  the image of  $0011$ by  $g$ is
760 $1110$: it  is obtained as the  binary value of the  fourth element in
761 the  second  list  (namely~14).   It   is  not  hard  to  verify  that
762 $\Gamma(f)$ is  not SCC  (\textit{e.g.}, $f(1111)$ is  $1111$) whereas
763 $\Gamma(g)$ is. The  remaining of this section shows  how to translate
764 iterations of such functions into a model amenable to be learned by an
765 ANN.   Formally, input  and  output vectors  are pairs~$((S^t)^{t  \in
766   \Nats},x)$          and          $\left(\sigma((S^t)^{t          \in
767   \Nats}),F_{f}(S^0,x)\right)$ as defined in~Eq.~(\ref{eq:Gf}).
768
769 Firstly, let us focus on how to memorize configurations.  Two distinct
770 translations are  proposed.  In the first  case, we take  one input in
771 $\Bool$  per  component;  in   the  second  case,  configurations  are
772 memorized  as   natural  numbers.    A  coarse  attempt   to  memorize
773 configuration  as  natural  number  could  consist  in  labeling  each
774 configuration  with  its  translation  into  decimal  numeral  system.
775 However,  such a  representation induces  too many  changes  between a
776 configuration  labeled by  a  power  of two  and  its direct  previous
777 configuration: for instance, 16~(10000)  and 15~(01111) are close in a
778 decimal ordering, but  their Hamming distance is 5.   This is why Gray
779 codes~\cite{Gray47} have been preferred.
780
781 Secondly, let us detail how to deal with strategies.  Obviously, it is
782 not possible to  translate in a finite way  an infinite strategy, even
783 if both $(S^t)^{t \in \Nats}$ and $\sigma((S^t)^{t \in \Nats})$ belong
784 to  $\{1,\ldots,n\}^{\Nats}$.  Input  strategies are  then  reduced to
785 have a length of size $l \in \llbracket 2,k\rrbracket$, where $k$ is a
786 parameter of the evaluation. Notice  that $l$ is greater than or equal
787 to $2$ since  we do not want the shift  $\sigma$~function to return an
788 empty strategy.  Strategies are memorized as natural numbers expressed
789 in base  $n+1$.  At  each iteration, either  none or one  component is
790 modified  (among the  $n$ components)  leading to  a radix  with $n+1$
791 entries.  Finally,  we give an  other input, namely $m  \in \llbracket
792 1,l-1\rrbracket$, which  is the  number of successive  iterations that
793 are applied starting  from $x$.  Outputs are translated  with the same
794 rules.
795
796 To address  the complexity  issue of the  problem, let us  compute the
797 size of the data set an ANN has to deal with.  Each input vector of an
798 input-output pair  is composed of a configuration~$x$,  an excerpt $S$
799 of the strategy to iterate  of size $l \in \llbracket 2, k\rrbracket$,
800 and a  number $m \in  \llbracket 1, l-1\rrbracket$ of  iterations that
801 are executed.
802
803 Firstly, there are $2^n$  configurations $x$, with $n^l$ strategies of
804 size $l$ for  each of them. Secondly, for  a given configuration there
805 are $\omega = 1 \times n^2 +  2 \times n^3 + \ldots+ (k-1) \times n^k$
806 ways  of writing  the pair  $(m,S)$. Furthermore,  it is  not  hard to
807 establish that
808 \begin{equation}
809 \displaystyle{(n-1) \times \omega = (k-1)\times n^{k+1} - \sum_{i=2}^k n^i} \nonumber
810 \end{equation}
811 then
812 \begin{equation}
813 \omega =
814 \dfrac{(k-1)\times n^{k+1}}{n-1} - \dfrac{n^{k+1}-n^2}{(n-1)^2} \enspace . \nonumber
815 \end{equation}
816 \noindent And then, finally, the number of  input-output pairs for our 
817 ANNs is 
818 $$
819 2^n \times \left(\dfrac{(k-1)\times n^{k+1}}{n-1} - \dfrac{n^{k+1}-n^2}{(n-1)^2}\right) \enspace .
820 $$
821 For  instance, for $4$  binary components  and a  strategy of  at most
822 $3$~terms we obtain 2304~input-output pairs.
823
824 \subsection{Experiments}
825 \label{section:experiments}
826
827 To study  if chaotic iterations can  be predicted, we  choose to train
828 the multiLayer perceptron.  As stated  before, this kind of network is
829 in  particular  well-known for  its  universal approximation  property
830 \cite{Cybenko89,DBLP:journals/nn/HornikSW89}.  Furthermore,  MLPs have
831 been  already  considered for  chaotic  time  series prediction.   For
832 example,   in~\cite{dalkiran10}  the   authors  have   shown   that  a
833 feedforward  MLP with  two hidden  layers, and  trained  with Bayesian
834 Regulation  back-propagation, can learn  successfully the  dynamics of
835 Chua's circuit.
836
837 In  these experiments  we consider  MLPs  having one  hidden layer  of
838 sigmoidal  neurons  and  output   neurons  with  a  linear  activation
839 function.     They    are    trained    using    the    Limited-memory
840 Broyden-Fletcher-Goldfarb-Shanno quasi-newton algorithm in combination
841 with the Wolfe linear search.  The training process is performed until
842 a maximum number of epochs  is reached.  To prevent overfitting and to
843 estimate the  generalization performance we use  holdout validation by
844 splitting the  data set into  learning, validation, and  test subsets.
845 These subsets  are obtained through  random selection such  that their
846 respective size represents 65\%, 10\%, and 25\% of the whole data set.
847
848 Several  neural  networks  are  trained  for  both  iterations  coding
849 schemes.   In  both  cases   iterations  have  the  following  layout:
850 configurations of  four components and  strategies with at  most three
851 terms. Thus, for  the first coding scheme a data  set pair is composed
852 of 6~inputs and 5~outputs, while for the second one it is respectively
853 3~inputs and 2~outputs. As noticed at the end of the previous section,
854 this  leads to  data sets  that  consist of  2304~pairs. The  networks
855 differ  in the  size of  the hidden  layer and  the maximum  number of
856 training epochs.  We remember that  to evaluate the ability  of neural
857 networks to  predict a  chaotic behavior for  each coding  scheme, the
858 trainings of two data sets, one of them describing chaotic iterations,
859 are compared.
860
861 Thereafter we give,  for the different learning setups  and data sets,
862 the mean prediction success rate obtained for each output. Such a rate
863 represents the  percentage of input-output pairs belonging  to the test
864 subset  for  which  the   corresponding  output  value  was  correctly
865 predicted.  These values  are computed  considering  10~trainings with
866 random  subsets  construction,   weights  and  biases  initialization.
867 Firstly, neural networks having  10 and 25~hidden neurons are trained,
868 with   a  maximum   number  of   epochs  that   takes  its   value  in
869 $\{125,250,500\}$  (see Tables~\ref{tab1} and  \ref{tab2}).  Secondly,
870 we refine the second coding scheme by splitting the output vector such
871 that   each  output   is  learned   by  a   specific   neural  network
872 (Table~\ref{tab3}). In  this last  case, we increase  the size  of the
873 hidden layer up to 40~neurons and we consider larger number of epochs.
874
875 \begin{table}[htbp!]
876 \caption{Prediction success rates for configurations expressed as boolean vectors.}
877 \label{tab1}
878 \centering {\small
879 \begin{tabular}{|c|c||c|c|c|}
880 \hline 
881 \multicolumn{5}{|c|}{Networks topology: 6~inputs, 5~outputs, and one hidden layer} \\
882 \hline
883 \hline
884 \multicolumn{2}{|c||}{Hidden neurons} & \multicolumn{3}{c|}{10 neurons} \\
885 \cline{3-5} 
886 \multicolumn{2}{|c||}{Epochs} & 125 & 250 & 500 \\ 
887 \hline
888 \multirow{6}{*}{\rotatebox{90}{Chaotic}}&Output~(1) & 90.92\% & 91.75\% & 91.82\% \\ 
889 & Output~(2) & 69.32\% & 78.46\% & 82.15\% \\
890 & Output~(3) & 68.47\% & 78.49\% & 82.22\% \\
891 & Output~(4) & 91.53\% & 92.37\% & 93.4\% \\
892 & Config. & 36.10\% & 51.35\% & 56.85\% \\
893 & Strategy~(5) & 1.91\% & 3.38\% & 2.43\% \\
894 \hline
895 \multirow{6}{*}{\rotatebox{90}{Non-chaotic}}&Output~(1) & 97.64\% & 98.10\% & 98.20\% \\
896 & Output~(2) & 95.15\% & 95.39\% & 95.46\% \\
897 & Output~(3) & 100\% & 100\% & 100\% \\
898 & Output~(4) & 97.47\% & 97.90\% & 97.99\% \\
899 & Config. & 90.52\% & 91.59\% & 91.73\% \\
900 & Strategy~(5) & 3.41\% & 3.40\% & 3.47\% \\
901 \hline
902 \hline
903 \multicolumn{2}{|c||}{Hidden neurons} & \multicolumn{3}{c|}{25 neurons} \\ %& \multicolumn{3}{|c|}{40 neurons} \\
904 \cline{3-5} 
905 \multicolumn{2}{|c||}{Epochs} & 125 & 250 & 500 \\ %& 125 & 250 & 500 \\ 
906 \hline
907 \multirow{6}{*}{\rotatebox{90}{Chaotic}}&Output~(1) & 91.65\% & 92.69\% & 93.93\% \\ %& 91.94\% & 92.89\% & 94.00\% \\
908 & Output~(2) & 72.06\% & 88.46\% & 90.5\% \\ %& 74.97\% & 89.83\% & 91.14\% \\
909 & Output~(3) & 79.19\% & 89.83\% & 91.59\% \\ %& 76.69\% & 89.58\% & 91.84\% \\
910 & Output~(4) & 91.61\% & 92.34\% & 93.47\% \\% & 82.77\% & 92.93\% & 93.48\% \\
911 & Config. & 48.82\% & 67.80\% & 70.97\% \\%& 49.46\% & 68.94\% & 71.11\% \\
912 & Strategy~(5) & 2.62\% & 3.43\% & 3.78\% \\% & 3.10\% & 3.10\% & 3.03\% \\
913 \hline
914 \multirow{6}{*}{\rotatebox{90}{Non-chaotic}}&Output~(1) & 97.87\% & 97.99\% & 98.03\% \\ %& 98.16\% \\
915 & Output~(2) & 95.46\% & 95.84\% & 96.75\% \\ % & 97.4\% \\
916 & Output~(3) & 100\% & 100\% & 100\% \\%& 100\% \\
917 & Output~(4) & 97.77\% & 97.82\% & 98.06\% \\%& 98.31\% \\
918 & Config. & 91.36\% & 91.99\% & 93.03\% \\%& 93.98\% \\
919 & Strategy~(5) & 3.37\% & 3.44\% & 3.29\% \\%& 3.23\% \\
920 \hline
921 \end{tabular}
922 }
923 \end{table}
924
925 Table~\ref{tab1}  presents the  rates  obtained for  the first  coding
926 scheme.   For  the chaotic  data,  it can  be  seen  that as  expected
927 configuration  prediction becomes  better  when the  number of  hidden
928 neurons and maximum  epochs increases: an improvement by  a factor two
929 is observed (from 36.10\% for 10~neurons and 125~epochs to 70.97\% for
930 25~neurons  and  500~epochs). We  also  notice  that  the learning  of
931 outputs~(2)   and~(3)  is   more  difficult.    Conversely,   for  the
932 non-chaotic  case the  simplest training  setup is  enough  to predict
933 configurations.  For all these  feedforward network topologies and all
934 outputs the  obtained results for the non-chaotic  case outperform the
935 chaotic  ones. Finally,  the rates  for the  strategies show  that the
936 different networks are unable to learn them.
937
938 \newpage
939
940 For  the  second  coding   scheme  (\textit{i.e.},  with  Gray  Codes)
941 Table~\ref{tab2} shows  that any network learns about  five times more
942 non-chaotic  configurations  than chaotic  ones.  As  in the  previous
943 scheme, the strategies cannot be predicted.
944
945 Let us now compare the  two coding schemes. Firstly, the second scheme
946 disturbs  the   learning  process.   In   fact  in  this   scheme  the
947 configuration is always expressed as  a natural number, whereas in the
948 first one  the number  of inputs follows  the increase of  the Boolean
949 vectors coding configurations. In this latter case, the coding gives a
950 finer information on configuration evolution.
951
952 \begin{table}[b]
953 \caption{Prediction success rates for configurations expressed with Gray code}
954 \label{tab2}
955 \centering
956 \begin{tabular}{|c|c||c|c|c|}
957 \hline 
958 \multicolumn{5}{|c|}{Networks topology: 3~inputs, 2~outputs, and one hidden layer} \\
959 \hline
960 \hline
961 & Hidden neurons & \multicolumn{3}{c|}{10 neurons} \\
962 \cline{2-5}
963 & Epochs & 125 & 250 & 500 \\ %& 1000 
964 \hline
965 \multirow{2}{*}{Chaotic}& Config.~(1) & 13.29\% & 13.55\% & 13.08\% \\ %& 12.5\%
966 & Strategy~(2) & 0.50\% & 0.52\% & 1.32\% \\ %& 1.42\%
967 \hline
968 \multirow{2}{*}{Non-Chaotic}&Config.~(1) & 77.12\% & 74.00\% & 72.60\% \\ %& 75.81\% 
969 & Strategy~(2) & 0.42\% & 0.80\% & 1.16\% \\ %& 1.42\% 
970 \hline
971 \hline
972 & Hidden neurons & \multicolumn{3}{c|}{25 neurons} \\
973 \cline{2-5}
974 & Epochs & 125 & 250 & 500 \\ %& 1000 
975 \hline
976 \multirow{2}{*}{Chaotic}& Config.~(1) & 12.27\% & 13.15\% & 13.05\% \\ %& 15.44\%
977 & Strategy~(2) & 0.71\% & 0.66\% & 0.88\% \\ %& 1.73\%
978 \hline
979 \multirow{2}{*}{Non-Chaotic}&Config.~(1) & 73.60\% & 74.70\% & 75.89\% \\ %& 68.32\%
980 & Strategy~(2) & 0.64\% & 0.97\% & 1.23\% \\ %& 1.80\%
981 \hline
982 \end{tabular}
983 \end{table}
984
985 Unfortunately, in  practical applications the number  of components is
986 usually  unknown.   Hence, the  first  coding  scheme  cannot be  used
987 systematically.   Therefore, we  provide  a refinement  of the  second
988 scheme: each  output is learned  by a different  ANN. Table~\ref{tab3}
989 presents the  results for  this approach.  In  any case,  whatever the
990 considered  feedforward network topologies,  the maximum  epoch number,
991 and the kind of iterations, the configuration success rate is slightly
992 improved.   Moreover, the  strategies predictions  rates  reach almost
993 12\%, whereas in Table~\ref{tab2} they never exceed 1.5\%.  Despite of
994 this improvement,  a long term prediction of  chaotic iterations still
995 appear to be an open issue.
996
997 \begin{table}
998 \caption{Prediction success rates for split outputs.}
999 \label{tab3}
1000 \centering
1001 \begin{tabular}{|c||c|c|c|}
1002 \hline 
1003 \multicolumn{4}{|c|}{Networks topology: 3~inputs, 1~output, and one hidden layer} \\
1004 \hline
1005 \hline
1006 Epochs & 125 & 250 & 500 \\ 
1007 \hline
1008 \hline
1009 Chaotic & \multicolumn{3}{c|}{Output = Configuration} \\
1010 \hline
1011 10~neurons & 12.39\% & 14.06\% & 14.32\% \\
1012 25~neurons & 13.00\% & 14.28\% & 14.58\% \\
1013 40~neurons & 11.58\% & 13.47\% & 14.23\% \\
1014 \hline
1015 \hline
1016 Non chaotic & \multicolumn{3}{c|}{Output = Configuration} \\
1017 \cline{2-4}
1018 %Epochs & 125 & 250 & 500 \\ 
1019 \hline
1020 10~neurons & 76.01\% & 74.04\% & 78.16\% \\
1021 25~neurons & 76.60\% & 72.13\% & 75.96\% \\
1022 40~neurons & 76.34\% & 75.63\% & 77.50\% \\
1023 \hline
1024 \hline
1025 Chaotic/non chaotic & \multicolumn{3}{c|}{Output = Strategy} \\
1026 \cline{2-4}
1027 %Epochs & 125 & 250 & 500 \\ 
1028 \hline
1029 10~neurons & 0.76\% & 0.97\% & 1.21\% \\
1030 25~neurons & 1.09\% & 0.73\% & 1.79\% \\
1031 40~neurons & 0.90\% & 1.02\% & 2.15\% \\
1032 \hline
1033 \multicolumn{4}{c}{} \\
1034 \hline
1035 Epochs & 1000 & 2500 & 5000 \\ 
1036 \hline
1037 \hline
1038 Chaotic & \multicolumn{3}{c|}{Output = Configuration} \\
1039 \hline
1040 10~neurons & 14.51\% & 15.22\% & 15.22\% \\
1041 25~neurons & 16.95\% & 17.57\% & 18.46\% \\
1042 40~neurons & 17.73\% & 20.75\% & 22.62\% \\
1043 \hline
1044 \hline
1045 Non chaotic & \multicolumn{3}{c|}{Output = Configuration} \\
1046 \cline{2-4}
1047 %Epochs & 1000 & 2500 & 5000 \\ 
1048 \hline
1049 10~neurons & 78.98\% & 80.02\% & 79.97\% \\
1050 25~neurons & 79.19\% & 81.59\% & 81.53\% \\
1051 40~neurons & 79.64\% & 81.37\% & 81.37\% \\
1052 \hline
1053 \hline
1054 Chaotic/non chaotic & \multicolumn{3}{c|}{Output = Strategy} \\
1055 \cline{2-4}
1056 %Epochs & 1000 & 2500 & 5000 \\ 
1057 \hline
1058 10~neurons & 3.47\% & 9.98\% & 11.66\% \\
1059 25~neurons & 3.92\% & 8.63\% & 10.09\% \\
1060 40~neurons & 3.29\% & 7.19\% & 7.18\% \\
1061 \hline
1062 \end{tabular}
1063 \end{table}
1064
1065 %
1066 % TO BE COMPLETED
1067 %
1068
1069 \section{Conclusion}
1070
1071 In  this paper,  we have  established an  equivalence  between chaotic
1072 iterations,  according to  the Devaney's  definition of  chaos,  and a
1073 class  of multilayer  perceptron  neural networks.   Firstly, we  have
1074 described how to build a neural network that can be trained to learn a
1075 given chaotic map function. Secondly,  we found a condition that allow
1076 to check whether  the iterations induced by a  function are chaotic or
1077 not, and thus  if a chaotic map is obtained.  Thanks to this condition
1078 our  approach is not  limited to  a particular  function. In  the dual
1079 case, we show that checking if a neural network is chaotic consists in
1080 verifying  a property  on an  associated  graph, called  the graph  of
1081 iterations.   These results  are valid  for recurrent  neural networks
1082 with a  particular architecture.  However,  we believe that  a similar
1083 work can be done for  other neural network architectures.  Finally, we
1084 have  discovered at  least one  family of  problems with  a reasonable
1085 size, such  that artificial neural  networks should not be  applied in
1086 the  presence  of chaos,  due  to  their  inability to  learn  chaotic
1087 behaviors in this  context.  Such a consideration is  not reduced to a
1088 theoretical detail:  this family of discrete  iterations is concretely
1089 implemented  in a  new steganographic  method  \cite{guyeux10ter}.  As
1090 steganographic   detectors  embed  tools   like  neural   networks  to
1091 distinguish between  original and stego contents, our  studies tend to
1092 prove that such  detectors might be unable to  tackle with chaos-based
1093 information  hiding  schemes.
1094
1095 In  future  work we  intend  to  enlarge  the comparison  between  the
1096 learning   of  truly   chaotic  and   non-chaotic   behaviors.   Other
1097 computational intelligence tools such  as support vector machines will
1098 be investigated  too, to  discover which tools  are the  most relevant
1099 when facing a truly chaotic phenomenon.  A comparison between learning
1100 rate  success  and  prediction  quality will  be  realized.   Concrete
1101 consequences in biology, physics, and computer science security fields
1102 will then be  stated.
1103
1104 % \appendix{}
1105
1106
1107
1108 % \begin{definition} \label{def2}
1109 % A continuous function $f$  on a topological space $(\mathcal{X},\tau)$
1110 % is defined  to be  {\emph{topologically transitive}}  if for any  pair of
1111 % open  sets $U$,  $V  \in  \mathcal{X}$ there  exists  
1112 % $k \in
1113 % \mathds{N}^{\ast}$
1114 %  such  that
1115 % $f^k(U) \cap V \neq \emptyset$.
1116 % \end{definition}
1117
1118
1119 \bibliography{chaos-paper}% Produces the bibliography via BibTeX.
1120
1121 \end{document}
1122 %
1123 % ****** End of file chaos-paper.tex ******