]> AND Private Git Repository - prng_gpu.git/blob - prng_gpu.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
4880738d553d6f463a214705a030b8873e861c06
[prng_gpu.git] / prng_gpu.tex
1 %\documentclass{article}
2 %\documentclass[10pt,journal,letterpaper,compsoc]{IEEEtran}
3 \documentclass[preprint,12pt]{elsarticle}
4 \usepackage[utf8]{inputenc}
5 \usepackage[T1]{fontenc}
6 \usepackage{fullpage}
7 \usepackage{fancybox}
8 \usepackage{amsmath}
9 \usepackage{amscd}
10 \usepackage{moreverb}
11 \usepackage{commath}
12 \usepackage[ruled,vlined]{algorithm2e}
13 \usepackage{listings}
14 \usepackage[standard]{ntheorem}
15 \usepackage{algorithmic}
16 \usepackage{slashbox}
17 \usepackage{ctable}
18 \usepackage{tabularx}
19 \usepackage{multirow}
20
21 % Pour mathds : les ensembles IR, IN, etc.
22 \usepackage{dsfont}
23
24 % Pour avoir des intervalles d'entiers
25 \usepackage{stmaryrd}
26
27 \usepackage{graphicx}
28 % Pour faire des sous-figures dans les figures
29 \usepackage{subfigure}
30
31
32 \newtheorem{notation}{Notation}
33
34 \newcommand{\X}{\mathcal{X}}
35 \newcommand{\Go}{G_{f_0}}
36 \newcommand{\B}{\mathds{B}}
37 \newcommand{\N}{\mathds{N}}
38 \newcommand{\BN}{\mathds{B}^\mathsf{N}}
39 \let\sur=\overline
40
41 \newcommand{\alert}[1]{\begin{color}{blue}\textit{#1}\end{color}}
42
43 \begin{document}
44 \begin{frontmatter}
45 \title{Efficient and Cryptographically Secure Generation of Chaotic Pseudorandom Numbers on GPU}
46
47
48 \author{Jacques M. Bahi}
49 \ead{jacques.bahi@univ-fcomte.fr}
50 \author{ Rapha\"{e}l Couturier \corref{cor1}}
51 \ead{raphael.couturier@univ-fcomte.fr}
52 \cortext[cor1]{Corresponding author}
53 \author{  Christophe Guyeux}
54 \ead{christophe.guyeux@univ-fcomte.fr}
55 \author{ Pierre-Cyrille Héam }
56 \ead{pierre-cyrille.heam@univ-fcomte.fr}
57
58 \address{FEMTO-ST Institute, UMR  6174 CNRS,\\ University of Franche Comte, Belfort, France\\  Authors in alphabetic order}
59
60
61
62
63 %\IEEEcompsoctitleabstractindextext{
64 \begin{abstract}
65 In this paper we present a new pseudorandom number generator (PRNG) on
66 graphics processing units  (GPU). This PRNG is based  on the so-called chaotic iterations.  It
67 is firstly proven  to be chaotic according to the Devaney's  formulation. We thus propose  an efficient
68 implementation  for  GPU that successfully passes the   {\it BigCrush} tests, deemed to be the  hardest
69 battery of tests in TestU01.  Experiments show that this PRNG can generate
70 about 20 billion of random numbers  per second on Tesla C1060 and NVidia GTX280
71 cards.
72 It is then established that, under reasonable assumptions, the proposed PRNG can be cryptographically 
73 secure.
74 A chaotic version of the Blum-Goldwasser asymmetric key encryption scheme is finally proposed.
75
76
77 \end{abstract}
78 %}
79 \begin{keyword}
80    pseudo random number\sep parallelization\sep GPU\sep cryptography\sep chaos
81
82 \end{keyword}
83 \end{frontmatter}
84
85 %\maketitle
86
87 %\IEEEdisplaynotcompsoctitleabstractindextext
88 %\IEEEpeerreviewmaketitle
89
90
91 \section{Introduction}
92
93 Randomness is of importance in many fields such as scientific simulations or cryptography. 
94 ``Random numbers'' can mainly be generated either by a deterministic and reproducible algorithm
95 called a pseudorandom number generator (PRNG), or by a physical non-deterministic 
96 process having all the characteristics of a random noise, called a truly random number
97 generator (TRNG). 
98 In this paper, we focus on reproducible generators, useful for instance in
99 Monte-Carlo based simulators or in several cryptographic schemes.
100 These domains need PRNGs that are statistically irreproachable. 
101 In some fields such as in numerical simulations, speed is a strong requirement
102 that is usually attained by using parallel architectures. In that case,
103 a recurrent problem is that a deflation of the statistical qualities is often
104 reported, when the parallelization of a good PRNG is realized.
105 This is why ad-hoc PRNGs for each possible architecture must be found to
106 achieve both speed and randomness.
107 On the other side, speed is not the main requirement in cryptography: the great
108 need is to define \emph{secure} generators able to withstand malicious
109 attacks. Roughly speaking, an attacker should not be able in practice to make 
110 the distinction between numbers obtained with the secure generator and a true random
111 sequence.  Or, in an equivalent formulation, he or she should not be
112 able (in practice) to predict the next bit of the generator, having the knowledge of all the 
113 binary digits that have been already released. ``Being able in practice'' refers here
114 to the possibility to achieve this attack in polynomial time, and to the exponential growth
115 of the difficulty of this challenge when the size of the parameters of the PRNG increases.
116
117
118 Finally, a small part of the community working in this domain focuses on a
119 third requirement, that is to define chaotic generators.
120 The main idea is to take benefits from a chaotic dynamical system to obtain a
121 generator that is unpredictable, disordered, sensible to its seed, or in other word chaotic.
122 Their desire is to map a given chaotic dynamics into a sequence that seems random 
123 and unassailable due to chaos.
124 However, the chaotic maps used as a pattern are defined in the real line 
125 whereas computers deal with finite precision numbers.
126 This distortion leads to a deflation of both chaotic properties and speed.
127 Furthermore, authors of such chaotic generators often claim their PRNG
128 as secure due to their chaos properties, but there is no obvious relation
129 between chaos and security as it is understood in cryptography.
130 This is why the use of chaos for PRNG still remains marginal and disputable.
131
132 The authors' opinion is that topological properties of disorder, as they are
133 properly defined in the mathematical theory of chaos, can reinforce the quality
134 of a PRNG. But they are not substitutable for security or statistical perfection.
135 Indeed, to the authors' mind, such properties can be useful in the two following situations. On the
136 one hand, a post-treatment based on a chaotic dynamical system can be applied
137 to a PRNG statistically deflective, in order to improve its statistical 
138 properties. Such an improvement can be found, for instance, in~\cite{bgw09:ip,bcgr11:ip}.
139 On the other hand, chaos can be added to a fast, statistically perfect PRNG and/or a
140 cryptographically secure one, in case where chaos can be of interest,
141 \emph{only if these last properties are not lost during
142 the proposed post-treatment}. Such an assumption is behind this research work.
143 It leads to the attempts to define a 
144 family of PRNGs that are chaotic while being fast and statistically perfect,
145 or cryptographically secure.
146 Let us finish this paragraph by noticing that, in this paper, 
147 statistical perfection refers to the ability to pass the whole 
148 {\it BigCrush} battery of tests, which is widely considered as the most
149 stringent statistical evaluation of a sequence claimed as random.
150 This battery can be found in the well-known TestU01 package~\cite{LEcuyerS07}.
151 More precisely, each time we performed a test on a PRNG, we ran it
152 twice in order to observe if all $p-$values are inside [0.01, 0.99]. In
153 fact, we observed that few $p-$values (less than ten) are sometimes
154 outside this interval but inside [0.001, 0.999], so that is why a
155 second run allows us to confirm that the values outside are not for
156 the same test. With this approach all our PRNGs pass the {\it
157   BigCrush} successfully and all $p-$values are at least once inside
158 [0.01, 0.99].
159 Chaos, for its part, refers to the well-established definition of a
160 chaotic dynamical system defined by Devaney~\cite{Devaney}.
161
162 In a previous work~\cite{bgw09:ip,guyeux10} we have proposed a post-treatment on PRNGs making them behave
163 as a chaotic dynamical system. Such a post-treatment leads to a new category of
164 PRNGs. We have shown that proofs of Devaney's chaos can be established for this
165 family, and that the sequence obtained after this post-treatment can pass the
166 NIST~\cite{Nist10}, DieHARD~\cite{Marsaglia1996}, and TestU01~\cite{LEcuyerS07} batteries of tests, even if the inputted generators
167 cannot.
168 The proposition of this paper is to improve widely the speed of the formerly
169 proposed generator, without any lack of chaos or statistical properties.
170 In particular, a version of this PRNG on graphics processing units (GPU)
171 is proposed.
172 Although GPU was initially designed  to accelerate
173 the manipulation of  images, they are nowadays commonly  used in many scientific
174 applications. Therefore,  it is important  to be able to  generate pseudorandom
175 numbers inside a GPU when a scientific application runs in it. This remark
176 motivates our proposal of a chaotic and statistically perfect PRNG for GPU.  
177 Such device
178 allows us to generate almost 20 billion of pseudorandom numbers per second.
179 Furthermore, we show that the proposed post-treatment preserves the
180 cryptographical security of the inputted PRNG, when this last has such a 
181 property.
182 Last, but not least, we propose a rewriting of the Blum-Goldwasser asymmetric
183 key encryption protocol by using the proposed method.
184
185
186 {\bf Main contributions.} In this paper a new PRNG using chaotic iteration
187 is defined. From a theoretical point of view, it is proven that it has fine
188 topological chaotic properties and that it is cryptographically secured (when
189 the initial PRNG is also cryptographically secured). From a practical point of
190 view, experiments point out a very good statistical behavior. An optimized
191 original implementation of this PRNG is also proposed and experimented.
192 Pseudorandom numbers are generated at a rate of 20GSamples/s, which is faster
193 than in~\cite{conf/fpga/ThomasHL09,Marsaglia2003} (and with a better
194 statistical behavior). Experiments are also provided using BBS as the initial
195 random generator. The generation speed is significantly weaker.
196 %Note also that an original qualitative comparison between topological chaotic
197 %properties and statistical tests is also proposed.
198
199
200
201
202 The remainder of this paper  is organized as follows. In Section~\ref{section:related
203   works} we  review some GPU implementations  of PRNGs.  Section~\ref{section:BASIC
204   RECALLS} gives some basic recalls  on the well-known Devaney's formulation of chaos, 
205   and on an iteration process called ``chaotic
206 iterations'' on which the post-treatment is based. 
207 The proposed PRNG and its proof of chaos are given in  Section~\ref{sec:pseudorandom}.
208 %Section~\ref{The generation of pseudorandom sequence} illustrates the statistical
209 %improvement related to the chaotic iteration based post-treatment, for
210 %our previously released PRNGs and a new efficient 
211 %implementation on CPU.
212  Section~\ref{sec:efficient PRNG} %{sec:efficient PRNG
213 %  gpu}  
214  describes and evaluates theoretically new effective versions of
215 our pseudorandom generators,  in particular with a  GPU   implementation. 
216 Such generators are experimented in 
217 Section~\ref{sec:experiments}.
218 We show in Section~\ref{sec:security analysis} that, if the inputted
219 generator is cryptographically secure, then it is the case too for the
220 generator provided by the post-treatment.
221 A practical
222 security evaluation is also outlined in Section~\ref{sec:Practicak evaluation}.
223 Such a proof leads to the proposition of a cryptographically secure and
224 chaotic generator on GPU based on the famous Blum Blum Shub
225 in Section~\ref{sec:CSGPU} and to an improvement of the
226 Blum-Goldwasser protocol in Sect.~\ref{Blum-Goldwasser}.
227 This research work ends by a conclusion section, in which the contribution is
228 summarized and intended future work is presented.
229
230
231
232
233 \section{Related work on GPU based PRNGs}
234 \label{section:related works}
235
236 Numerous research works on defining GPU based PRNGs have already been proposed  in the
237 literature, so that exhaustivity is impossible.
238 This is why authors of this document only give reference to the most significant attempts 
239 in this domain, from their subjective point of view. 
240 The  quantity of pseudorandom numbers generated per second is mentioned here 
241 only when the information is given in the related work. 
242 A million numbers  per second will be simply written as
243 1MSample/s whereas a billion numbers per second is 1GSample/s.
244
245 In \cite{Pang:2008:cec}  a PRNG based on  cellular automata is defined
246 with no  requirement to an high  precision  integer   arithmetic  or to any bitwise
247 operations. Authors can   generate  about
248 3.2MSamples/s on a GeForce 7800 GTX GPU, which is quite an old card now.
249 However, there is neither a mention of statistical tests nor any proof of
250 chaos or cryptography in this document.
251
252 In \cite{ZRKB10}, the authors propose  different versions of efficient GPU PRNGs
253 based on  Lagged Fibonacci or Hybrid  Taus.  They have  used these
254 PRNGs   for  Langevin   simulations   of  biomolecules   fully  implemented   on
255 GPU. Performances of  the GPU versions are far better than  those obtained with a
256 CPU, and these PRNGs succeed to pass the {\it BigCrush} battery of TestU01. 
257 However the evaluations of the proposed PRNGs are only statistical ones.
258
259
260 Authors of~\cite{conf/fpga/ThomasHL09}  have studied the  implementation of some
261 PRNGs on  different computing architectures: CPU,  field-programmable gate array
262 (FPGA), massively parallel  processors, and GPU. This study is of interest, because
263 the  performance  of the  same  PRNGs on  different architectures are compared. 
264 FPGA appears as  the  fastest  and the most
265 efficient architecture, providing the fastest number of generated pseudorandom numbers
266 per joule. 
267 However, we notice that authors can ``only'' generate between 11 and 16GSamples/s
268 with a GTX 280  GPU, which should be compared with
269 the results presented in this document.
270 We can remark too that the PRNGs proposed in~\cite{conf/fpga/ThomasHL09} are only
271 able to pass the {\it Crush} battery, which is far easier than the {\it Big Crush} one.
272
273 Lastly, Cuda  has developed  a  library for  the  generation of  pseudorandom numbers  called
274 Curand~\cite{curand11}.        Several       PRNGs        are       implemented, among
275 other things 
276 Xorwow~\cite{Marsaglia2003} and  some variants of Sobol. The  tests reported show that
277 their  fastest version provides  15GSamples/s on  the new  Fermi C2050  card. 
278 But their PRNGs cannot pass the whole TestU01 battery (only one test is failed).
279 \newline
280 \newline
281 We can finally remark that, to the best of our knowledge, no GPU implementation has been proven to be chaotic, and the cryptographically secure property has surprisingly never been considered.
282
283 \section{Basic Recalls}
284 \label{section:BASIC RECALLS}
285
286 This section is devoted to basic definitions and terminologies in the fields of
287 topological chaos and chaotic iterations. We assume the reader is familiar
288 with basic notions on topology (see for instance~\cite{Devaney}).
289
290
291 \subsection{Devaney's Chaotic Dynamical Systems}
292 \label{subsec:Devaney}
293 In the sequel $S^{n}$ denotes the $n^{th}$ term of a sequence $S$ and $V_{i}$
294 denotes the $i^{th}$ component of a vector $V$. $f^{k}=f\circ ...\circ f$
295 is for the $k^{th}$ composition of a function $f$. Finally, the following
296 notation is used: $\llbracket1;N\rrbracket=\{1,2,\hdots,N\}$.
297
298
299 Consider a topological space $(\mathcal{X},\tau)$ and a continuous function $f :
300 \mathcal{X} \rightarrow \mathcal{X}$.
301
302 \begin{definition}
303 The function $f$ is said to be \emph{topologically transitive} if, for any pair of open sets
304 $U,V \subset \mathcal{X}$, there exists $k>0$ such that $f^k(U) \cap V \neq
305 \varnothing$.
306 \end{definition}
307
308 \begin{definition}
309 An element $x$ is a \emph{periodic point} for $f$ of period $n\in \mathds{N}^*$
310 if $f^{n}(x)=x$.% The set of periodic points of $f$ is denoted $Per(f).$
311 \end{definition}
312
313 \begin{definition}
314 $f$ is said to be \emph{regular} on $(\mathcal{X}, \tau)$ if the set of periodic
315 points for $f$ is dense in $\mathcal{X}$: for any point $x$ in $\mathcal{X}$,
316 any neighborhood of $x$ contains at least one periodic point (without
317 necessarily the same period).
318 \end{definition}
319
320
321 \begin{definition}[Devaney's formulation of chaos~\cite{Devaney}]
322 The function $f$ is said to be \emph{chaotic} on $(\mathcal{X},\tau)$ if $f$ is regular and
323 topologically transitive.
324 \end{definition}
325
326 The chaos property is strongly linked to the notion of ``sensitivity'', defined
327 on a metric space $(\mathcal{X},d)$ by:
328
329 \begin{definition}
330 \label{sensitivity} The function $f$ has \emph{sensitive dependence on initial conditions}
331 if there exists $\delta >0$ such that, for any $x\in \mathcal{X}$ and any
332 neighborhood $V$ of $x$, there exist $y\in V$ and $n > 0$ such that
333 $d\left(f^{n}(x), f^{n}(y)\right) >\delta $.
334
335 The constant $\delta$ is called the \emph{constant of sensitivity} of $f$.
336 \end{definition}
337
338 Indeed, Banks \emph{et al.} have proven in~\cite{Banks92} that when $f$ is
339 chaotic and $(\mathcal{X}, d)$ is a metric space, then $f$ has the property of
340 sensitive dependence on initial conditions (this property was formerly an
341 element of the definition of chaos). To sum up, quoting Devaney
342 in~\cite{Devaney}, a chaotic dynamical system ``is unpredictable because of the
343 sensitive dependence on initial conditions. It cannot be broken down or
344 simplified into two subsystems which do not interact because of topological
345 transitivity. And in the midst of this random behavior, we nevertheless have an
346 element of regularity''. Fundamentally different behaviors are consequently
347 possible and occur in an unpredictable way.
348
349
350
351 \subsection{Chaotic Iterations}
352 \label{sec:chaotic iterations}
353
354
355 Let us consider  a \emph{system} with a finite  number $\mathsf{N} \in
356 \mathds{N}^*$ of elements  (or \emph{cells}), so that each  cell has a
357 Boolean  \emph{state}. Having $\mathsf{N}$ Boolean values for these
358  cells  leads to the definition of a particular \emph{state  of the
359 system}. A sequence which  elements belong to $\llbracket 1;\mathsf{N}
360 \rrbracket $ is called a \emph{strategy}. The set of all strategies is
361 denoted by $\llbracket 1, \mathsf{N} \rrbracket^\mathds{N}.$
362
363 \begin{definition}
364 \label{Def:chaotic iterations}
365 The      set       $\mathds{B}$      denoting      $\{0,1\}$,      let
366 $f:\mathds{B}^{\mathsf{N}}\longrightarrow  \mathds{B}^{\mathsf{N}}$ be
367 a  function  and  $S\in  \llbracket 1, \mathsf{N} \rrbracket^\mathds{N}$  be  a  ``strategy''.  The  so-called
368 \emph{chaotic      iterations}     are     defined      by     $x^0\in
369 \mathds{B}^{\mathsf{N}}$ and
370 \begin{equation}
371 \forall    n\in     \mathds{N}^{\ast     },    \forall     i\in
372 \llbracket1;\mathsf{N}\rrbracket ,x_i^n=\left\{
373 \begin{array}{ll}
374   x_i^{n-1} &  \text{ if  }S^n\neq i \\
375   \left(f(x^{n-1})\right)_{S^n} & \text{ if }S^n=i.
376 \end{array}\right.
377 \end{equation}
378 \end{definition}
379
380 In other words, at the $n^{th}$ iteration, only the $S^{n}-$th cell is
381 \textquotedblleft  iterated\textquotedblright .  Note  that in  a more
382 general  formulation,  $S^n$  can   be  a  subset  of  components  and
383 $\left(f(x^{n-1})\right)_{S^{n}}$      can     be      replaced     by
384 $\left(f(x^{k})\right)_{S^{n}}$, where  $k<n$, describing for example,
385 delays  transmission~\cite{Robert1986,guyeux10}.  Finally,  let us  remark that
386 the term  ``chaotic'', in  the name of  these iterations,  has \emph{a
387 priori} no link with the mathematical theory of chaos, presented above.
388
389
390 Let us now recall how to define a suitable metric space where chaotic iterations
391 are continuous. For further explanations, see, e.g., \cite{guyeux10}.
392
393 Let $\delta $ be the \emph{discrete Boolean metric}, $\delta
394 (x,y)=0\Leftrightarrow x=y.$ Given a function $f$, define the function
395 $F_{f}:  \llbracket1;\mathsf{N}\rrbracket\times \mathds{B}^{\mathsf{N}} 
396 \longrightarrow  \mathds{B}^{\mathsf{N}}$
397 \begin{equation*}
398 \begin{array}{lrll}
399 & (k,E) & \longmapsto & \left( E_{j}.\delta (k,j)+ f(E)_{k}.\overline{\delta
400 (k,j)}\right) _{j\in \llbracket1;\mathsf{N}\rrbracket}%
401 \end{array}%
402 \end{equation*}%
403 \noindent where + and . are the Boolean addition and product operations.
404 Consider the phase space:
405 \begin{equation}
406 \mathcal{X} = \llbracket 1 ; \mathsf{N} \rrbracket^\mathds{N} \times
407 \mathds{B}^\mathsf{N},
408 \end{equation}
409 \noindent and the map defined on $\mathcal{X}$:
410 \begin{equation}
411 G_f\left(S,E\right) = \left(\sigma(S), F_f(i(S),E)\right), \label{Gf}
412 \end{equation}
413 \noindent where $\sigma$ is the \emph{shift} function defined by $\sigma
414 (S^{n})_{n\in \mathds{N}}\in \llbracket 1, \mathsf{N} \rrbracket^\mathds{N}\longrightarrow (S^{n+1})_{n\in
415 \mathds{N}}\in \llbracket 1, \mathsf{N} \rrbracket^\mathds{N}$ and $i$ is the \emph{initial function} 
416 $i:(S^{n})_{n\in \mathds{N}} \in \llbracket 1, \mathsf{N} \rrbracket^\mathds{N}\longrightarrow S^{0}\in \llbracket
417 1;\mathsf{N}\rrbracket$. Then the chaotic iterations proposed in
418 Definition \ref{Def:chaotic iterations} can be described by the following iterations:
419 \begin{equation}
420 \left\{
421 \begin{array}{l}
422 X^0 \in \mathcal{X} \\
423 X^{k+1}=G_{f}(X^k).%
424 \end{array}%
425 \right.
426 \end{equation}%
427
428 With this formulation, a shift function appears as a component of chaotic
429 iterations. The shift function is a famous example of a chaotic
430 map~\cite{Devaney} but its presence is not sufficient enough to claim $G_f$ as
431 chaotic. 
432 To study this claim, a new distance between two points $X = (S,E), Y =
433 (\check{S},\check{E})\in
434 \mathcal{X}$ has been introduced in \cite{guyeux10} as follows:
435 \begin{equation}
436 d(X,Y)=d_{e}(E,\check{E})+d_{s}(S,\check{S}),
437 \end{equation}
438 \noindent where
439 \begin{equation}
440 \left\{
441 \begin{array}{lll}
442 \displaystyle{d_{e}(E,\check{E})} & = & \displaystyle{\sum_{k=1}^{\mathsf{N}%
443 }\delta (E_{k},\check{E}_{k})}, \\
444 \displaystyle{d_{s}(S,\check{S})} & = & \displaystyle{\dfrac{9}{\mathsf{N}}%
445 \sum_{k=1}^{\infty }\dfrac{|S^k-\check{S}^k|}{10^{k}}}.%
446 \end{array}%
447 \right.
448 \end{equation}
449
450
451 This new distance has been introduced to satisfy the following requirements.
452 \begin{itemize}
453 \item When the number of different cells between two systems is increasing, then
454 their distance should increase too.
455 \item In addition, if two systems present the same cells and their respective
456 strategies start with the same terms, then the distance between these two points
457 must be small because the evolution of the two systems will be the same for a
458 while. Indeed, both dynamical systems start with the same initial condition,
459 use the same update function, and as strategies are the same for a while, furthermore
460 updated components are the same as well.
461 \end{itemize}
462 The distance presented above follows these recommendations. Indeed, if the floor
463 value $\lfloor d(X,Y)\rfloor $ is equal to $n$, then the systems $E, \check{E}$
464 differ in $n$ cells ($d_e$ is indeed the Hamming distance). In addition, $d(X,Y) - \lfloor d(X,Y) \rfloor $ is a
465 measure of the differences between strategies $S$ and $\check{S}$. More
466 precisely, this floating part is less than $10^{-k}$ if and only if the first
467 $k$ terms of the two strategies are equal. Moreover, if the $k^{th}$ digit is
468 nonzero, then the $k^{th}$ terms of the two strategies are different.
469 The impact of this choice for a distance will be investigated at the end of the document.
470
471 Finally, it has been established in \cite{guyeux10} that,
472
473 \begin{proposition}
474 Let $f$ be a map from $\mathds{B}^\mathsf{N}$ to itself. Then $G_{f}$ is continuous in
475 the metric space $(\mathcal{X},d)$.
476 \end{proposition}
477
478 The chaotic property of $G_f$ has been firstly established for the vectorial
479 Boolean negation $f_0(x_1,\hdots, x_\mathsf{N}) =  (\overline{x_1},\hdots, \overline{x_\mathsf{N}})$ \cite{guyeux10}. To obtain a characterization, we have secondly
480 introduced the notion of asynchronous iteration graph recalled bellow.
481
482 Let $f$ be a map from $\mathds{B}^\mathsf{N}$ to itself. The
483 {\emph{asynchronous iteration graph}} associated with $f$ is the
484 directed graph $\Gamma(f)$ defined by: the set of vertices is
485 $\mathds{B}^\mathsf{N}$; for all $x\in\mathds{B}^\mathsf{N}$ and 
486 $i\in \llbracket1;\mathsf{N}\rrbracket$,
487 the graph $\Gamma(f)$ contains an arc from $x$ to $F_f(i,x)$. 
488 The relation between $\Gamma(f)$ and $G_f$ is clear: there exists a
489 path from $x$ to $x'$ in $\Gamma(f)$ if and only if there exists a
490 strategy $s$ such that the parallel iteration of $G_f$ from the
491 initial point $(s,x)$ reaches the point $x'$.
492 We have then proven in \cite{bcgr11:ip} that,
493
494
495 \begin{theorem}
496 \label{Th:Caractérisation   des   IC   chaotiques}  
497 Let $f:\mathds{B}^\mathsf{N}\to\mathds{B}^\mathsf{N}$. $G_f$ is chaotic  (according to  Devaney) 
498 if and only if $\Gamma(f)$ is strongly connected.
499 \end{theorem}
500
501 Finally, we have established in \cite{bcgr11:ip} that,
502 \begin{theorem}
503   Let $f: \mathds{B}^{n} \rightarrow \mathds{B}^{n}$, $\Gamma(f)$ its
504   iteration graph, $\check{M}$ its adjacency
505   matrix and $M$
506   a $n\times n$ matrix defined by 
507   $
508   M_{ij} = \frac{1}{n}\check{M}_{ij}$ %\textrm{ 
509   if $i \neq j$ and  
510   $M_{ii} = 1 - \frac{1}{n} \sum\limits_{j=1, j\neq i}^n \check{M}_{ij}$ otherwise.
511   
512   If $\Gamma(f)$ is strongly connected, then 
513   the output of the PRNG detailed in Algorithm~\ref{CI Algorithm} follows 
514   a law that tends to the uniform distribution 
515   if and only if $M$ is a double stochastic matrix.
516 \end{theorem} 
517
518
519 These results of chaos and uniform distribution have led us to study the possibility of building a
520 pseudorandom number generator (PRNG) based on the chaotic iterations. 
521 As $G_f$, defined on the domain   $\llbracket 1 ;  \mathsf{N} \rrbracket^{\mathds{N}} 
522 \times \mathds{B}^\mathsf{N}$, is built from Boolean networks $f : \mathds{B}^\mathsf{N}
523 \rightarrow \mathds{B}^\mathsf{N}$, we can preserve the theoretical properties on $G_f$
524 during implementations (due to the discrete nature of $f$). Indeed, it is as if
525 $\mathds{B}^\mathsf{N}$ represents the memory of the computer whereas $\llbracket 1 ;  \mathsf{N}
526 \rrbracket^{\mathds{N}}$ is its input stream (the seeds, for instance, in PRNG, or a physical noise in TRNG).
527 Let us finally remark that the vectorial negation satisfies the hypotheses of both theorems above.
528
529 \section{Application to Pseudorandomness}
530 \label{sec:pseudorandom}
531
532 \subsection{A First Pseudorandom Number Generator}
533
534 We have proposed in~\cite{bgw09:ip} a new family of generators that receives 
535 two PRNGs as inputs. These two generators are mixed with chaotic iterations, 
536 leading thus to a new PRNG that 
537 should improve the statistical properties of each
538 generator taken alone. 
539 Furthermore, the generator obtained in this way possesses various chaos properties that none of the generators used as  input present.
540
541
542
543 \begin{algorithm}[h!]
544 \begin{small}
545 \KwIn{a function $f$, an iteration number $b$, an initial configuration $x^0$
546 ($n$ bits)}
547 \KwOut{a configuration $x$ ($n$ bits)}
548 $x\leftarrow x^0$\;
549 $k\leftarrow b + PRNG_1(b)$\;
550 \For{$i=0,\dots,k$}
551 {
552 $s\leftarrow{PRNG_2(n)}$\;
553 $x\leftarrow{F_f(s,x)}$\;
554 }
555 return $x$\;
556 \end{small}
557 \caption{An arbitrary round of $Old~ CI~ PRNG_f(PRNG_1,PRNG_2)$}
558 \label{CI Algorithm}
559 \end{algorithm}
560
561
562
563
564 This generator is synthesized in Algorithm~\ref{CI Algorithm}.
565 It takes as input: a Boolean function $f$ satisfying Theorem~\ref{Th:Caractérisation   des   IC   chaotiques};
566 an integer $b$, ensuring that the number of executed iterations
567 between two outputs is at least $b$
568 and at most $2b+1$; and an initial configuration $x^0$.
569 It returns the new generated configuration $x$.  Internally, it embeds two
570 inputted generators $PRNG_i(k), i=1,2$,
571  which must return integers
572 uniformly distributed
573 into $\llbracket 1 ; k \rrbracket$.
574 For instance, these PRNGs can be the \textit{XORshift}~\cite{Marsaglia2003},
575 being a category of very fast PRNGs designed by George Marsaglia
576 that repeatedly uses the transform of exclusive or (XOR, $\oplus$) on a number
577 with a bit shifted version of it. Such a PRNG, which has a period of
578 $2^{32}-1=4.29\times10^9$, is summed up in Algorithm~\ref{XORshift}. 
579 This XORshift, or any other reasonable PRNG, is used
580 in our own generator to compute both the number of iterations between two
581 outputs (provided by $PRNG_1$) and the strategy elements ($PRNG_2$).
582
583 %This former generator has successively passed various batteries of statistical tests, as the NIST~\cite{bcgr11:ip}, DieHARD~\cite{Marsaglia1996}, and TestU01~\cite{LEcuyerS07} ones.
584
585
586 \begin{algorithm}[h!]
587 \begin{small}
588 \KwIn{the internal configuration $z$ (a 32-bit word)}
589 \KwOut{$y$ (a 32-bit word)}
590 $z\leftarrow{z\oplus{(z\ll13)}}$\;
591 $z\leftarrow{z\oplus{(z\gg17)}}$\;
592 $z\leftarrow{z\oplus{(z\ll5)}}$\;
593 $y\leftarrow{z}$\;
594 return $y$\;
595 \end{small}
596 \caption{An arbitrary round of \textit{XORshift} algorithm}
597 \label{XORshift}
598 \end{algorithm}
599
600
601 \subsection{A ``New CI PRNG''}
602
603 In order to make the Old CI PRNG usable in practice, we have proposed 
604 an adapted version of the chaotic iteration based generator in~\cite{bg10:ip}.
605 In this ``New CI PRNG'', we prevent a given bit from changing twice between two outputs.
606 This new generator is designed by the following process. 
607
608 First of all, some chaotic iterations have to be done to generate a sequence 
609 $\left(x^n\right)_{n\in\mathds{N}} \in \left(\mathds{B}^{32}\right)^\mathds{N}$ 
610 of Boolean vectors, which are the successive states of the iterated system. 
611 Some of these vectors will be randomly extracted and our pseudorandom bit 
612 flow will be constituted by their components. Such chaotic iterations are 
613 realized as follows. Initial state $x^0 \in \mathds{B}^{32}$ is a Boolean 
614 vector taken as a seed and chaotic strategy $\left(S^n\right)_{n\in\mathds{N}}\in 
615 \llbracket 1, 32 \rrbracket^\mathds{N}$ is
616 an \emph{irregular decimation} of $PRNG_2$ sequence, as described in 
617 Algorithm~\ref{Chaotic iteration1}.
618
619 Then, at each iteration, only the $S^n$-th component of state $x^n$ is 
620 updated, as follows: $x_i^n = x_i^{n-1}$ if $i \neq S^n$, else $x_i^n = \overline{x_i^{n-1}}$.
621 Such a procedure is equivalent to achieving chaotic iterations with
622 the Boolean vectorial negation $f_0$ and some well-chosen strategies.
623 Finally, some $x^n$ are selected
624 by a sequence $m^n$ as the pseudorandom bit sequence of our generator.
625 $(m^n)_{n \in \mathds{N}} \in \mathcal{M}^\mathds{N}$ is computed from $PRNG_1$, where $\mathcal{M}\subset \mathds{N}^*$ is a finite nonempty set of integers.
626
627 The basic design procedure of the New CI generator is summarized in Algorithm~\ref{Chaotic iteration1}.
628 The internal state is $x$, the output state is $r$. $a$ and $b$ are those computed by the two input
629 PRNGs. Lastly, the value $g(a)$ is an integer defined as in Eq.~\ref{Formula}.
630 This function must be chosen such that the outputs of the resulted PRNG are uniform in $\llbracket 0, 2^\mathsf{N}-1 \rrbracket$. Function of \eqref{Formula} achieves this
631 goal (other candidates and more information can be found in ~\cite{bg10:ip}).
632
633 \begin{equation}
634 \label{Formula}
635 m^n = g(y^n)=
636 \left\{
637 \begin{array}{l}
638 0 \text{ if }0 \leqslant{y^n}<{C^0_{32}},\\
639 1 \text{ if }{C^0_{32}} \leqslant{y^n}<\sum_{i=0}^1{C^i_{32}},\\
640 2 \text{ if }\sum_{i=0}^1{C^i_{32}} \leqslant{y^n}<\sum_{i=0}^2{C^i_{32}},\\
641 \vdots~~~~~ ~~\vdots~~~ ~~~~\\
642 N \text{ if }\sum_{i=0}^{N-1}{C^i_{32}}\leqslant{y^n}<1.\\
643 \end{array}
644 \right.
645 \end{equation}
646
647 \begin{algorithm}
648 \textbf{Input:} the internal state $x$ (32 bits)\\
649 \textbf{Output:} a state $r$ of 32 bits
650 \begin{algorithmic}[1]
651 \FOR{$i=0,\dots,N$}
652 {
653 \STATE$d_i\leftarrow{0}$\;
654 }
655 \ENDFOR
656 \STATE$a\leftarrow{PRNG_1()}$\;
657 \STATE$k\leftarrow{g(a)}$\;
658 \WHILE{$i=0,\dots,k$}
659
660 \STATE$b\leftarrow{PRNG_2()~mod~\mathsf{N}}$\;
661 \STATE$S\leftarrow{b}$\;
662     \IF{$d_S=0$}
663     {
664 \STATE      $x_S\leftarrow{ \overline{x_S}}$\;
665 \STATE      $d_S\leftarrow{1}$\;
666
667     }
668     \ELSIF{$d_S=1$}
669     {
670 \STATE      $k\leftarrow{ k+1}$\;
671     }\ENDIF
672 \ENDWHILE\\
673 \STATE $r\leftarrow{x}$\;
674 \STATE return $r$\;
675 \medskip
676 \caption{An arbitrary round of the new CI generator}
677 \label{Chaotic iteration1}
678 \end{algorithmic}
679 \end{algorithm}
680
681
682 We have shown in~\cite{bfg12a:ip} that the use of chaotic iterations 
683 implies an improvement of the statistical properties for all the
684 inputted defective generators we have investigated.
685 For instance, when considering the TestU01 battery with its 588 tests, we obtained 261 
686 failures for a PRNG based on the logistic map alone, and 
687 this number of failures falls below 138 in the Old CI(Logistic,Logistic) generator.
688 In the XORshift case (146 failures when considering it alone), the results are more amazing,
689 as the chaotic iterations post-treatment makes it fails only 8 tests. 
690 Further investigations have been systematically realized in \cite{bfg12a:ip}
691 using a large set of inputted defective PRNGs, the three most used batteries of
692 tests (DieHARD, NIST, and TestU01), and for all the versions of generators we have proposed.
693 In all situations, an obvious improvement of the statistical behavior has
694 been obtained, reinforcing the impression that chaos leads to statistical 
695 enhancement~\cite{bfg12a:ip}.
696
697 \subsection{Improving the Speed of the Former Generator}
698
699 Instead of updating only one cell at each iteration, we now propose to choose a
700 subset of components and to update them together, for speed improvement. Such a proposition leads 
701 to a kind of merger of the two sequences used in Algorithms 
702 \ref{CI Algorithm} and \ref{Chaotic iteration1}. When the updating function is the vectorial negation,
703 this algorithm can be rewritten as follows:
704
705 \begin{equation}
706 \left\{
707 \begin{array}{l}
708 x^0 \in \llbracket 0, 2^\mathsf{N}-1 \rrbracket, S \in \llbracket 0, 2^\mathsf{N}-1 \rrbracket^\mathds{N} \\
709 \forall n \in \mathds{N}^*, x^n = x^{n-1} \oplus S^n,
710 \end{array}
711 \right.
712 \label{equation Oplus}
713 \end{equation}
714 where $\oplus$ is for the bitwise exclusive or between two integers. 
715 This rewriting can be understood as follows. The $n-$th term $S^n$ of the
716 sequence $S$, which is an integer of $\mathsf{N}$ binary digits, presents
717 the list of cells to update in the state $x^n$ of the system (represented
718 as an integer having $\mathsf{N}$ bits too). More precisely, the $k-$th 
719 component of this state (a binary digit) changes if and only if the $k-$th 
720 digit in the binary decomposition of $S^n$ is 1.
721
722 The single basic component presented in Eq.~\ref{equation Oplus} is of 
723 ordinary use as a good elementary brick in various PRNGs. It corresponds
724 to the following discrete dynamical system in chaotic iterations:
725
726 \begin{equation}
727 \forall    n\in     \mathds{N}^{\ast     },    \forall     i\in
728 \llbracket1;\mathsf{N}\rrbracket ,x_i^n=\left\{
729 \begin{array}{ll}
730   x_i^{n-1} &  \text{ if  } i \notin \mathcal{S}^n \\
731   \left(f(x^{n-1})\right)_{S^n} & \text{ if }i \in \mathcal{S}^n.
732 \end{array}\right.
733 \label{eq:generalIC}
734 \end{equation}
735 where $f$ is the vectorial negation and $\forall n \in \mathds{N}$, 
736 $\mathcal{S}^n \subset \llbracket 1, \mathsf{N} \rrbracket$ is such that
737 $k \in \mathcal{S}^n$ if and only if the $k-$th digit in the binary
738 decomposition of $S^n$ is 1. Such chaotic iterations are more general
739 than the ones presented in Definition \ref{Def:chaotic iterations} because, instead of updating only one term at each iteration,
740 we select a subset of components to change.
741
742
743 Obviously, replacing the previous CI PRNG Algorithms by 
744 Equation~\ref{equation Oplus}, which is possible when the iteration function is
745 the vectorial negation, leads to a speed improvement 
746 (the resulting generator will be referred as ``Xor CI PRNG''
747 in what follows).
748 However, proofs
749 of chaos obtained in~\cite{bg10:ij} have been established
750 only for chaotic iterations of the form presented in Definition 
751 \ref{Def:chaotic iterations}. The question is now to determine whether the
752 use of more general chaotic iterations to generate pseudorandom numbers 
753 faster, does not deflate their topological chaos properties.
754
755 \subsection{Proofs of Chaos of the General Formulation of the Chaotic Iterations}
756 \label{deuxième def}
757 Let us consider the discrete dynamical systems in chaotic iterations having 
758 the general form: $\forall    n\in     \mathds{N}^{\ast     }$, $  \forall     i\in
759 \llbracket1;\mathsf{N}\rrbracket $,
760
761 \begin{equation}
762   x_i^n=\left\{
763 \begin{array}{ll}
764   x_i^{n-1} &  \text{ if  } i \notin \mathcal{S}^n \\
765   \left(f(x^{n-1})\right)_{S^n} & \text{ if }i \in \mathcal{S}^n.
766 \end{array}\right.
767 \label{general CIs}
768 \end{equation}
769
770 In other words, at the $n^{th}$ iteration, only the cells whose id is
771 contained into the set $S^{n}$ are iterated.
772
773 Let us now rewrite these general chaotic iterations as usual discrete dynamical
774 system of the form $X^{n+1}=f(X^n)$ on an ad hoc metric space. Such a formulation
775 is required in order to study the topological behavior of the system.
776
777 Let us introduce the following function:
778 \begin{equation}
779 \begin{array}{cccc}
780  \chi: & \llbracket 1; \mathsf{N} \rrbracket \times \mathcal{P}\left(\llbracket 1; \mathsf{N} \rrbracket\right) & \longrightarrow & \mathds{B}\\
781          & (i,X) & \longmapsto  & \left\{ \begin{array}{ll} 0 & \textrm{if }i \notin X, \\ 1 & \textrm{if }i \in X,  \end{array}\right.
782 \end{array} 
783 \end{equation}
784 where $\mathcal{P}\left(X\right)$ is for the powerset of the set $X$, that is, $Y \in \mathcal{P}\left(X\right) \Longleftrightarrow Y \subset X$.
785
786 Given a function $f:\mathds{B}^\mathsf{N} \longrightarrow \mathds{B}^\mathsf{N} $, define the function:
787 $F_{f}:  \mathcal{P}\left(\llbracket1;\mathsf{N}\rrbracket \right) \times \mathds{B}^{\mathsf{N}} 
788 \longrightarrow \mathds{B}^{\mathsf{N}}$
789 \begin{equation*}
790 \begin{array}{rll}
791  (P,E) & \longmapsto & \left( E_{j}.\chi (j,P)+f(E)_{j}.\overline{\chi(j,P)}\right) _{j\in \llbracket1;\mathsf{N}\rrbracket}%
792 \end{array}%
793 \end{equation*}%
794 where + and . are the Boolean addition and product operations, and $\overline{x}$ 
795 is the negation of the Boolean $x$.
796 Consider the phase space:
797 \begin{equation}
798 \mathcal{X} = \mathcal{P}\left(\llbracket 1 ; \mathsf{N} \rrbracket\right)^\mathds{N} \times
799 \mathds{B}^\mathsf{N},
800 \end{equation}
801 \noindent and the map defined on $\mathcal{X}$:
802 \begin{equation}
803 G_f\left(S,E\right) = \left(\sigma(S), F_f(i(S),E)\right), %\label{Gf} %%RAPH, j'ai viré ce label qui existe déjà avant...
804 \end{equation}
805 \noindent where $\sigma$ is the \emph{shift} function defined by $\sigma
806 (S^{n})_{n\in \mathds{N}}\in \mathcal{P}\left(\llbracket 1 ; \mathsf{N} \rrbracket\right)^\mathds{N}\longrightarrow (S^{n+1})_{n\in
807 \mathds{N}}\in \mathcal{P}\left(\llbracket 1 ; \mathsf{N} \rrbracket\right)^\mathds{N}$ and $i$ is the \emph{initial function} 
808 $i:(S^{n})_{n\in \mathds{N}} \in \mathcal{P}\left(\llbracket 1 ; \mathsf{N} \rrbracket\right)^\mathds{N}\longrightarrow S^{0}\in \mathcal{P}\left(\llbracket 1 ; \mathsf{N} \rrbracket\right)$. 
809 Then the general chaotic iterations defined in Equation \ref{general CIs} can 
810 be described by the following discrete dynamical system:
811 \begin{equation}
812 \left\{
813 \begin{array}{l}
814 X^0 \in \mathcal{X} \\
815 X^{k+1}=G_{f}(X^k).%
816 \end{array}%
817 \right.
818 \end{equation}%
819
820 Once more, a shift function appears as a component of these general chaotic 
821 iterations. 
822
823 To study the Devaney's chaos property, a distance between two points 
824 $X = (S,E), Y = (\check{S},\check{E})$ of $\mathcal{X}$ must be defined.
825 Let us introduce:
826 \begin{equation}
827 d(X,Y)=d_{e}(E,\check{E})+d_{s}(S,\check{S}),
828 \label{nouveau d}
829 \end{equation}
830 \noindent where $ \displaystyle{d_{e}(E,\check{E})} = \displaystyle{\sum_{k=1}^{\mathsf{N}%
831  }\delta (E_{k},\check{E}_{k})}$  is once more the Hamming distance, and
832 $  \displaystyle{d_{s}(S,\check{S})}  =  \displaystyle{\dfrac{9}{\mathsf{N}}%
833  \sum_{k=1}^{\infty }\dfrac{|S^k\Delta {S}^k|}{10^{k}}}$,
834 %%RAPH : ici, j'ai supprimé tous les sauts à la ligne
835 %% \begin{equation}
836 %% \left\{
837 %% \begin{array}{lll}
838 %% \displaystyle{d_{e}(E,\check{E})} & = & \displaystyle{\sum_{k=1}^{\mathsf{N}%
839 %% }\delta (E_{k},\check{E}_{k})} \textrm{ is once more the Hamming distance}, \\
840 %% \displaystyle{d_{s}(S,\check{S})} & = & \displaystyle{\dfrac{9}{\mathsf{N}}%
841 %% \sum_{k=1}^{\infty }\dfrac{|S^k\Delta {S}^k|}{10^{k}}}.%
842 %% \end{array}%
843 %% \right.
844 %% \end{equation}
845 where $|X|$ is the cardinality of a set $X$ and $A\Delta B$ is for the symmetric difference, defined for sets A, B as
846 $A\,\Delta\,B = (A \setminus B) \cup (B \setminus A)$.
847
848
849 \begin{proposition}
850 The function $d$ defined in Eq.~\ref{nouveau d} is a metric on $\mathcal{X}$.
851 \end{proposition}
852
853 \begin{proof}
854  $d_e$ is the Hamming distance. We will prove that $d_s$ is a distance
855 too, thus $d$, as being the sum of two distances, will also be a distance.
856  \begin{itemize}
857 \item Obviously, $d_s(S,\check{S})\geqslant 0$, and if $S=\check{S}$, then 
858 $d_s(S,\check{S})=0$. Conversely, if $d_s(S,\check{S})=0$, then 
859 $\forall k \in \mathds{N}, |S^k\Delta {S}^k|=0$, and so $\forall k, S^k=\check{S}^k$.
860  \item $d_s$ is symmetric 
861 ($d_s(S,\check{S})=d_s(\check{S},S)$) due to the commutative property
862 of the symmetric difference. 
863 \item Finally, $|S \Delta S''| = |(S \Delta \varnothing) \Delta S''|= |S \Delta (S'\Delta S') \Delta S''|= |(S \Delta S') \Delta (S' \Delta S'')|\leqslant |S \Delta S'| + |S' \Delta S''|$, 
864 and so for all subsets $S,S',$ and $S''$ of $\llbracket 1, \mathsf{N} \rrbracket$, 
865 we have $d_s(S,S'') \leqslant d_e(S,S')+d_s(S',S'')$, and the triangle
866 inequality is obtained.
867  \end{itemize}
868 \end{proof}
869
870
871 Before being able to study the topological behavior of the general 
872 chaotic iterations, we must first establish that:
873
874 \begin{proposition}
875  For all $f:\mathds{B}^\mathsf{N} \longrightarrow \mathds{B}^\mathsf{N} $, the function $G_f$ is continuous on 
876 $\left( \mathcal{X},d\right)$.
877 \end{proposition}
878
879
880 \begin{proof}
881 We use the sequential continuity.
882 Let $(S^n,E^n)_{n\in \mathds{N}}$ be a sequence of the phase space $%
883 \mathcal{X}$, which converges to $(S,E)$. We will prove that $\left(
884 G_{f}(S^n,E^n)\right) _{n\in \mathds{N}}$ converges to $\left(
885 G_{f}(S,E)\right) $. Let us remark that for all $n$, $S^n$ is a strategy,
886 thus, we consider a sequence of strategies (\emph{i.e.}, a sequence of
887 sequences).\newline
888 As $d((S^n,E^n);(S,E))$ converges to 0, each distance $d_{e}(E^n,E)$ and $d_{s}(S^n,S)$ converges
889 to 0. But $d_{e}(E^n,E)$ is an integer, so $\exists n_{0}\in \mathds{N},$ $%
890 d_{e}(E^n,E)=0$ for any $n\geqslant n_{0}$.\newline
891 In other words, there exists a threshold $n_{0}\in \mathds{N}$ after which no
892 cell will change its state:
893 $\exists n_{0}\in \mathds{N},n\geqslant n_{0}\Rightarrow E^n = E.$
894
895 In addition, $d_{s}(S^n,S)\longrightarrow 0,$ so $\exists n_{1}\in %
896 \mathds{N},d_{s}(S^n,S)<10^{-1}$ for all indexes greater than or equal to $%
897 n_{1}$. This means that for $n\geqslant n_{1}$, all the $S^n$ have the same
898 first term, which is $S^0$: $\forall n\geqslant n_{1},S_0^n=S_0.$
899
900 Thus, after the $max(n_{0},n_{1})^{th}$ term, states of $E^n$ and $E$ are
901 identical and strategies $S^n$ and $S$ start with the same first term.\newline
902 Consequently, states of $G_{f}(S^n,E^n)$ and $G_{f}(S,E)$ are equal,
903 so, after the $max(n_0, n_1)^{th}$ term, the distance $d$ between these two points is strictly less than 1.\newline
904 \noindent We now prove that the distance between $\left(
905 G_{f}(S^n,E^n)\right) $ and $\left( G_{f}(S,E)\right) $ is convergent to
906 0. Let $\varepsilon >0$. \medskip
907 \begin{itemize}
908 \item If $\varepsilon \geqslant 1$, we see that the distance
909 between $\left( G_{f}(S^n,E^n)\right) $ and $\left( G_{f}(S,E)\right) $ is
910 strictly less than 1 after the $max(n_{0},n_{1})^{th}$ term (same state).
911 \medskip
912 \item If $\varepsilon <1$, then $\exists k\in \mathds{N},10^{-k}\geqslant
913 \varepsilon > 10^{-(k+1)}$. But $d_{s}(S^n,S)$ converges to 0, so
914 \begin{equation*}
915 \exists n_{2}\in \mathds{N},\forall n\geqslant
916 n_{2},d_{s}(S^n,S)<10^{-(k+2)},
917 \end{equation*}%
918 thus after $n_{2}$, the $k+2$ first terms of $S^n$ and $S$ are equal.
919 \end{itemize}
920 \noindent As a consequence, the $k+1$ first entries of the strategies of $%
921 G_{f}(S^n,E^n)$ and $G_{f}(S,E)$ are the same ($G_{f}$ is a shift of strategies) and due to the definition of $d_{s}$, the floating part of
922 the distance between $(S^n,E^n)$ and $(S,E)$ is strictly less than $%
923 10^{-(k+1)}\leqslant \varepsilon $.
924
925 In conclusion,
926 %%RAPH : ici j'ai rajouté une ligne
927 %%TOF : ici j'ai rajouté un commentaire
928 %%TOF : ici aussi
929 $
930 \forall \varepsilon >0,$ $\exists N_{0}=max(n_{0},n_{1},n_{2})\in \mathds{N}
931 ,$ $\forall n\geqslant N_{0},$
932 $ d\left( G_{f}(S^n,E^n);G_{f}(S,E)\right)
933 \leqslant \varepsilon .
934 $
935 $G_{f}$ is consequently continuous.
936 \end{proof}
937
938
939 It is now possible to study the topological behavior of the general chaotic
940 iterations. We will prove that,
941
942 \begin{theorem}
943 \label{t:chaos des general}
944  The general chaotic iterations defined on Equation~\ref{general CIs} satisfy
945 the Devaney's property of chaos.
946 \end{theorem}
947
948 Let us firstly prove the following lemma.
949
950 \begin{lemma}[Strong transitivity]
951 \label{strongTrans}
952  For all couples $X,Y \in \mathcal{X}$ and any neighborhood $V$ of $X$, we can 
953 find $n \in \mathds{N}^*$ and $X' \in V$ such that $G^n(X')=Y$.
954 \end{lemma}
955
956 \begin{proof}
957  Let $X=(S,E)$, $\varepsilon>0$, and $k_0 = \lfloor log_{10}(\varepsilon)+1 \rfloor$. 
958 Any point $X'=(S',E')$ such that $E'=E$ and $\forall k \leqslant k_0, S'^k=S^k$, 
959 are in the open ball $\mathcal{B}\left(X,\varepsilon\right)$. Let us define 
960 $\check{X} = \left(\check{S},\check{E}\right)$, where $\check{X}= G^{k_0}(X)$.
961 We denote by $s\subset \llbracket 1; \mathsf{N} \rrbracket$ the set of coordinates
962 that are different between $\check{E}$ and the state of $Y$. Thus each point $X'$ of
963 the form $(S',E')$ where $E'=E$ and $S'$ starts with 
964 $(S^0, S^1, \hdots, S^{k_0},s,\hdots)$, verifies the following properties:
965 \begin{itemize}
966  \item $X'$ is in $\mathcal{B}\left(X,\varepsilon\right)$,
967  \item the state of $G_f^{k_0+1}(X')$ is the state of $Y$.
968 \end{itemize}
969 Finally the point $\left(\left(S^0, S^1, \hdots, S^{k_0},s,s^0, s^1, \hdots\right); E\right)$, 
970 where $(s^0,s^1, \hdots)$ is the strategy of $Y$, satisfies the properties
971 claimed in the lemma.
972 \end{proof}
973
974 We can now prove the Theorem~\ref{t:chaos des general}.
975
976 \begin{proof}[Theorem~\ref{t:chaos des general}]
977 Firstly, strong transitivity implies transitivity.
978
979 Let $(S,E) \in\mathcal{X}$ and $\varepsilon >0$. To
980 prove that $G_f$ is regular, it is sufficient to prove that
981 there exists a strategy $\tilde S$ such that the distance between
982 $(\tilde S,E)$ and $(S,E)$ is less than $\varepsilon$, and such that
983 $(\tilde S,E)$ is a periodic point.
984
985 Let $t_1=\lfloor-\log_{10}(\varepsilon)\rfloor$, and let $E'$ be the
986 configuration that we obtain from $(S,E)$ after $t_1$ iterations of
987 $G_f$. As $G_f$ is strongly transitive, there exists a strategy $S'$ 
988 and $t_2\in\mathds{N}$ such
989 that $E$ is reached from $(S',E')$ after $t_2$ iterations of $G_f$.
990
991 Consider the strategy $\tilde S$ that alternates the first $t_1$ terms
992 of $S$ and the first $t_2$ terms of $S'$: 
993 %%RAPH : j'ai coupé la ligne en 2
994 $$\tilde
995 S=(S_0,\dots,S_{t_1-1},S'_0,\dots,S'_{t_2-1},S_0,$$$$\dots,S_{t_1-1},S'_0,\dots,S'_{t_2-1},S_0,\dots).$$ It
996 is clear that $(\tilde S,E)$ is obtained from $(\tilde S,E)$ after
997 $t_1+t_2$ iterations of $G_f$. So $(\tilde S,E)$ is a periodic
998 point. Since $\tilde S_t=S_t$ for $t<t_1$, by the choice of $t_1$, we
999 have $d((S,E),(\tilde S,E))<\epsilon$.
1000 \end{proof}
1001
1002
1003 %\section{Statistical Improvements Using Chaotic Iterations}
1004
1005 %\label{The generation of pseudorandom sequence}
1006
1007
1008 %Let us now explain why we have reasonable ground to believe that chaos 
1009 %can improve statistical properties.
1010 %We will show in this section that chaotic properties as defined in the
1011 %mathematical theory of chaos are related to some statistical tests that can be found
1012 %in the NIST battery. Furthermore, we will check that, when mixing defective PRNGs with
1013 %chaotic iterations, the new generator presents better statistical properties
1014 %(this section summarizes and extends the work of~\cite{bfg12a:ip}).
1015
1016
1017
1018 %\subsection{Qualitative relations between topological properties and statistical tests}
1019
1020
1021 %There are various relations between topological properties that describe an unpredictable behavior for a discrete 
1022 %dynamical system on the one
1023 %hand, and statistical tests to check the randomness of a numerical sequence
1024 %on the other hand. These two mathematical disciplines follow a similar 
1025 %objective in case of a recurrent sequence (to characterize an intrinsically complicated behavior for a
1026 %recurrent sequence), with two different but complementary approaches.
1027 %It is true that the following illustrative links give only qualitative arguments, 
1028 %and proofs should be provided later to make such arguments irrefutable. However 
1029 %they give a first understanding of the reason why we think that chaotic properties should tend
1030 %to improve the statistical quality of PRNGs.
1031 %%
1032 %Let us now list some of these relations between topological properties defined in the mathematical
1033 %theory of chaos and tests embedded into the NIST battery. %Such relations need to be further 
1034 %%investigated, but they presently give a first illustration of a trend to search similar properties in the 
1035 %%two following fields: mathematical chaos and statistics.
1036
1037
1038 %\begin{itemize}
1039 %    \item \textbf{Regularity}. As stated in Section~\ref{subsec:Devaney}, a chaotic dynamical system must 
1040 %have an element of regularity. Depending on the chosen definition of chaos, this element can be the existence of
1041 %a dense orbit, the density of periodic points, etc. The key idea is that a dynamical system with no periodicity
1042 %is not as chaotic as a system having periodic orbits: in the first situation, we can predict something and gain a
1043 %knowledge about the behavior of the system, that is, it never enters into a loop. A similar importance for periodicity is emphasized in
1044 %the two following NIST tests~\cite{Nist10}:
1045 %    \begin{itemize}
1046 %        \item \textbf{Non-overlapping Template Matching Test}. Detect generators that produce too many occurrences of a given non-periodic (aperiodic) pattern.
1047 %        \item \textbf{Discrete Fourier Transform (Spectral) Test}. Detect periodic features (i.e., repetitive patterns that are close one to another) in the tested sequence that would indicate a deviation from the assumption of randomness.
1048 %    \end{itemize}
1049
1050 %\item \textbf{Transitivity}. This topological property previously introduced  states that the dynamical system is intrinsically complicated: it cannot be simplified into 
1051 %two subsystems that do not interact, as we can find in any neighborhood of any point another point whose orbit visits the whole phase space. 
1052 %This focus on the places visited by the orbits of the dynamical system takes various nonequivalent formulations in the mathematical theory
1053 %of chaos, namely: transitivity, strong transitivity, total transitivity, topological mixing, and so on~\cite{bg10:ij}. A similar attention 
1054 %is brought on the states visited during a random walk in the two tests below~\cite{Nist10}:
1055 %    \begin{itemize}
1056 %        \item \textbf{Random Excursions Variant Test}. Detect deviations from the expected number of visits to various states in the random walk.
1057 %        \item \textbf{Random Excursions Test}. Determine if the number of visits to a particular state within a cycle deviates from what one would expect for a random sequence.
1058 %    \end{itemize}
1059
1060 %\item \textbf{Chaos according to Li and Yorke}. Two points of the phase space $(x,y)$ define a couple of Li-Yorke when $\limsup_{n \rightarrow +\infty} d(f^{(n)}(x), f^{(n)}(y))>0$ et $\liminf_{n \rightarrow +\infty} d(f^{(n)}(x), f^{(n)}(y))=0$, meaning that their orbits always oscillate as the iterations pass. When a system is compact and contains an uncountable set of such points, it is claimed as chaotic according
1061 %to Li-Yorke~\cite{Li75,Ruette2001}. A similar property is regarded in the following NIST test~\cite{Nist10}.
1062 %    \begin{itemize}
1063 %        \item \textbf{Runs Test}. To determine whether the number of runs of ones and zeros of various lengths is as expected for a random sequence. In particular, this test determines whether the oscillation between such zeros and ones is too fast or too slow.
1064 %    \end{itemize}
1065 %    \item \textbf{Topological entropy}. The desire to formulate an equivalency of the thermodynamics entropy
1066 %has emerged both in the topological and statistical fields. Once again, a similar objective has led to two different
1067 %rewritting of an entropy based disorder: the famous Shannon definition of entropy is approximated in the statistical approach, 
1068 %whereas topological entropy is defined as follows:
1069 %$x,y \in \mathcal{X}$ are $\varepsilon-$\emph{separated in time $n$} if there exists $k \leqslant n$ such that $d\left(f^{(k)}(x),f^{(k)}(y)\right)>\varepsilon$. Then $(n,\varepsilon)-$separated sets are sets of points that are all $\varepsilon-$separated in time $n$, which
1070 %leads to the definition of $s_n(\varepsilon,Y)$, being the maximal cardinality of all $(n,\varepsilon)-$separated sets. Using these notations, 
1071 %the topological entropy is defined as follows: $$h_{top}(\mathcal{X},f)  = \displaystyle{\lim_{\varepsilon \rightarrow 0} \Big[ \limsup_{n \rightarrow +\infty} \dfrac{1}{n} \log s_n(\varepsilon,\mathcal{X})\Big]}.$$
1072 %This value measures the average exponential growth of the number of distinguishable orbit segments. 
1073 %In this sense, it measures the complexity of the topological dynamical system, whereas 
1074 %the Shannon approach comes to mind when defining the following test~\cite{Nist10}:
1075 %    \begin{itemize}
1076 %\item \textbf{Approximate Entropy Test}. Compare the frequency of the overlapping blocks of two consecutive/adjacent lengths ($m$ and $m+1$) against the expected result for a random sequence.
1077 %    \end{itemize}
1078
1079 %    \item \textbf{Non-linearity, complexity}. Finally, let us remark that non-linearity and complexity are 
1080 %not only sought in general to obtain chaos, but they are also required for randomness, as illustrated by the two tests below~\cite{Nist10}.
1081 %    \begin{itemize}
1082 %\item \textbf{Binary Matrix Rank Test}. Check for linear dependence among fixed length substrings of the original sequence.
1083 %\item \textbf{Linear Complexity Test}. Determine whether or not the sequence is complex enough to be considered random.
1084 %      \end{itemize}
1085 %\end{itemize}
1086
1087
1088 %We have proven in our previous works~\cite{guyeux12:bc} that chaotic iterations satisfying Theorem~\ref{Th:Caractérisation   des   IC   chaotiques} are, among other
1089 %things, strongly transitive, topologically mixing, chaotic as defined by Li and Yorke,
1090 %and that they have a topological entropy and an exponent of Lyapunov both equal to $ln(\mathsf{N})$,
1091 %where $\mathsf{N}$ is the size of the iterated vector.
1092 %These topological properties make that we are ground to believe that a generator based on chaotic
1093 %iterations will probably be able to pass all the existing statistical batteries for pseudorandomness like
1094 %the NIST one. The following subsections, in which we prove that defective generators have their
1095 %statistical properties improved by chaotic iterations, show that such an assumption is true.
1096
1097 %\subsection{Details of some Existing Generators}
1098
1099 %The list of defective PRNGs we will use 
1100 %as inputs for the statistical tests to come is introduced here.
1101
1102 %Firstly, the simple linear congruency generators (LCGs) will be used. 
1103 %They are defined by the following recurrence:
1104 %\begin{equation}
1105 %x^n = (ax^{n-1} + c)~mod~m,
1106 %\label{LCG}
1107 %\end{equation}
1108 %where $a$, $c$, and $x^0$ must be, among other things, non-negative and inferior to 
1109 %$m$~\cite{LEcuyerS07}. In what follows, 2LCGs and 3LCGs refer to two (resp. three) 
1110 %combinations of such LCGs. For further details, see~\cite{bfg12a:ip,combined_lcg}.
1111
1112 %Secondly, the multiple recursive generators (MRGs) which will be used,
1113 %are based on a linear recurrence of order 
1114 %$k$, modulo $m$~\cite{LEcuyerS07}:
1115 %\begin{equation}
1116 %x^n = (a^1x^{n-1}+~...~+a^kx^{n-k})~mod~m .
1117 %\label{MRG}
1118 %\end{equation}
1119 %The combination of two MRGs (referred as 2MRGs) is also used in these experiments.
1120
1121 %Generators based on linear recurrences with carry will be regarded too.
1122 %This family of generators includes the add-with-carry (AWC) generator, based on the recurrence:
1123 %\begin{equation}
1124 %\label{AWC}
1125 %\begin{array}{l}
1126 %x^n = (x^{n-r} + x^{n-s} + c^{n-1})~mod~m, \\
1127 %c^n= (x^{n-r} + x^{n-s} + c^{n-1}) / m, \end{array}\end{equation}
1128 %the SWB generator, having the recurrence:
1129 %\begin{equation}
1130 %\label{SWB}
1131 %\begin{array}{l}
1132 %x^n = (x^{n-r} - x^{n-s} - c^{n-1})~mod~m, \\
1133 %c^n=\left\{
1134 %\begin{array}{l}
1135 %1 ~~~~~\text{if}~ (x^{i-r} - x^{i-s} - c^{i-1})<0\\
1136 %0 ~~~~~\text{else},\end{array} \right. \end{array}\end{equation}
1137 %and the SWC generator, which is based on the following recurrence:
1138 %\begin{equation}
1139 %\label{SWC}
1140 %\begin{array}{l}
1141 %x^n = (a^1x^{n-1} \oplus ~...~ \oplus a^rx^{n-r} \oplus c^{n-1}) ~ mod ~ 2^w, \\
1142 %c^n = (a^1x^{n-1} \oplus ~...~ \oplus a^rx^{n-r} \oplus c^{n-1}) ~ / ~ 2^w. \end{array}\end{equation}
1143
1144 %Then the generalized feedback shift register (GFSR) generator has been implemented, that is:
1145 %\begin{equation}
1146 %x^n = x^{n-r} \oplus x^{n-k} .
1147 %\label{GFSR}
1148 %\end{equation}
1149
1150
1151 %Finally, the nonlinear inversive (INV) generator~\cite{LEcuyerS07} has been studied, which is:
1152
1153 %\begin{equation}
1154 %\label{INV}
1155 %\begin{array}{l}
1156 %x^n=\left\{
1157 %\begin{array}{ll}
1158 %(a^1 + a^2 / z^{n-1})~mod~m & \text{if}~ z^{n-1} \neq 0 \\
1159 %a^1 & \text{if}~  z^{n-1} = 0 .\end{array} \right. \end{array}\end{equation}
1160
1161
1162
1163 %\begin{table}
1164 %%\renewcommand{\arraystretch}{1}
1165 %\caption{TestU01 Statistical Test Failures}
1166 %\label{TestU011}
1167 %\centering
1168 %  \begin{tabular}{lccccc}
1169 %    \toprule
1170 %Test name &Tests& Logistic             & XORshift      & ISAAC\\
1171 %Rabbit                                 &       38      &21             &14     &0       \\
1172 %Alphabit                       &       17      &16             &9      &0       \\
1173 %Pseudo DieHARD                         &126    &0              &2      &0      \\
1174 %FIPS\_140\_2                   &16     &0              &0      &0      \\
1175 %SmallCrush                     &15     &4              &5      &0       \\
1176 %Crush                          &144    &95             &57     &0       \\
1177 %Big Crush                      &160    &125            &55     &0       \\ \hline
1178 %Failures               &       &261            &146    &0       \\
1179 %\bottomrule
1180 %  \end{tabular}
1181 %\end{table}
1182
1183
1184
1185 %\begin{table}
1186 %%\renewcommand{\arraystretch}{1}
1187 %\caption{TestU01 Statistical Test Failures for Old CI algorithms ($\mathsf{N}=4$)}
1188 %\label{TestU01 for Old CI}
1189 %\centering
1190 %  \begin{tabular}{lcccc}
1191 %    \toprule
1192 %\multirow{3}*{Test name} & \multicolumn{4}{c}{Old CI}\\
1193 %&Logistic& XORshift& ISAAC&ISAAC  \\ 
1194 %&+& +& + & + \\ 
1195 %&Logistic& XORshift& XORshift&ISAAC  \\ \cmidrule(r){2-5}
1196 %Rabbit                                         &7      &2      &0      &0       \\
1197 %Alphabit                               & 3     &0      &0      &0       \\
1198 %DieHARD                        &0      &0      &0      &0      \\
1199 %FIPS\_140\_2                   &0      &0      &0      &0      \\
1200 %SmallCrush                             &2      &0      &0      &0       \\
1201 %Crush                                  &47     &4      &0      &0       \\
1202 %Big Crush                              &79     &3      &0      &0       \\ \hline
1203 %Failures                               &138    &9      &0      &0       \\
1204 %\bottomrule
1205 %  \end{tabular}
1206 %\end{table}
1207
1208
1209
1210
1211
1212 %\subsection{Statistical tests}
1213 %\label{Security analysis}
1214
1215 %Three batteries of tests are reputed and regularly used
1216 %to evaluate the statistical properties of newly designed pseudorandom
1217 %number generators. These batteries are named DieHard~\cite{Marsaglia1996},
1218 %the NIST suite~\cite{ANDREW2008}, and the most stringent one called
1219 %TestU01~\cite{LEcuyerS07}, which encompasses the two other batteries.
1220
1221
1222
1223 %\label{Results and discussion}
1224 %\begin{table*}
1225 %%\renewcommand{\arraystretch}{1}
1226 %\caption{NIST and DieHARD tests suite passing rates for PRNGs without CI}
1227 %\label{NIST and DieHARD tests suite passing rate the for PRNGs without CI}
1228 %\centering
1229 %  \begin{tabular}{|l||c|c|c|c|c|c|c|c|c|c|}
1230 %    \hline\hline
1231 %Types of PRNGs & \multicolumn{2}{c|}{Linear PRNGs} & \multicolumn{4}{c|}{Lagged PRNGs} & \multicolumn{1}{c|}{ICG PRNGs} & \multicolumn{3}{c|}{Mixed PRNGs}\\ \hline
1232 %\backslashbox{\textbf{$Tests$}} {\textbf{$PRNG$}} & LCG& MRG& AWC & SWB  & SWC & GFSR & INV & LCG2& LCG3& MRG2 \\ \hline
1233 %NIST & 11/15 & 14/15 &\textbf{15/15} & \textbf{15/15}   & 14/15 & 14/15  & 14/15 & 14/15& 14/15& 14/15 \\ \hline
1234 %DieHARD & 16/18 & 16/18 & 15/18 & 16/18 & \textbf{18/18} & 16/18 & 16/18 & 16/18& 16/18& 16/18\\ \hline
1235 %\end{tabular}
1236 %\end{table*}
1237
1238 %Table~\ref{NIST and DieHARD tests suite passing rate the for PRNGs without CI} shows the 
1239 %results on the two first batteries recalled above, indicating that all the PRNGs presented
1240 %in the previous section
1241 %cannot pass all these tests. In other words, the statistical quality of these PRNGs cannot 
1242 %fulfill the up-to-date standards presented previously. We have shown in~\cite{bfg12a:ip} that the use of chaotic
1243 %iterations can solve this issue.
1244 %%More precisely, to
1245 %%illustrate the effects of chaotic iterations on these defective PRNGs, experiments have been divided in three parts~\cite{bfg12a:ip}:
1246 %%\begin{enumerate}
1247 %%  \item \textbf{Single CIPRNG}: The PRNGs involved in CI computing are of the same category.
1248 %%  \item \textbf{Mixed CIPRNG}: Two different types of PRNGs are mixed during the chaotic iterations process.
1249 %%  \item \textbf{Multiple CIPRNG}: The generator is obtained by repeating the composition of the iteration function as follows: $x^0\in \mathds{B}^{\mathsf{N}}$, and $\forall n\in \mathds{N}^{\ast },\forall i\in \llbracket1;\mathsf{N}\rrbracket, x_i^n=$
1250 %%\begin{equation}
1251 %%\begin{array}{l}
1252 %%\left\{
1253 %%\begin{array}{l}
1254 %%x_i^{n-1}~~~~~\text{if}~S^n\neq i \\
1255 %%\forall j\in \llbracket1;\mathsf{m}\rrbracket,f^m(x^{n-1})_{S^{nm+j}}~\text{if}~S^{nm+j}=i.\end{array} \right. \end{array}
1256 %%\end{equation}
1257 %%$m$ is called the \emph{functional power}.
1258 %%\end{enumerate}
1259 %%
1260 %The obtained results are reproduced in Table
1261 %\ref{NIST and DieHARD tests suite passing rate the for single CIPRNGs}.
1262 %The scores written in boldface indicate that all the tests have been passed successfully, whereas an 
1263 %asterisk ``*'' means that the considered passing rate has been improved.
1264 %The improvements are obvious for both the ``Old CI'' and the ``New CI'' generators.
1265 %Concerning the ``Xor CI PRNG'', the score is less spectacular. Because of a large speed improvement, the statistics
1266 % are not as good as for the two other versions of these CIPRNGs.
1267 %However 8 tests have been improved (with no deflation for the other results).
1268
1269
1270 %\begin{table*}
1271 %%\renewcommand{\arraystretch}{1.3}
1272 %\caption{NIST and DieHARD tests suite passing rates for PRNGs with CI}
1273 %\label{NIST and DieHARD tests suite passing rate the for single CIPRNGs}
1274 %\centering
1275 %  \begin{tabular}{|l||c|c|c|c|c|c|c|c|c|c|c|c|}
1276 %    \hline
1277 %Types of PRNGs & \multicolumn{2}{c|}{Linear PRNGs} & \multicolumn{4}{c|}{Lagged PRNGs} & \multicolumn{1}{c|}{ICG PRNGs} & \multicolumn{3}{c|}{Mixed PRNGs}\\ \hline
1278 %\backslashbox{\textbf{$Tests$}} {\textbf{$Single~CIPRNG$}} & LCG  & MRG & AWC & SWB & SWC & GFSR & INV& LCG2 & LCG3& MRG2 \\ \hline\hline
1279 %Old CIPRNG\\ \hline \hline
1280 %NIST & \textbf{15/15} *  & \textbf{15/15} * & \textbf{15/15}   & \textbf{15/15}   & \textbf{15/15} * & \textbf{15/15} * & \textbf{15/15} *& \textbf{15/15} * & \textbf{15/15} * & \textbf{15/15} \\ \hline
1281 %DieHARD & \textbf{18/18} *  & \textbf{18/18} * & \textbf{18/18} *  & \textbf{18/18} *  & \textbf{18/18}  & \textbf{18/18} * & \textbf{18/18} *& \textbf{18/18} * & \textbf{18/18} *& \textbf{18/18} * \\ \hline
1282 %New CIPRNG\\ \hline \hline
1283 %NIST & \textbf{15/15} *  & \textbf{15/15} * & \textbf{15/15}   & \textbf{15/15}  & \textbf{15/15} * & \textbf{15/15} * & \textbf{15/15} *& \textbf{15/15} * & \textbf{15/15} * & \textbf{15/15} \\ \hline
1284 %DieHARD & \textbf{18/18} *  & \textbf{18/18} * & \textbf{18/18} * & \textbf{18/18} * & \textbf{18/18}  & \textbf{18/18} * & \textbf{18/18} * & \textbf{18/18} * & \textbf{18/18} *& \textbf{18/18} *\\ \hline
1285 %Xor CIPRNG\\ \hline\hline
1286 %NIST & 14/15*& \textbf{15/15} *   & \textbf{15/15}   & \textbf{15/15}   & 14/15 & \textbf{15/15} * & 14/15& \textbf{15/15} * & \textbf{15/15} *& \textbf{15/15}  \\ \hline
1287 %DieHARD & 16/18 & 16/18 & 17/18* & \textbf{18/18} * & \textbf{18/18}  & \textbf{18/18} * & 16/18 & 16/18 & 16/18& 16/18\\ \hline
1288 %\end{tabular}
1289 %\end{table*}
1290
1291
1292 %We have then investigated in~\cite{bfg12a:ip} if it were possible to improve
1293 %the statistical behavior of the Xor CI version by combining more than one 
1294 %$\oplus$ operation. Results are summarized in Table~\ref{threshold}, illustrating
1295 %the progressive increasing effects of chaotic iterations, when giving time to chaos to get settled in.
1296 %Thus rapid and perfect PRNGs, regarding the NIST and DieHARD batteries, can be obtained 
1297 %using chaotic iterations on defective generators.
1298
1299 %\begin{table*}
1300 %%\renewcommand{\arraystretch}{1.3}
1301 %\caption{Number of $\oplus$ operations to pass the whole NIST and DieHARD batteries}
1302 %\label{threshold}
1303 %\centering
1304 %  \begin{tabular}{|l||c|c|c|c|c|c|c|c|}
1305 %    \hline
1306 %Inputted $PRNG$ & LCG & MRG & SWC & GFSR & INV& LCG2 & LCG3  & MRG2 \\ \hline\hline
1307 %Threshold  value $m$& 19 & 7  & 2& 1 & 11& 9& 3& 4\\ \hline\hline
1308 %\end{tabular}
1309 %\end{table*}
1310
1311 %Finally, the TestU01 battery has been launched on three well-known generators 
1312 %(a logistic map, a simple XORshift, and the cryptographically secure ISAAC, 
1313 %see Table~\ref{TestU011}). These results can be compared with 
1314 %Table~\ref{TestU01 for Old CI}, which gives the scores obtained by the
1315 %Old CI PRNG that has received these generators.
1316 %The obvious improvement speaks for itself, and together with the other
1317 %results recalled in this section, it reinforces the opinion that a strong
1318 %correlation between topological properties and statistical behavior exists.
1319
1320
1321 %The next subsection will now give a concrete original implementation of the Xor CI PRNG, the
1322 %fastest generator in the chaotic iteration based family. In the remainder,
1323 %this generator will be simply referred to as CIPRNG, or ``the proposed PRNG'', if this statement does not
1324 %raise ambiguity.
1325
1326
1327 \section{Toward Efficiency and Improvement for CI PRNG}
1328 \label{sec:efficient PRNG}
1329
1330 \subsection{First Efficient Implementation of a PRNG based on Chaotic Iterations}
1331 %
1332 %Based on the proof presented in the previous section, it is now possible to 
1333 %improve the speed of the generator formerly presented in~\cite{bgw09:ip,guyeux10}. 
1334 %The first idea is to consider
1335 %that the provided strategy is a pseudorandom Boolean vector obtained by a
1336 %given PRNG.
1337 %An iteration of the system is simply the bitwise exclusive or between
1338 %the last computed state and the current strategy.
1339 %Topological properties of disorder exhibited by chaotic 
1340 %iterations can be inherited by the inputted generator, we hope by doing so to 
1341 %obtain some statistical improvements while preserving speed.
1342 %
1343 %%RAPH : j'ai viré tout ca
1344 %% Let us give an example using 16-bits numbers, to clearly understand how the bitwise xor operations
1345 %% are
1346 %% done.  
1347 %% Suppose  that $x$ and the  strategy $S^i$ are given as
1348 %% binary vectors.
1349 %% Table~\ref{TableExemple} shows the result of $x \oplus S^i$.
1350
1351 %% \begin{table}
1352 %% \begin{scriptsize}
1353 %% $$
1354 %% \begin{array}{|cc|cccccccccccccccc|}
1355 %% \hline
1356 %% x      &=&1&0&1&1&1&0&1&0&1&0&0&1&0&0&1&0\\
1357 %% \hline
1358 %% S^i      &=&0&1&1&0&0&1&1&0&1&1&1&0&0&1&1&1\\
1359 %% \hline
1360 %% x \oplus S^i&=&1&1&0&1&1&1&0&0&0&1&1&1&0&1&0&1\\
1361 %% \hline
1362
1363 %% \hline
1364 %%  \end{array}
1365 %% $$
1366 %% \end{scriptsize}
1367 %% \caption{Example of an arbitrary round of the proposed generator}
1368 %% \label{TableExemple}
1369 %% \end{table}
1370
1371
1372
1373
1374 \lstset{language=C,caption={C code of the sequential PRNG based on chaotic iterations},label={algo:seqCIPRNG}}
1375 \begin{small}
1376 \begin{lstlisting}
1377
1378 unsigned int CIPRNG() {
1379   static unsigned int x = 123123123;
1380   unsigned long t1 = xorshift();
1381   unsigned long t2 = xor128();
1382   unsigned long t3 = xorwow();
1383   x = x^(unsigned int)t1;
1384   x = x^(unsigned int)(t2>>32);
1385   x = x^(unsigned int)(t3>>32);
1386   x = x^(unsigned int)t2;
1387   x = x^(unsigned int)(t1>>32);
1388   x = x^(unsigned int)t3;
1389   return x;
1390 }
1391 \end{lstlisting}
1392 \end{small}
1393
1394
1395
1396 In Listing~\ref{algo:seqCIPRNG} a sequential  version of the proposed PRNG based
1397 on  chaotic  iterations  is  presented.   The xor  operator  is  represented  by
1398 \textasciicircum.  This function uses  three classical 64-bits PRNGs, namely the
1399 \texttt{xorshift},         the          \texttt{xor128},         and         the
1400 \texttt{xorwow}~\cite{Marsaglia2003}.  In the following, we call them ``xor-like
1401 PRNGs''.   As each  xor-like PRNG  uses 64-bits  whereas our  proposed generator
1402 works with 32-bits, we use the command \texttt{(unsigned int)}, that selects the
1403 32 least  significant bits  of a given  integer, and the  code \texttt{(unsigned
1404   int)(t$>>$32)} in order to obtain the 32 most significant bits of \texttt{t}.
1405
1406 Thus producing a pseudorandom number needs 6 xor operations with 6 32-bits numbers
1407 that  are provided by  3 64-bits  PRNGs.  This  version successfully  passes the
1408 stringent BigCrush battery of tests~\cite{LEcuyerS07}. 
1409 At this point, we thus
1410 have defined an efficient and statistically unbiased generator. Its speed is
1411 directly related to the use of linear operations, but for the same reason,
1412 this fast generator cannot be proven as secure.
1413
1414
1415
1416 \subsection{Efficient PRNGs based on Chaotic Iterations on GPU}
1417 \label{sec:efficient PRNG gpu}
1418
1419 In order to  take benefits from the computing power  of GPU, a program
1420 needs  to have  independent blocks  of  threads that  can be  computed
1421 simultaneously. In general,  the larger the number of  threads is, the
1422 more local  memory is  used, and the  less branching  instructions are
1423 used  (if,  while,  ...),  the  better the  performances  on  GPU  is.
1424 Obviously, having these requirements in  mind, it is possible to build
1425 a   program    similar   to    the   one   presented    in  Listing 
1426 \ref{algo:seqCIPRNG}, which computes  pseudorandom numbers on GPU.  To
1427 do  so,  we  must   firstly  recall  that  in  the  CUDA~\cite{Nvid10}
1428 environment,    threads    have     a    local    identifier    called
1429 \texttt{ThreadIdx},  which   is  relative  to   the  block  containing
1430 them. Furthermore, in  CUDA, parts of  the code that are executed by the  GPU, are
1431 called {\it kernels}.
1432
1433
1434 \subsection{Naive Version for GPU}
1435
1436  
1437 It is possible to deduce from the CPU version a quite similar version adapted to GPU.
1438 The simple principle consists in making each thread of the GPU computing the CPU version of our PRNG.  
1439 Of course,  the  three xor-like
1440 PRNGs  used in these computations must have different  parameters. 
1441 In a given thread, these parameters are
1442 randomly picked from another PRNGs. 
1443 The  initialization stage is performed by  the CPU.
1444 To do it, the  ISAAC  PRNG~\cite{Jenkins96} is used to  set  all  the
1445 parameters embedded into each thread.   
1446
1447 The implementation of  the three
1448 xor-like  PRNGs  is  straightforward  when  their  parameters  have  been
1449 allocated in  the GPU memory.  Each xor-like  works with  an internal
1450 number  $x$  that saves  the  last  generated  pseudorandom number. Additionally,  the
1451 implementation of the  xor128, the xorshift, and the  xorwow respectively require
1452 4, 5, and 6 unsigned long as internal variables.
1453
1454
1455 \begin{algorithm}
1456 \begin{small}
1457 \KwIn{InternalVarXorLikeArray: array with internal variables of the 3 xor-like
1458 PRNGs in global memory\;
1459 NumThreads: number of threads\;}
1460 \KwOut{NewNb: array containing random numbers in global memory}
1461 \If{threadIdx is concerned by the computation} {
1462   retrieve data from InternalVarXorLikeArray[threadIdx] in local variables\;
1463   \For{i=1 to n} {
1464     compute a new PRNG as in Listing\ref{algo:seqCIPRNG}\;
1465     store the new PRNG in NewNb[NumThreads*threadIdx+i]\;
1466   }
1467   store internal variables in InternalVarXorLikeArray[threadIdx]\;
1468 }
1469 \end{small}
1470 \caption{Main kernel of the GPU ``naive'' version of the PRNG based on chaotic iterations}
1471 \label{algo:gpu_kernel}
1472 \end{algorithm}
1473
1474
1475
1476 Algorithm~\ref{algo:gpu_kernel}  presents a naive  implementation of the proposed  PRNG on
1477 GPU.  Due to the available  memory in the  GPU and the number  of threads
1478 used simultaneously,  the number  of random numbers  that a thread  can generate
1479 inside   a    kernel   is   limited  (\emph{i.e.},    the    variable   \texttt{n}   in
1480 algorithm~\ref{algo:gpu_kernel}). For instance, if  $100,000$ threads are used and
1481 if $n=100$\footnote{in fact, we need to add the initial seed (a 32-bits number)},
1482 then   the  memory   required   to  store all of the  internals   variables  of both the  xor-like
1483 PRNGs\footnote{we multiply this number by $2$ in order to count 32-bits numbers}
1484 and  the pseudorandom  numbers generated by  our  PRNG,  is  equal to  $100,000\times  ((4+5+6)\times
1485 2+(1+100))=1,310,000$ 32-bits numbers, that is, approximately $52$Mb.
1486
1487 This generator is able to pass the whole BigCrush battery of tests, for all
1488 the versions that have been tested depending on their number of threads 
1489 (called \texttt{NumThreads} in our algorithm, tested up to $5$ million).
1490
1491 \begin{remark}
1492 The proposed algorithm has  the  advantage of  manipulating  independent
1493 PRNGs, so this version is easily adaptable on a cluster of computers too. The only thing
1494 to ensure is to use a single ISAAC PRNG. To achieve this requirement, a simple solution consists in
1495 using a master node for the initialization. This master node computes the initial parameters
1496 for all the different nodes involved in the computation.
1497 \end{remark}
1498
1499 \subsection{Improved Version for GPU}
1500
1501 As GPU cards using CUDA have shared memory between threads of the same block, it
1502 is possible  to use this  feature in order  to simplify the  previous algorithm,
1503 i.e., to use less  than 3 xor-like PRNGs. The solution  consists in computing only
1504 one xor-like PRNG by thread, saving  it into the shared memory, and then to use the results
1505 of some  other threads in the  same block of  threads. In order to  define which
1506 thread uses the result of which other  one, we can use a combination array that
1507 contains  the indexes  of  all threads  and  for which  a combination has  been
1508 performed. 
1509
1510 In  Algorithm~\ref{algo:gpu_kernel2},  two  combination  arrays are  used.   The
1511 variable     \texttt{offset}    is     computed    using     the     value    of
1512 \texttt{combination\_size}.   Then we  can compute  \texttt{o1}  and \texttt{o2}
1513 representing the  indexes of  the other  threads whose results  are used  by the
1514 current one.   In this algorithm, we  consider that a 32-bits  xor-like PRNG has
1515 been chosen. In practice, we  use the xor128 proposed in~\cite{Marsaglia2003} in
1516 which  unsigned longs  (64 bits)  have been  replaced by  unsigned  integers (32
1517 bits).
1518
1519 This version  can also pass the whole {\it BigCrush} battery of tests.
1520
1521 \begin{algorithm}
1522 \begin{small}
1523 \KwIn{InternalVarXorLikeArray: array with internal variables of 1 xor-like PRNGs
1524 in global memory\;
1525 NumThreads: Number of threads\;
1526 array\_comb1, array\_comb2: Arrays containing combinations of size combination\_size\;}
1527
1528 \KwOut{NewNb: array containing random numbers in global memory}
1529 \If{threadId is concerned} {
1530   retrieve data from InternalVarXorLikeArray[threadId] in local variables including shared memory and x\;
1531   offset = threadIdx\%combination\_size\;
1532   o1 = threadIdx-offset+array\_comb1[offset]\;
1533   o2 = threadIdx-offset+array\_comb2[offset]\;
1534   \For{i=1 to n} {
1535     t=xor-like()\;
1536     t=t\textasciicircum shmem[o1]\textasciicircum shmem[o2]\;
1537     shared\_mem[threadId]=t\;
1538     x = x\textasciicircum t\;
1539
1540     store the new PRNG in NewNb[NumThreads*threadId+i]\;
1541   }
1542   store internal variables in InternalVarXorLikeArray[threadId]\;
1543 }
1544 \end{small}
1545 \caption{Main kernel for the chaotic iterations based PRNG GPU efficient
1546 version\label{IR}}
1547 \label{algo:gpu_kernel2} 
1548 \end{algorithm}
1549
1550 \subsection{Chaos Evaluation of the Improved Version}
1551
1552 A run of Algorithm~\ref{algo:gpu_kernel2} consists in an operation ($x=x\oplus t$) having 
1553 the form of Equation~\ref{equation Oplus}, which is equivalent to the iterative
1554 system of Eq.~\ref{eq:generalIC}. That is, an iteration of the general chaotic
1555 iterations is realized between the last stored value $x$ of the thread and a strategy $t$
1556 (obtained by a bitwise exclusive or between a value provided by a xor-like() call
1557 and two values previously obtained by two other threads).
1558 To be certain that we are in the framework of Theorem~\ref{t:chaos des general},
1559 we must guarantee that this dynamical system iterates on the space 
1560 $\mathcal{X} = \mathcal{P}\left(\llbracket 1, \mathsf{N} \rrbracket\right)^\mathds{N}\times\mathds{B}^\mathsf{N}$.
1561 The left term $x$ obviously belongs to $\mathds{B}^ \mathsf{N}$.
1562 To prevent from any flaws of chaotic properties, we must check that the right 
1563 term (the last $t$), corresponding to the strategies,  can possibly be equal to any
1564 integer of $\llbracket 1, \mathsf{N} \rrbracket$. 
1565
1566 Such a result is obvious, as for the xor-like(), all the
1567 integers belonging into its interval of definition can occur at each iteration, and thus the 
1568 last $t$ respects the requirement. Furthermore, it is possible to
1569 prove by an immediate mathematical induction that, as the initial $x$
1570 is uniformly distributed (it is provided by a cryptographically secure PRNG),
1571 the two other stored values shmem[o1] and shmem[o2] are uniformly distributed too,
1572 (this is the induction hypothesis), and thus the next $x$ is finally uniformly distributed.
1573
1574 Thus Algorithm~\ref{algo:gpu_kernel2} is a concrete realization of the general
1575 chaotic iterations presented previously, and for this reason, it satisfies the 
1576 Devaney's formulation of a chaotic behavior.
1577
1578 \section{Experiments}
1579 \label{sec:experiments}
1580
1581 Different experiments  have been  performed in order  to measure  the generation
1582 speed. We have used a first computer equipped with a Tesla C1060 NVidia  GPU card
1583 and an
1584 Intel  Xeon E5530 cadenced  at 2.40  GHz,  and 
1585 a second computer  equipped with a smaller  CPU and  a GeForce GTX  280. 
1586 All the
1587 cards have 240 cores.
1588
1589 In  Figure~\ref{fig:time_xorlike_gpu} we  compare the  quantity of  pseudorandom numbers
1590 generated per second with various xor-like based PRNGs. In this figure, the optimized
1591 versions use the {\it xor64} described in~\cite{Marsaglia2003}, whereas the naive versions
1592 embed  the three  xor-like  PRNGs described  in Listing~\ref{algo:seqCIPRNG}.   In
1593 order to obtain the optimal performances, the storage of pseudorandom numbers
1594 into the GPU memory has been removed. This step is time consuming and slows down the numbers
1595 generation.  Moreover this   storage  is  completely
1596 useless, in case of applications that consume the pseudorandom
1597 numbers  directly   after generation. We can see  that when the number of  threads is greater
1598 than approximately 30,000 and lower than 5 million, the number of pseudorandom numbers generated
1599 per second  is almost constant.  With the  naive version, this value ranges from 2.5 to
1600 3GSamples/s.   With  the  optimized   version,  it  is  approximately  equal to
1601 20GSamples/s. Finally  we can remark  that both GPU  cards are quite  similar, but in
1602 practice,  the Tesla C1060  has more  memory than  the GTX  280, and  this memory
1603 should be of better quality.
1604 As a  comparison,   Listing~\ref{algo:seqCIPRNG}  leads   to the  generation of  about
1605 138MSample/s when using one core of the Xeon E5530.
1606
1607 \begin{figure}[htbp]
1608 \begin{center}
1609   \includegraphics[scale=0.7]{curve_time_xorlike_gpu.pdf}
1610 \end{center}
1611 \caption{Quantity of pseudorandom numbers generated per second with the xorlike-based PRNG}
1612 \label{fig:time_xorlike_gpu}
1613 \end{figure}
1614
1615
1616
1617
1618
1619 In Figure~\ref{fig:time_bbs_gpu} we highlight  the performances of the optimized
1620 BBS-based PRNG on GPU.  On  the Tesla C1060 we obtain approximately 700MSample/s
1621 and  on the  GTX 280  about  670MSample/s, which  is obviously  slower than  the
1622 xorlike-based PRNG on GPU. However, we  will show in the next sections that this
1623 new PRNG  has a strong  level of  security, which is  necessarily paid by  a speed
1624 reduction.
1625
1626 \begin{figure}[htbp]
1627 \begin{center}
1628   \includegraphics[scale=0.7]{curve_time_bbs_gpu.pdf}
1629 \end{center}
1630 \caption{Quantity of pseudorandom numbers generated per second using the BBS-based PRNG}
1631 \label{fig:time_bbs_gpu}
1632 \end{figure}
1633
1634 All  these  experiments allow  us  to conclude  that  it  is possible  to
1635 generate a very large quantity of pseudorandom  numbers statistically perfect with the  xor-like version.
1636 To a certain extend, it is also the case with the secure BBS-based version, the speed deflation being
1637 explained by the fact that the former  version has ``only''
1638 chaotic properties and statistical perfection, whereas the latter is also cryptographically secure,
1639 as it is shown in the next sections.
1640
1641
1642
1643
1644
1645
1646
1647 \section{Security Analysis}
1648
1649
1650 This section is dedicated to the security analysis of the
1651   proposed PRNGs, both from a theoretical and from a practical point of view.
1652
1653 \subsection{Theoretical Proof of Security}
1654 \label{sec:security analysis}
1655
1656 The standard definition
1657   of {\it indistinguishability} used is the classical one as defined for
1658   instance in~\cite[chapter~3]{Goldreich}. 
1659   This property shows that predicting the future results of the PRNG
1660   cannot be done in a reasonable time compared to the generation time. It is important to emphasize that this
1661   is a relative notion between breaking time and the sizes of the
1662   keys/seeds. Of course, if small keys or seeds are chosen, the system can
1663   be broken in practice. But it also means that if the keys/seeds are large
1664   enough, the system is secured.
1665 As a complement, an example of a concrete practical evaluation of security
1666 is outlined in the next subsection.
1667
1668 In this section the concatenation of two strings $u$ and $v$ is classically
1669 denoted by $uv$.
1670 In a cryptographic context, a pseudorandom generator is a deterministic
1671 algorithm $G$ transforming strings  into strings and such that, for any
1672 seed $s$ of length $m$, $G(s)$ (the output of $G$ on the input $s$) has size
1673 $\ell_G(m)$ with $\ell_G(m)>m$.
1674 The notion of {\it secure} PRNGs can now be defined as follows. 
1675
1676 \begin{definition}
1677 A cryptographic PRNG $G$ is secure if for any probabilistic polynomial time
1678 algorithm $D$, for any positive polynomial $p$, and for all sufficiently
1679 large $m$'s,
1680 $$| \mathrm{Pr}[D(G(U_m))=1]-Pr[D(U_{\ell_G(m)})=1]|< \frac{1}{p(m)},$$
1681 where $U_r$ is the uniform distribution over $\{0,1\}^r$ and the
1682 probabilities are taken over $U_m$, $U_{\ell_G(m)}$ as well as over the
1683 internal coin tosses of $D$. 
1684 \end{definition}
1685
1686 Intuitively,  it means  that  there is  no  polynomial time  algorithm that  can
1687 distinguish a  perfect uniform random generator  from $G$ with  a non negligible
1688 probability.   An equivalent  formulation of  this well-known  security property
1689 means that  it is  possible \emph{in practice}  to predict  the next bit  of the
1690 generator, knowing all  the previously produced ones.  The  interested reader is
1691 referred to~\cite[chapter~3]{Goldreich}  for more  information. Note that  it is
1692 quite easily possible to change the function $\ell$ into any polynomial function
1693 $\ell^\prime$ satisfying $\ell^\prime(m)>m)$~\cite[Chapter 3.3]{Goldreich}.
1694
1695 The generation schema developed in (\ref{equation Oplus}) is based on a
1696 pseudorandom generator. Let $H$ be a cryptographic PRNG. We may assume,
1697 without loss of generality, that for any string $S_0$ of size $N$, the size
1698 of $H(S_0)$ is $kN$, with $k>2$. It means that $\ell_H(N)=kN$. 
1699 Let $S_1,\ldots,S_k$ be the 
1700 strings of length $N$ such that $H(S_0)=S_1 \ldots S_k$ ($H(S_0)$ is the concatenation of
1701 the $S_i$'s). The cryptographic PRNG $X$ defined in (\ref{equation Oplus})
1702 is the algorithm mapping any string of length $2N$ $x_0S_0$ into the string
1703 $(x_0\oplus S_0 \oplus S_1)(x_0\oplus S_0 \oplus S_1\oplus S_2)\ldots
1704 (x_o\bigoplus_{i=0}^{i=k}S_i)$. One in particular has $\ell_{X}(2N)=kN=\ell_H(N)$. 
1705 We claim now that if this PRNG is secure,
1706 then the new one is secure too.
1707
1708 \begin{proposition}
1709 \label{cryptopreuve}
1710 If $H$ is a secure cryptographic PRNG, then $X$ is a secure cryptographic
1711 PRNG too.
1712 \end{proposition}
1713
1714 \begin{proof}
1715 The proposition is proven by contraposition. Assume that $X$ is not
1716 secure. By Definition, there exists a polynomial time probabilistic
1717 algorithm $D$, a positive polynomial $p$, such that for all $k_0$ there exists
1718 $N\geq \frac{k_0}{2}$ satisfying 
1719 $$| \mathrm{Pr}[D(X(U_{2N}))=1]-\mathrm{Pr}[D(U_{kN}=1]|\geq \frac{1}{p(2N)}.$$
1720 We describe a new probabilistic algorithm $D^\prime$ on an input $w$ of size
1721 $kN$:
1722 \begin{enumerate}
1723 \item Decompose $w$ into $w=w_1\ldots w_{k}$, where each $w_i$ has size $N$.
1724 \item Pick a string $y$ of size $N$ uniformly at random.
1725 \item Compute $z=(y\oplus w_1)(y\oplus w_1\oplus w_2)\ldots (y
1726   \bigoplus_{i=1}^{i=k} w_i).$
1727 \item Return $D(z)$.
1728 \end{enumerate}
1729
1730
1731 Consider  for each $y\in \mathbb{B}^{kN}$ the function $\varphi_{y}$
1732 from $\mathbb{B}^{kN}$ into $\mathbb{B}^{kN}$ mapping $w=w_1\ldots w_k$
1733 (each $w_i$ has length $N$) to 
1734 $(y\oplus w_1)(y\oplus w_1\oplus w_2)\ldots (y
1735   \bigoplus_{i=1}^{i=k_1} w_i).$ By construction, one has for every $w$,
1736 \begin{equation}\label{PCH-1}
1737 D^\prime(w)=D(\varphi_y(w)),
1738 \end{equation}
1739 where $y$ is randomly generated. 
1740 Moreover, for each $y$, $\varphi_{y}$ is injective: if 
1741 $(y\oplus w_1)(y\oplus w_1\oplus w_2)\ldots (y\bigoplus_{i=1}^{i=k_1}
1742 w_i)=(y\oplus w_1^\prime)(y\oplus w_1^\prime\oplus w_2^\prime)\ldots
1743 (y\bigoplus_{i=1}^{i=k} w_i^\prime)$, then for every $1\leq j\leq k$,
1744 $y\bigoplus_{i=1}^{i=j} w_i^\prime=y\bigoplus_{i=1}^{i=j} w_i$. It follows,
1745 by a direct induction, that $w_i=w_i^\prime$. Furthermore, since $\mathbb{B}^{kN}$
1746 is finite, each $\varphi_y$ is bijective. Therefore, and using (\ref{PCH-1}),
1747 one has
1748 $\mathrm{Pr}[D^\prime(U_{kN})=1]=\mathrm{Pr}[D(\varphi_y(U_{kN}))=1]$ and,
1749 therefore, 
1750 \begin{equation}\label{PCH-2}
1751 \mathrm{Pr}[D^\prime(U_{kN})=1]=\mathrm{Pr}[D(U_{kN})=1].
1752 \end{equation}
1753
1754 Now, using (\ref{PCH-1}) again, one has  for every $x$,
1755 \begin{equation}\label{PCH-3}
1756 D^\prime(H(x))=D(\varphi_y(H(x))),
1757 \end{equation}
1758 where $y$ is randomly generated. By construction, $\varphi_y(H(x))=X(yx)$,
1759 thus
1760 \begin{equation}%\label{PCH-3}      %%RAPH : j'ai viré ce label qui existe déjà, il est 3 ligne avant
1761 D^\prime(H(x))=D(yx),
1762 \end{equation}
1763 where $y$ is randomly generated. 
1764 It follows that 
1765
1766 \begin{equation}\label{PCH-4}
1767 \mathrm{Pr}[D^\prime(H(U_{N}))=1]=\mathrm{Pr}[D(U_{2N})=1].
1768 \end{equation}
1769  From (\ref{PCH-2}) and (\ref{PCH-4}), one can deduce that
1770 there exists a polynomial time probabilistic
1771 algorithm $D^\prime$, a positive polynomial $p$, such that for all $k_0$ there exists
1772 $N\geq \frac{k_0}{2}$ satisfying 
1773 $$| \mathrm{Pr}[D(H(U_{N}))=1]-\mathrm{Pr}[D(U_{kN}=1]|\geq \frac{1}{p(2N)},$$
1774 proving that $H$ is not secure, which is a contradiction. 
1775 \end{proof}
1776
1777
1778
1779 \subsection{Practical Security Evaluation}
1780 \label{sec:Practicak evaluation}
1781
1782 Pseudorandom generators based on Eq.~\eqref{equation Oplus} are thus cryptographically secure when
1783 they are XORed with an already cryptographically
1784 secure PRNG. But, as stated previously,
1785 such a property does not mean that, whatever the
1786 key size, no attacker can predict the next bit
1787 knowing all the previously released ones.
1788 However, given a key size, it is possible to 
1789 measure in practice the minimum duration needed
1790 for an attacker to break a cryptographically
1791 secure PRNG, if we know the power of his/her
1792 machines. Such a concrete security evaluation 
1793 is related to the $(T,\varepsilon)-$security
1794 notion, which is recalled and evaluated in what 
1795 follows, for the sake of completeness.
1796
1797 Let us firstly recall that,
1798 \begin{definition}
1799 Let $\mathcal{D} : \mathds{B}^M \longrightarrow \mathds{B}$ be a probabilistic algorithm that runs
1800 in time $T$. 
1801 Let $\varepsilon > 0$. 
1802 $\mathcal{D}$ is called a $(T,\varepsilon)-$distinguishing attack on pseudorandom
1803 generator $G$ if
1804
1805 $$\left| Pr[\mathcal{D}(G(k)) = 1 \mid k \in_R \{0,1\}^\ell ]\right. - \left. Pr[\mathcal{D}(s) = 1 \mid s \in_R \mathds{B}^M ]\right| \geqslant \varepsilon,$$
1806 \noindent where the probability is taken over the internal coin flips of $\mathcal{D}$, and the notation
1807 ``$\in_R$'' indicates the process of selecting an element at random and uniformly over the
1808 corresponding set.
1809 \end{definition}
1810
1811 Let us recall that the running time of a probabilistic algorithm is defined to be the
1812 maximum of the expected number of steps needed to produce an output, maximized
1813 over all inputs; the expected number is averaged over all coin flips made by the algorithm~\cite{Knuth97}.
1814 We are now able to define the notion of cryptographically secure PRNGs:
1815
1816 \begin{definition}
1817 A pseudorandom generator is $(T,\varepsilon)-$secure if there exists no $(T,\varepsilon)-$distinguishing attack on this pseudorandom generator.
1818 \end{definition}
1819
1820
1821
1822
1823
1824
1825
1826 Suppose now that the PRNG of Eq.~\eqref{equation Oplus} will work during 
1827 $M=100$ time units, and that during this period,
1828 an attacker can realize $10^{12}$ clock cycles.
1829 We thus wonder whether, during the PRNG's 
1830 lifetime, the attacker can distinguish this 
1831 sequence from a truly random one, with a probability
1832 greater than $\varepsilon = 0.2$.
1833 We consider that $N$ has 900 bits.
1834
1835 Predicting the next generated bit knowing all the
1836 previously released ones by Eq.~\eqref{equation Oplus} is obviously equivalent to predicting the
1837 next bit in the BBS generator, which
1838 is cryptographically secure. More precisely, it
1839 is $(T,\varepsilon)-$secure: no 
1840 $(T,\varepsilon)-$distinguishing attack can be
1841 successfully realized on this PRNG, if~\cite{Fischlin}
1842 \begin{equation}
1843 T \leqslant \dfrac{L(N)}{6 N (log_2(N))\varepsilon^{-2}M^2}-2^7 N \varepsilon^{-2} M^2 log_2 (8 N \varepsilon^{-1}M)
1844 \label{mesureConcrete}
1845 \end{equation}
1846 where $M$ is the length of the output ($M=100$ in
1847 our example), and $L(N)$ is equal to
1848 $$
1849 2.8\times 10^{-3} exp \left(1.9229 \times (N ~ln~ 2)^\frac{1}{3} \times (ln(N~ln~  2))^\frac{2}{3}\right)
1850 $$
1851 is the number of clock cycles to factor a $N-$bit
1852 integer.
1853
1854
1855
1856
1857 A direct numerical application shows that this attacker 
1858 cannot achieve its $(10^{12},0.2)$ distinguishing
1859 attack in that context.
1860
1861
1862
1863 \section{Cryptographical Applications}
1864
1865 \subsection{A Cryptographically Secure PRNG for GPU}
1866 \label{sec:CSGPU}
1867
1868 It is  possible to build a  cryptographically secure PRNG based  on the previous
1869 algorithm (Algorithm~\ref{algo:gpu_kernel2}).   Due to Proposition~\ref{cryptopreuve},
1870 it simply consists  in replacing
1871 the  {\it  xor-like} PRNG  by  a  cryptographically  secure one.  
1872 We have chosen the Blum Blum Shub generator~\cite{BBS} (usually denoted by BBS) having the form:
1873 $$x_{n+1}=x_n^2~ mod~ M$$  where $M$ is the product of  two prime numbers (these
1874 prime numbers  need to be congruent  to 3 modulus  4). BBS is known to be
1875 very slow and only usable for cryptographic applications. 
1876
1877   
1878 The modulus operation is the most time consuming operation for current
1879 GPU cards.  So in order to obtain quite reasonable performances, it is
1880 required to use only modulus  on 32-bits integer numbers. Consequently
1881 $x_n^2$ need  to be lesser than $2^{32}$,  and thus the number $M$ must be
1882 lesser than $2^{16}$.  So in practice we can choose prime numbers around
1883 256 that are congruent to 3 modulus 4.  With 32-bits numbers, only the
1884 4 least significant bits of $x_n$ can be chosen (the maximum number of
1885 indistinguishable    bits    is    lesser    than   or    equals    to
1886 $log_2(log_2(M))$). In other words, to generate a  32-bits number, we need to use
1887 8 times  the BBS  algorithm with possibly different  combinations of  $M$. This
1888 approach is  not sufficient to be able to pass  all the tests of TestU01,
1889 as small values of  $M$ for the BBS  lead to
1890   small periods. So, in  order to add randomness  we have proceeded with
1891 the followings  modifications. 
1892 \begin{itemize}
1893 \item
1894 Firstly, we  define 16 arrangement arrays  instead of 2  (as described in
1895 Algorithm \ref{algo:gpu_kernel2}), but only 2 of them are used at each call of
1896 the  PRNG kernels. In  practice, the  selection of   combination
1897 arrays to be used is different for all the threads. It is determined
1898 by using  the three last bits  of two internal variables  used by BBS.
1899 %This approach  adds more randomness.   
1900 In Algorithm~\ref{algo:bbs_gpu},
1901 character  \& is for the  bitwise AND. Thus using  \&7 with  a number
1902 gives the last 3 bits, thus providing a number between 0 and 7.
1903 \item
1904 Secondly, after the  generation of the 8 BBS numbers  for each thread, we
1905 have a 32-bits number whose period is possibly quite small. So
1906 to add randomness,  we generate 4 more BBS numbers   to
1907 shift  the 32-bits  numbers, and  add up to  6 new  bits.  This  improvement is
1908 described  in Algorithm~\ref{algo:bbs_gpu}.  In  practice, the last 2 bits
1909 of the first new BBS number are  used to make a left shift of at most
1910 3 bits. The  last 3 bits of the  second new BBS number are  added to the
1911 strategy whatever the value of the first left shift. The third and the
1912 fourth new BBS  numbers are used similarly to apply  a new left shift
1913 and add 3 new bits.
1914 \item
1915 Finally, as  we use 8 BBS numbers  for each thread, the  storage of these
1916 numbers at the end of the  kernel is performed using a rotation. So,
1917 internal  variable for  BBS number  1 is  stored in  place  2, internal
1918 variable  for BBS  number 2  is  stored in  place 3,  ..., and finally, internal
1919 variable for BBS number 8 is stored in place 1.
1920 \end{itemize}
1921
1922 \begin{algorithm}
1923 \begin{small}
1924 \KwIn{InternalVarBBSArray: array with internal variables of the 8 BBS
1925 in global memory\;
1926 NumThreads: Number of threads\;
1927 array\_comb: 2D Arrays containing 16 combinations (in first dimension)  of size combination\_size (in second dimension)\;
1928 array\_shift[4]=\{0,1,3,7\}\;
1929 }
1930
1931 \KwOut{NewNb: array containing random numbers in global memory}
1932 \If{threadId is concerned} {
1933   retrieve data from InternalVarBBSArray[threadId] in local variables including shared memory and x\;
1934   we consider that bbs1 ... bbs8 represent the internal states of the 8 BBS numbers\;
1935   offset = threadIdx\%combination\_size\;
1936   o1 = threadIdx-offset+array\_comb[bbs1\&7][offset]\;
1937   o2 = threadIdx-offset+array\_comb[8+bbs2\&7][offset]\;
1938   \For{i=1 to n} {
1939     t$<<$=4\;
1940     t|=BBS1(bbs1)\&15\;
1941     ...\;
1942     t$<<$=4\;
1943     t|=BBS8(bbs8)\&15\;
1944     \tcp{two new shifts}
1945     shift=BBS3(bbs3)\&3\;
1946     t$<<$=shift\;
1947     t|=BBS1(bbs1)\&array\_shift[shift]\;
1948     shift=BBS7(bbs7)\&3\;
1949     t$<<$=shift\;
1950     t|=BBS2(bbs2)\&array\_shift[shift]\;
1951     t=t\textasciicircum  shmem[o1]\textasciicircum     shmem[o2]\;
1952     shared\_mem[threadId]=t\;
1953     x = x\textasciicircum   t\;
1954
1955     store the new PRNG in NewNb[NumThreads*threadId+i]\;
1956   }
1957   store internal variables in InternalVarXorLikeArray[threadId] using a rotation\;
1958 }
1959 \end{small}
1960 \caption{main kernel for the BBS based PRNG GPU}
1961 \label{algo:bbs_gpu}
1962 \end{algorithm}
1963
1964 In Algorithm~\ref{algo:bbs_gpu}, $n$ is for  the quantity of random numbers that
1965 a thread has to  generate.  The operation t<<=4 performs a left  shift of 4 bits
1966 on the variable  $t$ and stores the result in  $t$, and $BBS1(bbs1)\&15$ selects
1967 the last  four bits  of the  result of $BBS1$.   Thus an  operation of  the form
1968 $t<<=4; t|=BBS1(bbs1)\&15\;$  realizes in $t$ a  left shift of 4  bits, and then
1969 puts the 4 last bits of $BBS1(bbs1)$  in the four last positions of $t$.  Let us
1970 remark that the initialization $t$ is not a  necessity as we fill it 4 bits by 4
1971 bits, until  having obtained 32-bits.  The  two last new shifts  are realized in
1972 order to enlarge the small periods of  the BBS used here, to introduce a kind of
1973 variability.  In these operations, we make twice a left shift of $t$ of \emph{at
1974   most}  3 bits,  represented by  \texttt{shift} in  the algorithm,  and  we put
1975 \emph{exactly} the \texttt{shift}  last bits from a BBS  into the \texttt{shift}
1976 last bits of $t$. For this, an array named \texttt{array\_shift}, containing the
1977 correspondence between the  shift and the number obtained  with \texttt{shift} 1
1978 to make the \texttt{and} operation is used. For example, with a left shift of 0,
1979 we  make an  and operation  with 0,  with  a left  shift of  3, we  make an  and
1980 operation with 7 (represented by 111 in binary mode).
1981
1982 It should  be noticed that this generator has once more the form $x^{n+1} = x^n \oplus S^n$,
1983 where $S^n$ is referred in this algorithm as $t$: each iteration of this
1984 PRNG ends with $x = x \wedge t$. This $S^n$ is only constituted
1985 by secure bits produced by the BBS generator, and thus, due to
1986 Proposition~\ref{cryptopreuve}, the resulted PRNG is 
1987 cryptographically secure.
1988
1989 As stated before, even if the proposed PRNG is cryptocaphically
1990 secure, it does not mean that such a generator
1991 can be used as described here when attacks are
1992 awaited. The problem is to determine the minimum 
1993 time required for an attacker, with a given 
1994 computational power, to predict under a probability
1995 lower than 0.5 the $n+1$th bit, knowing the $n$
1996 previous ones. The proposed GPU generator will be
1997 useful in a security context, at least in some 
1998 situations where a secret protected by a pseudorandom
1999 keystream is rapidly obsolete, if this time to 
2000 predict the next bit is large enough when compared
2001 to both the generation and transmission times.
2002 It is true that the prime numbers used in the last
2003 section are very small compared to up-to-date 
2004 security recommendations. However the attacker has not
2005 access to each BBS, but to the output produced 
2006 by Algorithm~\ref{algo:bbs_gpu}, which is far
2007 more complicated than a simple BBS. Indeed, to
2008 determine if this cryptographically secure PRNG
2009 on GPU can be useful in security context with the 
2010 proposed parameters, or if it is only a very fast
2011 and statistically perfect generator on GPU, its
2012 $(T,\varepsilon)-$security must be determined, and
2013 a formulation similar to Eq.\eqref{mesureConcrete}
2014 must be established. Authors
2015 hope to achieve this difficult task in a future
2016 work.
2017
2018
2019 \subsection{Toward a Cryptographically Secure and Chaotic Asymmetric Cryptosystem}
2020 \label{Blum-Goldwasser}
2021 We finish this research work by giving some thoughts about the use of
2022 the proposed PRNG in an asymmetric cryptosystem.
2023 This first approach will be further investigated in a future work.
2024
2025 \subsubsection{Recalls of the Blum-Goldwasser Probabilistic Cryptosystem}
2026
2027 The Blum-Goldwasser cryptosystem is a cryptographically secure asymmetric key encryption algorithm 
2028 proposed in 1984~\cite{Blum:1985:EPP:19478.19501}.  The encryption algorithm 
2029 implements a XOR-based stream cipher using the BBS PRNG, in order to generate 
2030 the keystream. Decryption is done by obtaining the initial seed thanks to
2031 the final state of the BBS generator and the secret key, thus leading to the
2032  reconstruction of the keystream.
2033
2034 The key generation consists in generating two prime numbers $(p,q)$, 
2035 randomly and independently of each other, that are
2036  congruent to 3 mod 4, and to compute the modulus $N=pq$.
2037 The public key is $N$, whereas the secret key is the factorization $(p,q)$.
2038
2039
2040 Suppose Bob wishes to send a string $m=(m_0, \dots, m_{L-1})$ of $L$ bits to Alice:
2041 \begin{enumerate}
2042 \item Bob picks an integer $r$ randomly in the interval $\llbracket 1,N\rrbracket$ and computes $x_0 = r^2~mod~N$.
2043 \item He uses the BBS to generate the keystream of $L$ pseudorandom bits $(b_0, \dots, b_{L-1})$, as follows. For $i=0$ to $L-1$,
2044 \begin{itemize}
2045 \item $i=0$.
2046 \item While $i \leqslant L-1$:
2047 \begin{itemize}
2048 \item Set $b_i$ equal to the least-significant\footnote{As signaled previously, BBS can securely output up to $\mathsf{N} = \lfloor log(log(N)) \rfloor$ of the least-significant bits of $x_i$ during each round.} bit of $x_i$,
2049 \item $i=i+1$,
2050 \item $x_i = (x_{i-1})^2~mod~N.$
2051 \end{itemize}
2052 \end{itemize}
2053 \item The ciphertext is computed by XORing the plaintext bits $m$ with the keystream: $ c = (c_0, \dots, c_{L-1}) = m \oplus  b$. This ciphertext is $[c, y]$, where $y=x_{0}^{2^{L}}~mod~N.$
2054 \end{enumerate}
2055
2056
2057 When Alice receives $\left[(c_0, \dots, c_{L-1}), y\right]$, she can recover $m$ as follows:
2058 \begin{enumerate}
2059 \item Using the secret key $(p,q)$, she computes $r_p = y^{((p+1)/4)^{L}}~mod~p$ and $r_q = y^{((q+1)/4)^{L}}~mod~q$.
2060 \item The initial seed can be obtained using the following procedure: $x_0=q(q^{-1}~{mod}~p)r_p + p(p^{-1}~{mod}~q)r_q~{mod}~N$.
2061 \item She recomputes the bit-vector $b$ by using BBS and $x_0$.
2062 \item Alice finally computes the plaintext by XORing the keystream with the ciphertext: $ m = c \oplus  b$.
2063 \end{enumerate}
2064
2065
2066 \subsubsection{Proposal of a new Asymmetric Cryptosystem Adapted from Blum-Goldwasser}
2067
2068 We propose to adapt the Blum-Goldwasser protocol as follows. 
2069 Let $\mathsf{N} = \lfloor log(log(N)) \rfloor$ be the number of bits that can
2070 be obtained securely with the BBS generator using the public key $N$ of Alice.
2071 Alice will pick randomly $S^0$ in $\llbracket 0, 2^{\mathsf{N}-1}\rrbracket$ too, and
2072 her new public key will be $(S^0, N)$.
2073
2074 To encrypt his message, Bob will compute
2075 %%RAPH : ici, j'ai mis un simple $
2076 \begin{equation*}
2077 c = \left(m_0 \oplus (b_0 \oplus S^0), m_1 \oplus (b_0 \oplus b_1 \oplus S^0), \hdots, \right.
2078  \left. m_{L-1} \oplus (b_0 \oplus b_1 \hdots \oplus b_{L-1} \oplus S^0) \right)
2079 \end{equation*}
2080 instead of $$\left(m_0 \oplus b_0, m_1 \oplus b_1, \hdots, m_{L-1} \oplus b_{L-1} \right).$$ 
2081
2082 The same decryption stage as in Blum-Goldwasser leads to the sequence 
2083 $$\left(m_0 \oplus S^0, m_1 \oplus S^0, \hdots, m_{L-1} \oplus S^0 \right).$$
2084 Thus, with a simple use of $S^0$, Alice can obtain the plaintext.
2085 By doing so, the proposed generator is used in place of BBS, leading to
2086 the inheritance of all the properties presented in this paper.
2087
2088 \section{Conclusion}
2089
2090
2091 In  this  paper, a formerly proposed PRNG based on chaotic iterations
2092 has been generalized to improve its speed. It has been proven to be
2093 chaotic according to Devaney.
2094 Efficient implementations on  GPU using xor-like  PRNGs as input generators
2095 have shown that a very large quantity of pseudorandom numbers can be generated per second (about
2096 20Gsamples/s), and that these proposed PRNGs succeed to pass the hardest battery in TestU01,
2097 namely the BigCrush.
2098 Furthermore, we have shown that when the inputted generator is cryptographically
2099 secure, then it is the case too for the PRNG we propose, thus leading to
2100 the possibility to develop fast and secure PRNGs using the GPU architecture.
2101 An improvement of the Blum-Goldwasser cryptosystem, making it 
2102 behave chaotically, has finally been proposed. 
2103
2104 In future  work we plan to extend this research, building a parallel PRNG for  clusters or
2105 grid computing. Topological properties of the various proposed generators will be investigated,
2106 and the use of other categories of PRNGs as input will be studied too. The improvement
2107 of Blum-Goldwasser will be deepened. Finally, we
2108 will try to enlarge the quantity of pseudorandom numbers generated per second either
2109 in a simulation context or in a cryptographic one.
2110
2111
2112
2113 \bibliographystyle{plain} 
2114 \bibliography{mabase}
2115 \end{document}